Baisse de trafic SEO et AI Overview : l'audit de survie pour vos blogs et backlinks
Baisse de trafic, chute, avec l'arrivée de l'AI Overview ? Découvrez pourquoi les stratégies SEO classiques et les PBN génériques ne suffisent plus en 2026. Analyse des baisses de CTR, impact sur les blogs de voyage et passage du lien de puissance au lien de contexte sémantique.
MANAGEMENT
LYDIE GOYENETCHE
3/6/202612 min lire


AI Overview, blogs et backlinks : pourquoi les professionnels du SEO commencent à se poser des questions
Depuis quelques jours, une discussion inhabituelle attire l’attention sur le forum SEO WebRankInfo. Plusieurs professionnels expérimentés y évoquent des difficultés liées au trafic et à l’indexation de pages, notamment dans la gestion de blogs ou de réseaux de sites.
En soi, ce type de question n’est pas surprenant dans l’univers du référencement naturel. Ce qui l’est davantage, c’est le profil des personnes qui les posent : des spécialistes confirmés qui gèrent depuis des années des stratégies éditoriales ou des architectures de netlinking avancées, parfois avec des PBN (Private Blog Networks).
Dans leurs analyses, un constat revient souvent : certaines pages continuent de générer beaucoup d’impressions dans la Search Console, mais les clics progressent beaucoup moins vite qu’auparavant. Autrement dit, les contenus apparaissent toujours dans Google, mais les internautes cliquent moins. Certaines pages ne sont plus indexées depuis 2025.
Ce phénomène intervient au moment où Google déploie progressivement une nouvelle fonctionnalité dans ses pages de résultats : Google AI Overview.
Contrairement aux grandes mises à jour algorithmiques annoncées publiquement, ce système d’aperçu généré par intelligence artificielle apparaît progressivement et parfois de manière aléatoire dans les SERP. Il synthétise plusieurs contenus du web pour fournir directement une réponse à l’utilisateur.
Dans certains cas, ce bloc d’intelligence artificielle peut occuper une grande partie de ce que les professionnels du web appellent la ligne de flottaison. Ce terme désigne simplement la partie de la page visible à l’écran sans faire défiler la page, c’est-à-dire ce que l’internaute voit immédiatement après avoir lancé sa recherche.
Sur mobile, cette zone visible est beaucoup plus petite que sur ordinateur. Lorsque l’AI Overview s’y affiche, elle peut parfois occuper jusqu’à 80 % de cet espace visible, repoussant les résultats naturels plus bas dans la page. L’utilisateur doit alors faire défiler l’écran pour voir les liens vers les sites.
Aux États-Unis et au Royaume-Uni, où ce système est largement déployé depuis 2024, plusieurs analyses SEO estiment que certaines requêtes informationnelles ont subi une baisse de CTR organique comprise entre –25 % et –35 %.
En Europe et en France, la situation est pour l’instant différente. Le déploiement reste plus progressif, notamment en raison du cadre réglementaire européen, qui inclut le Digital Markets Act et le Règlement général sur la protection des données. Pour de nombreux sites francophones, la baisse de trafic observée reste aujourd’hui plus modérée, souvent estimée entre –10 % et –15 %.
Pour les éditeurs de blogs et les professionnels du netlinking, plusieurs questions commencent donc à émerger :
Les blogs informationnels conservent-ils le même rôle dans l’écosystème SEO face aux réponses générées par l’IA ?
Les backlinks issus d’articles thématiques sont-ils toujours interprétés de la même manière par les algorithmes et les systèmes d’IA de Google ?
La structure sémantique d’un blog — notamment via les topic clusters et les ancres de liens — devient-elle un facteur déterminant pour être compris et cité par les moteurs ?
Car derrière la question du trafic se cache en réalité un enjeu plus profond : comprendre comment les robots d’indexation et les systèmes d’intelligence artificielle interprètent aujourd’hui la relation entre un article, son contexte sémantique et les liens qu’il transmet.
Comprendre pourquoi l’AI Overview modifie déjà le trafic des blogs
Pour comprendre les discussions actuelles entre professionnels du SEO, il faut d’abord regarder où et comment l’AI Overview est réellement déployée. Tous les marchés ne sont pas affectés de la même manière, et l’usage du mobile joue un rôle déterminant dans l’impact observé sur le trafic.
L’avance du marché anglophone
Les premières données significatives proviennent principalement des États-Unis et du Royaume-Uni. C’est sur ces marchés que Google AI Overview est déployée massivement depuis 2024.
Plusieurs analyses SEO y observent une baisse du CTR organique comprise entre –25 % et –35 % sur certaines requêtes informationnelles. Cette chute s’explique par deux facteurs.
D’abord, Google expérimente déjà des formats publicitaires intégrés dans les réponses générées par l’IA, ce qui réduit encore l’espace disponible pour les résultats naturels.
Ensuite, la majorité des recherches d’information se fait aujourd’hui sur mobile. Or, l’écran d’un smartphone est beaucoup plus petit que celui d’un ordinateur. Lorsque l’AI Overview apparaît, elle peut occuper une grande partie de la zone visible de la page sans faire défiler l’écran. Sur certaines requêtes, ce bloc peut représenter jusqu’à 80 % de cette zone visible, ce qui repousse les liens vers les sites beaucoup plus bas.
Les requêtes les plus touchées sont généralement les recherches informationnelles très structurées :
les requêtes du type “What is…” ou “How to…”
les comparatifs produits comme “Best CRM for small business”
certaines questions techniques simples
Dans ces cas-là, l’utilisateur obtient souvent une réponse synthétique directement dans Google, sans avoir besoin de cliquer.
Plusieurs acteurs de l’infrastructure internet commencent à proposer des outils permettant aux éditeurs de sites de mieux contrôler l’usage de leurs contenus par les intelligences artificielles.
C’est notamment le cas de Cloudflare, qui permet désormais aux propriétaires de sites web d’indiquer que leurs pages ne doivent pas être utilisées pour l’entraînement de modèles d’IA.
Cette évolution illustre un débat plus large dans l’écosystème numérique : à mesure que les moteurs deviennent capables de synthétiser l’information directement dans les résultats de recherche, les créateurs de contenus cherchent à préserver la valeur et la traçabilité de leurs publications.
Les IA génératives reposent sur d’énormes volumes de contenus web pour apprendre. Si une partie importante du web devenait inaccessible à ces processus d’entraînement, la capacité des modèles à produire des synthèses fiables sur certains sujets pourrait diminuer.
Une situation encore différente en France
En France, le déploiement est pour l’instant plus progressif. L’AI Overview n’apparaît pas encore sur l’ensemble des requêtes et reste concentrée sur des thématiques dites non sensibles, comme les recettes, le bricolage ou les voyages.
Pour les éditeurs de blogs francophones, la baisse de trafic observée reste donc plus limitée, généralement estimée entre –10 % et –15 %.
Deux éléments expliquent ce décalage.
Le premier est linguistique : les modèles d’intelligence artificielle sont historiquement entraînés sur des volumes de contenus beaucoup plus importants en anglais qu’en français.
Le second est réglementaire. Le cadre européen, notamment le Digital Markets Act et le Règlement général sur la protection des données, impose davantage de transparence et limite certains comportements des grandes plateformes. Google met donc davantage en avant des sources européennes pour éviter des accusations d’abus de position dominante.
Des stratégies de PBN qui évoluent selon les marchés
Ces différences créent aujourd’hui un paysage SEO à plusieurs vitesses.
Dans les marchés anglophones, les SERP sont déjà fortement saturées par les blocs d’IA. Les réseaux de sites doivent donc évoluer vers des PBN beaucoup plus spécialisés, capables de générer un trafic réel et une crédibilité éditoriale.
Dans l’espace francophone (France, Belgique, Suisse), nous sommes encore dans une phase de transition. Certains spécialistes parlent déjà d’une stratégie de “brand shielding”, qui consiste à occuper les positions situées juste sous l’AI Overview afin de capter le trafic restant.
Dans l’univers hispanophone, notamment en Espagne ou en Amérique latine, la dynamique est différente. L’AI Overview progresse rapidement sur les requêtes globales, mais reste encore relativement faible sur les recherches locales ou régionales, ce qui renforce l’importance du SEO local.
Les requêtes les plus exposées… et celles qui résistent
Toutes les requêtes ne sont pas impactées de la même manière.
Les catégories les plus fragilisées sont généralement les contenus très standardisés : définitions simples, tutoriels logiciels basiques, convertisseurs ou certaines requêtes liées à la santé.
À l’inverse, certains types de contenus résistent beaucoup mieux : l’actualité très récente, les analyses ou opinions tranchées, les discussions de forums et les tests produits comportant des photos ou une expérience originale.
Pour les professionnels du SEO en France, la situation actuelle peut être vue comme une période de transition de 6 à 12 mois. C’est un moment stratégique pour améliorer la qualité éditoriale des blogs, clarifier l’identité des sites et transformer progressivement les contenus purement informationnels en contenus d’expérience et d’expertise réelle.
Pourquoi les blogs de voyage sont particulièrement exposés à l’AI Overview
Parmi les catégories de sites les plus observées par les professionnels du SEO depuis l’arrivée de Google AI Overview, les blogs de type “guide de voyage” occupent une place particulière.
Ce n’est pas un hasard. Depuis 2025, l’AI Overview fonctionne de plus en plus comme un outil de planification capable de synthétiser plusieurs sources pour construire un itinéraire, répondre à des questions pratiques ou comparer des options. Autrement dit, elle reproduit précisément ce que faisaient depuis des années de nombreux blogs de voyage.
Pour des sites comme Visiter Paris ou Visiter New York, l’impact dépend désormais beaucoup de la structure éditoriale des articles.
Ce que l’AI Overview absorbe facilement
L’intelligence artificielle de Google est particulièrement performante lorsqu’il s’agit de répondre à des requêtes utilitaires et factuelles. Lorsque les articles reposent essentiellement sur ce type de contenu, la baisse de trafic peut devenir très importante.
Les contenus les plus vulnérables sont généralement :
les listes simples : par exemple “Top 10 des monuments à Paris” ou “Que faire à New York en 3 jours”. L’AI Overview peut générer directement un itinéraire avec cartes, distances et horaires
les questions pratiques : prix du métro, horaires d’un monument, meilleure saison pour visiter un pays
les informations logistiques : transports entre un aéroport et le centre-ville, options de déplacement ou comparatifs simples
Dans ces situations, l’IA produit ce que l’on pourrait appeler des featured snippets augmentés : un résumé structuré qui suffit souvent à l’utilisateur pour organiser sa visite sans ouvrir un article.
Ce que l’AI Overview ne remplace pas encore
À l’inverse, certains types de contenus continuent de résister beaucoup mieux.
L’AI Overview reste très dépendante des consensus statistiques présents sur le web. Elle synthétise ce qui existe déjà, mais elle a beaucoup plus de difficulté à produire ou à remplacer une expérience personnelle ou un point de vue incarné.
Les contenus qui résistent le mieux sont généralement :
les récits d’expérience sensorielle et subjective
les lieux peu connus ou les “hidden gems” qui ne sont pas massivement documentés
les analyses personnelles ou les avis tranchés
les informations mises à jour très rapidement, par exemple lors d’un événement local
Dans ces cas-là, le blog conserve une valeur que l’IA ne peut pas facilement reproduire.
La transformation du modèle éditorial des blogs de voyage
Avec l’AI Overview, les blogs de voyage doivent progressivement évoluer. Pendant longtemps, beaucoup fonctionnaient comme de petites encyclopédies touristiques. Ce modèle devient aujourd’hui plus fragile.
La tendance observée chez les sites qui résistent le mieux consiste à transformer le blog en compagnon de voyage plutôt qu’en simple base d’informations.
Les articles les plus performants aujourd’hui reposent souvent sur :
une expérience personnelle clairement racontée
des données originales (photos, prix constatés, conseils locaux)
un ton éditorial identifiable
Dans ce contexte, le SEO évolue lui aussi. Les mots-clés très génériques deviennent moins porteurs, tandis que la longue traîne spécifique et contextuelle prend davantage de valeur.
Le piège des PBN pour les sites touristiques
Cette évolution change également le rôle des réseaux de sites.
Lorsque plusieurs sites publient exactement les mêmes informations génériques sur une destination — par exemple que Paris est une belle ville et que le Louvre vaut la visite — l’AI Overview peut simplement absorber ces données sans générer de clic.
Dans un environnement dominé par l’intelligence artificielle, un réseau de sites ne peut plus se contenter de répéter un contenu similaire. Pour rester crédible aux yeux des moteurs, il doit contribuer à construire une perception d’expertise, d’expérience et d’autorité éditoriale, ce que Google regroupe souvent sous la notion d’E-E-A-T.
Une évolution plus qu’une disparition
Pour les blogs de voyage, la question n’est donc pas seulement celle d’une perte de trafic.
Le véritable enjeu est la transformation du rôle du contenu : passer d’un modèle encyclopédique facilement synthétisable par l’IA à un modèle basé sur l’expérience réelle, la subjectivité et l’expertise terrain.
Dans certains cas, cela peut même produire un trafic plus qualifié. Lorsque Google cite un site comme source dans l’AI Overview, les clics sont souvent moins nombreux mais proviennent d’utilisateurs beaucoup plus engagés dans leur projet de voyage.
Conclusion : la fin du lien de puissance, l’avènement du lien de contexte sémantique
Pendant longtemps, une grande partie du SEO reposait sur une logique relativement simple : plus un site recevait de backlinks, plus il gagnait en autorité et en positionnement. Dans ce modèle, le lien fonctionnait avant tout comme un signal de popularité.
Avec l’arrivée de Google AI Overview, cette logique évolue progressivement.
Lorsque l’intelligence artificielle génère une réponse dans les SERP, elle ne se contente plus d’identifier les pages populaires. Elle analyse aussi la cohérence et la crédibilité du contenu qui entoure les liens.
Dans ce contexte, un backlink provenant d’un site dont le contenu est superficiel, générique ou en contradiction avec les informations dominantes du web peut perdre une grande partie de sa valeur. Dans certains cas, il peut même devenir un signal suspect pour les systèmes d’analyse de Google.
La question que de nombreux professionnels du SEO commencent à se poser est donc la suivante :
Un backlink provenant d’un site que l’intelligence artificielle considère comme peu fiable ou générique conserve-t-il encore un pouvoir de positionnement, ou devient-il progressivement un signal négatif ?
Autrement dit, le netlinking ne se résume plus uniquement à une logique de volume ou de popularité. Il s’inscrit désormais dans une lecture sémantique et contextuelle du web, où la crédibilité éditoriale du site source devient presque aussi importante que le lien lui-même.
L’audit de survie sémantique pour vos backlinks
Face à cette évolution, une nouvelle approche du netlinking commence à émerger. On pourrait la résumer par une idée simple : pour qu’un backlink reste efficace en 2026, il doit s’inscrire dans un contexte éditorial crédible et compréhensible par les systèmes d’IA.
Trois éléments deviennent particulièrement déterminants.
Le site source doit lui-même être crédible
Un blog ou un site utilisé pour le netlinking doit présenter une identité éditoriale claire, un contenu cohérent et une existence identifiable. Autrement dit, il doit pouvoir être considéré comme une source légitime par les systèmes d’analyse qui alimentent l’AI Overview.Le lien doit s’inscrire dans un raisonnement réel
Les backlinks les plus efficaces ne sont plus ceux qui apparaissent dans des listes génériques, mais ceux qui s’intègrent dans un paragraphe qui apporte une information supplémentaire, une nuance ou une preuve.Le contexte sémantique devient déterminant
Les robots et les systèmes d’IA analysent désormais la phrase, le paragraphe et le sujet global de la page pour comprendre pourquoi ce lien existe.
Un exemple permet de comprendre cette évolution.
Un lien vers un site consacré à New York placé dans un article générique intitulé “Top 10 des choses à faire à New York” aura aujourd’hui une portée limitée. Ce type de contenu est facilement synthétisable par l’AI Overview.
En revanche, un lien intégré dans un article racontant “Comment j’ai évité la foule à l’Empire State Building”, avec des observations concrètes et des photos originales, apporte une information que l’IA ne possède pas nécessairement. Le lien devient alors une preuve contextuelle, et non plus simplement un signal de popularité.
Au fond, l’évolution actuelle du SEO ne marque pas la disparition des backlinks. Elle marque surtout la transition entre deux logiques : celle du lien de puissance, basé sur l’accumulation d’autorité, et celle du lien de contexte, intégré dans un contenu crédible et porteur de sens.
Dans un web où les moteurs deviennent capables de synthétiser l’information, les liens qui survivront seront probablement ceux qui relient des expériences, des preuves et des connaissances réelles, plutôt que ceux qui se contentent d’optimiser des mots-clés.
Pourquoi l’accompagnement marketing devient indispensable
Dans ce nouveau contexte, le référencement naturel ne peut plus être piloté uniquement avec des outils SEO ou des logiques d’automatisation du netlinking. Choisir les sites sur lesquels acheter un lien, construire un réseau éditorial cohérent ou repositionner un blog face à l’AI Overview relève désormais de compétences plus larges que la simple optimisation technique.
Ces décisions impliquent une compréhension du marché, des comportements de recherche, des intentions des utilisateurs et de la manière dont les intelligences artificielles synthétisent l’information dans les SERP. Autrement dit, elles relèvent pleinement du marketing d’étude et du marketing stratégique.
Avant d’acheter un lien ou de publier un article dans un blog partenaire, plusieurs questions deviennent essentielles : le site source est-il crédible aux yeux des moteurs ? Son contenu apporte-t-il une expérience ou une expertise identifiable ? Le contexte éditorial permet-il au lien de s’inscrire dans un raisonnement logique et utile pour l’utilisateur ?
Dans un environnement où l’intelligence artificielle peut absorber et synthétiser une grande partie du contenu informationnel, les stratégies de visibilité ne peuvent plus être construites à l’aveugle. Elles doivent s’appuyer sur une analyse plus globale : structure éditoriale du site, positionnement thématique, cohérence sémantique et rôle réel des backlinks dans la stratégie de contenu.
C’est précisément là que l’accompagnement marketing retrouve toute sa place. Il ne s’agit plus seulement d’optimiser des pages pour les moteurs, mais d’aider les entreprises à structurer leur présence éditoriale, sélectionner les bons partenaires et construire un écosystème de contenus capable de résister aux nouvelles formes de recherche pilotées par l’intelligence artificielle.
Dans ce nouveau paysage du web, le SEO reste un levier puissant, mais il devient de plus en plus indissociable d’une réflexion marketing globale sur la valeur du contenu, la crédibilité des sources et la stratégie de visibilité à long terme.


EUSKAL CONSEIL
9 rue Iguzki alde
64310 ST PEE SUR NIVELLE
07 82 50 57 66
euskalconseil@gmail.com
Mentions légales: Métiers du Conseil Hiscox HSXIN320063010
Ce site utilise uniquement Plausible Analytics, un outil de mesure d’audience respectueux de la vie privée. Aucune donnée personnelle n’est collectée, aucun cookie n’est utilisé.