Positions SEO stables mais trafic en baisse ? Le paradoxe AI Overview
Vos positions SEO restent hautes mais votre trafic organique s'érode ? Découvrez comment l'AI Overview et la mutation des SERP e-commerce capturent vos clics. Analyse et stratégies pour 2026.
MARKETING
Lydie GOYENETCHE
3/14/202613 min lire
Le paradoxe du trafic e-commerce à l’ère des AI Overviews
Depuis 2024, les pages de résultats de Google connaissent une transformation silencieuse avec le déploiement progressif des AI Overviews, ces blocs de réponse générés par intelligence artificielle qui apparaissent en haut de certaines requêtes. Aux États-Unis, où cette fonctionnalité est active depuis plus longtemps, plusieurs études SEO convergent : sur les requêtes informationnelles ou comparatives, le taux de clic organique (CTR) peut chuter de 15 % à 35 % lorsque l’AI Overview apparaît dans la page de résultats.
Ces données proviennent notamment d’analyses consolidées sur le marché américain par des plateformes d’observation SEO comme Ahrefs ou ZipTie, qui ont étudié l’impact des nouveaux blocs génératifs sur les comportements de recherche. Sur mobile, l’effet est encore plus marqué : selon plusieurs observations sectorielles, les blocs d’IA peuvent occuper une grande partie de la zone visible à l’écran, parfois jusqu’à environ 70 % à 80 % de la première fenêtre d’affichage, repoussant les résultats naturels plus bas dans la page.
Pour les sites éditoriaux ou les blogs, ce phénomène a rapidement été associé à la montée du “zéro-clic” : l’utilisateur obtient une réponse directement dans Google sans ouvrir de page web. Mais pour les acteurs du e-commerce, la situation est plus subtile et parfois plus déroutante.
De nombreux e-commerçants observent aujourd’hui un paradoxe dans leurs données : les positions SEO restent stables, les impressions continuent d’augmenter dans les outils d’analyse, mais les courbes de trafic organique commencent à s’éroder. Autrement dit, le référencement ne semble pas s’être dégradé, et pourtant les visites diminuent.
Ce phénomène s’explique souvent par une transformation profonde de la SERP (Search Engine Results Page). Avant même que l’utilisateur ne clique sur un site, Google propose désormais une synthèse des informations : comparaisons de produits, conseils d’achat ou réponses aux questions pratiques. L’intelligence artificielle agit ainsi comme une sorte de premier conseiller commercial, filtrant et structurant l’information avant que l’internaute n’arrive sur un site marchand.
Dans ce nouveau contexte, l’enjeu pour les e-commerçants n’est plus seulement de gagner des positions dans les résultats de recherche. Il devient essentiel de comprendre une distinction fondamentale : la différence entre perdre du trafic et voir son trafic baisser.
Car si une perte de trafic traduit généralement un problème de référencement (chute de position, concurrence ou mise à jour algorithmique), une baisse de trafic peut au contraire signaler une mutation du marché : celle d’un moteur de recherche qui ne se contente plus d’indexer les pages, mais qui interprète, compare et synthétise l’offre avant même le premier clic.
E-commerce de niche et blog spécialisé : un modèle solide… mais pas immunisé
Les sites e-commerce positionnés sur des niches très spécifiques sont souvent considérés comme relativement protégés face aux évolutions des moteurs de recherche. En théorie, ce type de stratégie repose sur un avantage clair : se positionner sur un univers thématique précis, avec des produits spécialisés et un contenu éditorial destiné à une communauté bien identifiée.
Dans un contexte où les grandes plateformes dominent les requêtes très larges, cette approche permet généralement d’éviter une concurrence frontale avec des acteurs généralistes comme Amazon ou Cdiscount. Les sites spécialisés peuvent alors se concentrer sur des requêtes plus ciblées, souvent associées à une intention d’achat plus précise.
Le modèle classique : boutique spécialisée + blog thématique
Depuis plus d’une décennie, de nombreux e-commerçants utilisent une stratégie combinant deux leviers complémentaires : une boutique en ligne spécialisée et un blog éditorial.
La boutique permet de capter les requêtes transactionnelles, liées à l’achat d’un produit précis. Le blog, quant à lui, attire un trafic plus informationnel : guides d’utilisation, conseils, comparatifs ou contenus liés à la passion qui entoure le produit.
Cette approche s’inscrit dans ce que les spécialistes du référencement appellent souvent une stratégie de content marketing ou de topic cluster. Elle vise à construire une autorité thématique sur un domaine précis afin d’améliorer la visibilité globale du site dans les moteurs de recherche.
Plusieurs études sur le référencement naturel montrent que les sites bénéficiant d’une structure éditoriale cohérente autour d’un sujet précis ont davantage de chances de se positionner durablement dans les résultats de recherche. Cette logique est notamment liée aux critères d’évaluation de la qualité du contenu utilisés par Google, souvent résumés sous le concept d’E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness).
La promesse du SEO de niche
Dans l’univers du référencement naturel, les niches ont longtemps été perçues comme une opportunité stratégique. En ciblant un marché très spécifique — par exemple les accessoires pour voitures miniatures ou les mini plaques personnalisées destinées aux collectionneurs — un site peut bénéficier d’une concurrence moins intense sur les mots-clés.
Cette logique repose sur plusieurs observations bien documentées dans la littérature SEO :
les requêtes très spécifiques ont souvent une concurrence plus faible
elles correspondent généralement à une intention d’achat plus avancée
elles permettent de construire une expertise éditoriale plus facilement identifiable
Les analyses de plateformes d’observation du référencement comme celles publiées par Ahrefs ou Semrush montrent régulièrement que les mots-clés de longue traîne — c’est-à-dire les requêtes très précises composées de plusieurs termes — représentent une part importante du trafic organique des sites spécialisés.
Pourquoi ce modèle peut malgré tout montrer des signes de fragilité
Malgré ces avantages, certains sites spécialisés constatent aujourd’hui des évolutions inattendues dans leurs données de trafic ou d’impressions.
L’une des raisons tient à la manière dont les contenus éditoriaux ont été construits dans le cadre des stratégies SEO des années précédentes. Pendant longtemps, il a été recommandé de multiplier les articles afin de couvrir un maximum de requêtes informationnelles liées à un sujet.
Or ce type de contenu — listes d’idées, questions fréquentes ou guides génériques — correspond précisément aux formats que les systèmes d’intelligence artificielle des moteurs de recherche peuvent désormais synthétiser facilement.
Avec l’apparition progressive des réponses générées dans les pages de résultats, ces contenus restent visibles dans les moteurs mais peuvent recevoir moins de clics, car une partie de la réponse est déjà affichée directement dans la page de recherche.
L’importance de la structure éditoriale
Un autre facteur concerne l’organisation interne du contenu. Lorsque plusieurs articles traitent de sujets très proches, ils peuvent entrer en concurrence pour les mêmes requêtes. Ce phénomène, souvent appelé cannibalisation de mots-clés, peut fragmenter la visibilité du site dans les résultats de recherche.
Les analyses SEO montrent que les sites les plus performants sur la durée disposent généralement d’une architecture éditoriale claire : une page centrale traitant d’un sujet principal, accompagnée d’articles complémentaires qui approfondissent des aspects spécifiques.
Dans le cas contraire, le site peut multiplier les pages sans renforcer réellement son autorité sur un thème donné.
Une niche ne suffit pas toujours
Ainsi, même dans un marché très spécialisé, la performance SEO ne dépend pas uniquement du caractère pointu du produit ou de la communauté visée. Elle repose aussi sur la manière dont les contenus ont été conçus, structurés et reliés entre eux au sein du site.
Autrement dit, la niche reste un avantage stratégique, mais elle ne constitue pas à elle seule une garantie de visibilité durable dans un environnement où les moteurs de recherche évoluent rapidement et où les systèmes d’intelligence artificielle commencent à jouer un rôle croissant dans la manière dont l’information est présentée aux utilisateurs.
E-commerce, ligne de flottaison et nouveaux intermédiaires de la SERP
Si les transformations introduites par les réponses générées par intelligence artificielle concernent d’abord les requêtes informationnelles, le e-commerce n’est pas pour autant épargné. La mutation des pages de résultats ne se limite pas à l’apparition de blocs d’IA : elle s’inscrit dans une évolution plus large où plusieurs éléments occupent désormais la partie supérieure de la SERP.
Pour un site marchand, l’enjeu se situe souvent dans ce que les professionnels du référencement appellent la ligne de flottaison. Il s’agit de la zone visible à l’écran avant que l’utilisateur ne fasse défiler la page. Sur mobile, cette zone est particulièrement réduite, ce qui renforce l’impact des blocs placés en haut des résultats.
La multiplication des blocs dans les SERP e-commerce
Sur de nombreuses requêtes commerciales ou liées à des produits, les résultats de recherche peuvent aujourd’hui contenir plusieurs couches d’information avant même l’apparition des résultats naturels :
des annonces sponsorisées
un carrousel de produits issu de Google Shopping
des suggestions de comparaisons ou d’avis
parfois un bloc de réponse généré par l’IA lorsque la requête comporte une dimension comparative
Dans certains cas, ces éléments occupent une grande partie de la zone visible à l’écran, repoussant les résultats organiques plus bas dans la page.
Ce phénomène ne signifie pas nécessairement que le référencement du site s’est dégradé. Les pages peuvent conserver leurs positions, mais recevoir moins de clics simplement parce qu’elles apparaissent après plusieurs blocs d’intermédiation dans la page de résultats. Donc le problème n'est pas toujours le SEO mais la transformation de la SERP.
L’effet cumulatif sur mobile
L’effet est particulièrement sensible sur smartphone. Plusieurs analyses de SERP menées par des outils d’observation SEO montrent que, sur mobile, la combinaison de publicités, de carrousels produits et de blocs enrichis peut occuper une part importante de l’espace visible avant défilement.
Pour l’utilisateur, la navigation devient alors différente : il est d’abord exposé à une sélection de produits ou à des réponses synthétiques, avant d’accéder aux sites marchands eux-mêmes.
Dans ce contexte, la baisse du trafic organique peut parfois être interprétée à tort comme un problème de référencement, alors qu’elle résulte en réalité d’un changement dans la manière dont les moteurs structurent l’accès à l’information commerciale.
Le rôle des grandes plateformes e-commerce
Un autre élément vient renforcer cette transformation : la présence dominante de grandes plateformes dans les résultats de recherche.
Les marketplaces et les grands acteurs du commerce en ligne disposent d’une autorité et d’une profondeur de catalogue considérables. Des plateformes comme Amazon, eBay ou encore Cdiscount apparaissent très fréquemment dans les carrousels produits et les résultats marchands.
Cette visibilité ne tient pas seulement à leur puissance commerciale. Elle repose aussi sur plusieurs facteurs structurels :
un volume très important de pages produits
une forte notoriété de marque
des données structurées bien intégrées dans les flux marchands
un historique de confiance auprès des moteurs de recherche
Dans ce contexte, les sites e-commerce spécialisés doivent souvent trouver un équilibre entre deux stratégies : apparaître dans les résultats marchands lorsque cela est possible, tout en développant une présence éditoriale capable de capter des requêtes plus spécifiques. Parfois sur certains produits il est plus pertinent d'apparaitre dans les moteurs d'Amazon en payant de la publicité.
Un environnement de recherche plus fragmenté
La SERP moderne ne fonctionne plus uniquement comme une liste de liens classés. Elle ressemble de plus en plus à une interface de navigation commerciale, où plusieurs intermédiaires organisent l’accès à l’information et aux produits.
Pour les sites e-commerce, cette évolution implique une transformation progressive de la stratégie SEO. L’objectif n’est plus seulement d’obtenir une position élevée dans les résultats naturels, mais aussi de comprendre comment les différents blocs de la page — produits, comparaisons, réponses générées — structurent désormais le parcours de l’utilisateur.
Dans cet environnement, la visibilité d’un site dépend autant de son référencement que de sa capacité à s’intégrer dans ces nouveaux modes de présentation de l’offre.
La nouvelle économie de la visibilité : quand l’IA redessine la valeur du clic
L’introduction progressive des AI Overviews dans les pages de résultats marque une évolution profonde du rôle des moteurs de recherche. Google ne se contente plus d’indexer des pages et de classer des liens : il synthétise l’information, compare les produits et organise les réponses avant même que l’utilisateur ne visite un site.
Pour les acteurs du e-commerce, cette transformation se traduit souvent par un phénomène déroutant : des positions SEO qui restent relativement stables, mais un trafic organique qui s’érode. Cette baisse ne signifie pas nécessairement que le référencement s’est dégradé. Elle reflète surtout une mutation de la SERP, où plusieurs couches d’information — réponses générées, carrousels produits, annonces sponsorisées — filtrent désormais l’accès aux sites marchands.
Dans ce nouvel environnement, les grands acteurs du commerce en ligne disposent d’un avantage considérable. Aux États-Unis, où le déploiement des AI Overviews est plus avancé, les analystes du secteur observent déjà une conséquence indirecte : la montée en puissance des revenus publicitaires et des placements sponsorisés dans les parcours d’achat en ligne.
Le cas d’Amazon est particulièrement révélateur. Le groupe a développé ces dernières années un modèle économique dans lequel la publicité occupe une place de plus en plus centrale. En 2023, les revenus publicitaires d’Amazon ont dépassé 46 milliards de dollars, en hausse d’environ 24 % sur un an, faisant de la plateforme le troisième acteur mondial de la publicité numérique derrière Google et Meta. Cette dynamique s’est poursuivie en 2024 et 2025, portée notamment par les placements sponsorisés et les comparateurs produits intégrés dans les parcours d’achat.
Dans un contexte où les moteurs de recherche deviennent capables de synthétiser les informations avant le clic, cette évolution est loin d’être anecdotique. Elle révèle une transformation plus large de l’économie de la visibilité en ligne : à mesure que le trafic organique se fragmente, la valeur du positionnement et de la présence publicitaire devient encore plus stratégique. C'est pourquoi l'accompagnement en marketing digital reste une clé de succès.
Pour les sites e-commerce spécialisés, l’enjeu n’est donc plus uniquement de générer du trafic à grande échelle. Il consiste à construire une présence éditoriale et commerciale capable de résister à cette nouvelle médiation algorithmique : des contenus utiles, une expertise identifiable, et une stratégie de visibilité qui combine référencement, réputation et capacité à capter les intentions d’achat les plus qualifiées.
Autrement dit, le SEO du commerce en ligne entre progressivement dans une nouvelle phase : celle d’un référencement de conviction, où la valeur d’un clic se mesure moins au volume de visiteurs qu’à la pertinence de l’utilisateur qui arrive sur le site.
SGE & AI Overviews : Comprendre la nouvelle donne du SEO E-commerce
Pourquoi mes impressions augmentent-elles dans la Search Console alors que mon trafic baisse ?
C’est le cœur du paradoxe mentionné dans l'article. L'IA de Google (AI Overview) utilise souvent vos données pour construire sa réponse synthétique. Votre site est "vu" par l'algorithme (générant une impression), mais l'utilisateur obtient sa réponse sans cliquer. Vous devenez une source invisible : vous alimentez l'IA sans en récolter le fruit immédiat en visites.
1. Le ".com" : Éclaireur du séisme SEO
Les domaines en .com sont majoritairement tournés vers le marché anglophone (USA en tête), qui est le laboratoire de Google.
Antériorité du déploiement : Aux USA, les AI Overviews sont actives depuis 2024. Les sites en .com ont donc déjà subi plusieurs cycles de mises à jour de l'IA (comme l'arrivée d'AI Mode en janvier 2026), là où les sites en .fr bénéficient encore d'un "sursis" lié aux régulations européennes sur les droits voisins.
Volume de données : L'IA de Google (Gemini) est beaucoup plus entraînée et précise sur le corpus anglophone. L'impact de synthèse est donc plus "efficace" sur un site .com, ce qui réduit d'autant plus le besoin de cliquer.
2. Le Blog : La cible prioritaire de l'IA
Les sites avec une partie blog (souvent placés dans un répertoire /blog) sont les plus touchés car ils portent le trafic informationnel.
L'entonnoir "vampirisé" : Historiquement, le blog servait à attirer l'utilisateur en phase de découverte (TOFU - Top of Funnel). Aujourd'hui, 75 % à 80 % de ces requêtes informationnelles se terminent en "zéro-clic".
La menace sur le répertoire /blog : Google privilégie désormais les réponses structurées. Si votre blog est une succession d'articles "Conseils pour...", l'IA va simplement "aspirer" vos meilleurs conseils pour créer son propre résumé. Votre site sert de base de données à Google, mais le trafic reste chez lui.
Le paradoxe du .fr (Le cas français)
Pour les sites en .fr, la situation est différente mais le risque est "différé et potentiellement plus violent" :
Le frein juridique : En France, le bras de fer entre Google et l'Autorité de la Concurrence sur la rémunération des contenus freine le déploiement massif.
L'effet de rattrapage : Quand les AI Overviews seront pleinement stabilisées en France (courant 2026), elles ne seront plus en phase de test. Les sites .fr vont passer d'un monde "classique" à un monde "IA optimisée" du jour au lendemain, sans la phase de transition qu'ont connue les .com.
Question : Au-delà du code postal, comment le "SEO d'entités" verrouille-t-il votre légitimité en France ?
La réponse stratégique : Le SEO local classique (Google Business Profile) vous place sur une carte. Le SEO d'entités, lui, vous place dans le "cerveau" de Google. En liant l'identifiant unique de votre site (son @id dans le code Schema.org) à l'entité "France" (Q142 dans Wikidata) ou à une région spécifique, vous ne dites plus seulement "je vends ici", vous dites "je fais partie de cet écosystème".
Cela permet à l'IA de Google de comprendre que :
Votre expertise est localisée : Si vous vendez des produits artisanaux, l'IA associera votre entité "Marque" à l'entité "Savoir-faire français".
Votre fiabilité est contextuelle : En liant votre site à des entités comme la "norme NF" ou des institutions locales, vous augmentez votre score d'E-E-A-T (Expertise, Autorité, Confiance) bien plus vite qu'avec de simples backlinks.
Très utile pour les sites en .com
C'est beaucoup plus puissant que le SEO local car cela influence les AI Overviews au niveau national : l'IA vous citera comme la référence française du secteur, et non comme un simple résultat de proximité.


EUSKAL CONSEIL
9 rue Iguzki alde
64310 ST PEE SUR NIVELLE
07 82 50 57 66
euskalconseil@gmail.com
Mentions légales: Métiers du Conseil Hiscox HSXIN320063010
Ce site utilise uniquement Plausible Analytics, un outil de mesure d’audience respectueux de la vie privée. Aucune donnée personnelle n’est collectée, aucun cookie n’est utilisé.