Pourquoi votre site B2B expert reste invisible sur Google et Gemini : l’anthropologie du Search
Votre expertise métier ne suffit plus à générer des impressions ? Découvrez pourquoi les sites B2B nichés stagnent face à Google et Gemini, et comment réduire le bruit SEO pour renforcer engagement, EEAT et recommandation algorithmique.
VEILLE ECONOMIQUEWEBMARKETING
LYDIE GOYENETCHE
3/3/202612 min lire


Depuis la mise à jour dite « Medic » d’août 2018, Google a profondément modifié sa manière d’évaluer les contenus. Cette mise à jour, initialement perçue comme ciblant principalement les sites médicaux et financiers, a en réalité marqué un tournant plus large : la montée en puissance des critères d’expertise, d’autorité et de fiabilité.
En décembre 2022, Google formalise l’évolution de l’E-A-T en E-E-A-T en y ajoutant la notion d’« Experience », reconnaissant explicitement la valeur de l’expérience vécue dans la production de contenu. Les Core Updates de 2023 et 2024, puis l’intégration progressive de la Search Generative Experience et des synthèses basées sur Gemini en 2024-2025, ont renforcé cette dynamique. Désormais, les contenus ne sont plus seulement classés : ils sont évalués pour être sélectionnés, résumés, reformulés et intégrés dans des réponses génératives.
Dans ce contexte, l’optimisation purement sémantique ne suffit plus. Durant les années 2010, le référencement reposait principalement sur la densité lexicale, le maillage interne, l’autorité des backlinks et la performance technique. À partir de 2020, les analyses corrélatives publiées par différents acteurs du secteur SEO ont commencé à montrer un phénomène récurrent : les pages qui maintiennent durablement leurs positions sont celles qui génèrent un engagement utilisateur supérieur à la moyenne. Temps passé sur la page, profondeur de scroll, navigation secondaire, reformulation de requête intégrant la marque : autant de signaux indirects qui semblent participer à l’évaluation globale de l’utilité d’un contenu. Même si Google affirme ne pas exploiter directement certaines données issues des outils d’analytics, l’algorithme observe nécessairement des comportements agrégés à grande échelle. Un contenu qui retient, qui est exploré, qui s’inscrit dans un parcours informationnel cohérent, envoie des signaux de pertinence.
Cette évolution crée un défi particulier pour les sites professionnels fortement spécialisés. Prenons le cas d’une requête telle que « consultant SEO agroalimentaire ». L’intention est claire, le besoin métier précis, la dimension transactionnelle évidente. Pourtant, le volume de recherche mensuel reste faible, parfois marginal. Pour se positionner efficacement sur ce type de requête, il est nécessaire de développer un cocon sémantique structuré, d’indexer plusieurs pages sectorielles, de produire des contenus connexes sur l’agroalimentaire, la distribution, la viticulture ou la transformation industrielle. Le résultat est paradoxal : un nombre important de pages indexées, une architecture éditoriale dense, mais un volume d’impressions limité et un trafic global faible.
Or, depuis 2023, Google insiste sur la lutte contre les contenus à faible utilité perçue, les sites créés principalement pour les moteurs et les pages générant peu d’engagement. Un site très niché peut ainsi se retrouver dans une zone fragile : beaucoup de pages, peu d’impressions, peu de clics, peu de signaux comportementaux forts. À long terme, cette configuration peut entraîner une stagnation de visibilité, une dilution du crawl budget, voire une désindexation partielle de certaines pages secondaires jugées insuffisamment pertinentes ou peu consultées.
L’arrivée des moteurs génératifs accentue cette tension. Les requêtes généralistes et volumétriques sont de plus en plus captées par des réponses synthétiques directement affichées dans les résultats. Les requêtes ultra-spécifiques, elles, ne sont pas absorbées de la même manière, mais elles souffrent d’un autre isolement : elles sont éloignées des grandes dynamiques conversationnelles observées par Gemini et par les modèles de synthèse. Les contenus trop étroits, exclusivement centrés sur une niche métier, peinent à s’inscrire dans des réponses transversales et contextualisées.
Parallèlement, les contenus qui génèrent un fort engagement sont souvent ceux qui abordent des dimensions humaines plus larges. Les requêtes liées à des expériences subjectives, à la peur nocturne, aux sensations corporelles inexpliquées ou à la quête de sens présentent des volumes réguliers et des patterns récurrents. Elles traduisent un besoin d’interprétation et de compréhension. Pourtant, pour un site clairement positionné comme professionnel, intégrer des réflexions personnelles ou spirituelles peut apparaître risqué, notamment lorsque ces thématiques se rapprochent des catégories YMYL. Le danger n’est pas seulement réputationnel ; il est aussi algorithmique si le contenu est perçu comme imprécis, spéculatif ou potentiellement anxiogène.
Nous sommes ainsi face à une tension structurante. D’un côté, les requêtes métier sont indispensables pour la conversion et la crédibilité sectorielle. De l’autre, les requêtes plus larges et plus anthropologiques génèrent engagement, mémorisation et signaux comportementaux forts. Trop de froideur affaiblit l’impact et la fidélisation. Trop de subjectivité peut fragiliser l’autorité et exposer à des zones sensibles. Dans un environnement où la visibilité dépend à la fois du SEO traditionnel et du GEO émergent, les sites professionnels doivent repenser leur stratégie éditoriale. La question n’est plus seulement de se positionner sur des mots-clés, mais de construire un écosystème de contenus capable d’allier expertise métier, profondeur humaine et pertinence algorithmique durable.
Réduire le bruit SEO pour renforcer la reconnaissance algorithmique et le GEO
L’inflation des pages indexées : un héritage du SEO des années 2010
Entre 2010 et 2019, la stratégie dominante consistait à multiplier les pages ciblant des requêtes longue traîne. Plus un site couvrait de mots-clés spécifiques, plus il augmentait ses chances de capter du trafic. Cette logique reposait sur une réalité mesurable : selon une étude Ahrefs publiée en 2019, 90,63 % des pages web ne reçoivent aucun trafic organique depuis Google. Pourtant, les stratégies éditoriales continuaient à produire massivement des contenus ciblés, car l’objectif était d’occuper le terrain sémantique.
Dans le même temps, les données de Semrush montrent que près de 60 % des requêtes tapées sur Google comportent quatre mots ou plus. Cette fragmentation des intentions a encouragé la création de pages ultra-spécifiques, notamment dans les secteurs B2B.
Le problème est apparu progressivement : un grand nombre de pages indexées ne signifie pas un grand nombre de pages performantes. Au contraire, l’accumulation de contenus à faible impression ou faible engagement a commencé à diluer la perception globale des sites.
2018–2022 : EEAT et la montée de l’évaluation qualitative
La mise à jour « Medic » d’août 2018 a marqué un tournant. Google a renforcé l’importance de l’expertise, de l’autorité et de la fiabilité, en particulier dans les thématiques sensibles. En décembre 2022, l’ajout officiel du second “E” pour Experience dans les Quality Rater Guidelines confirme une évolution : la crédibilité ne repose plus uniquement sur la densité sémantique, mais sur la cohérence globale du site et la perception d’utilité.
Selon les données de Sistrix et Searchmetrics analysant les Core Updates entre 2018 et 2023, les sites les plus impactés négativement présentaient souvent un volume élevé de pages à faible valeur ajoutée ou redondantes.
Le moteur ne se contente plus d’identifier un mot-clé présent dans un titre. Il analyse :
– la cohérence thématique du domaine
– la profondeur réelle du traitement
– les signaux comportementaux agrégés
– la stabilité éditoriale
Un site avec 300 pages dont 150 génèrent moins de 10 impressions mensuelles peut apparaître comme éditorialement dilué.
2023–2025 : l’impact des AI Overviews et de Gemini
Avec l’intégration des AI Overviews en 2024, Google a franchi une nouvelle étape. Selon les premières études publiées par SparkToro et Similarweb en 2024, certaines catégories de requêtes informationnelles ont connu une baisse de clic organique comprise entre 18 % et 64 %, selon les secteurs, en raison des réponses génératives affichées directement dans les résultats.
Cela signifie que la compétition ne se joue plus uniquement entre pages classées, mais entre pages susceptibles d’être sélectionnées pour alimenter une synthèse IA.
Or les systèmes génératifs privilégient les contenus :
– fortement structurés
– cohérents à l’échelle du domaine
– adossés à une autorité claire
– présentant des signaux d’engagement solides
Un site saturé de pages périphériques faiblement consultées envoie un signal statistique moyen plus faible. La moyenne comportementale globale du domaine baisse.
Dans un univers où Google traite plus de 8,5 milliards de requêtes par jour (Statista 2023) et où plus de 15 % des requêtes quotidiennes sont nouvelles, l’algorithme privilégie la clarté et la hiérarchie.
Le bruit SEO : définition et effets mesurables
Le bruit SEO correspond aux pages indexées qui :
– génèrent peu d’impressions
– n’obtiennent presque aucun clic
– présentent un faible temps moyen d’engagement
– n’alimentent pas de maillage stratégique
Selon une étude Ahrefs de 2020, 96,55 % des pages indexées ne reçoivent aucun trafic depuis Google dans l’année suivant leur publication. Même si ce chiffre varie selon les méthodologies, il illustre un phénomène massif : l’indexation ne garantit ni visibilité ni performance.
Dans le cas d’un site B2B ciblant des requêtes comme « consultant SEO agroalimentaire », le volume mensuel peut être inférieur à 50 recherches. Multiplier les déclinaisons géographiques ou sectorielles peut conduire à créer dix à vingt pages supplémentaires pour quelques dizaines d’impressions cumulées.
Ces pages, si elles ne génèrent ni engagement ni conversions, deviennent statistiquement du bruit.
Pourquoi le no index améliore la reconnaissance algorithmique
Mettre certaines pages en no index permet de concentrer les signaux.
Premièrement, cela clarifie le cœur thématique du site. L’algorithme identifie plus nettement les pages piliers. La densité sémantique devient plus cohérente.
Deuxièmement, cela améliore la moyenne qualitative du domaine. Si seules les pages réellement stratégiques et engageantes sont indexées, le ratio impressions/clics/engagement s’améliore mécaniquement.
Troisièmement, cela optimise le crawl. Même si le crawl budget est surtout un enjeu pour les très grands sites, Google indique officiellement que la gestion des pages de faible qualité aide à une exploration plus efficace.
Enfin, dans une logique GEO, un site éditorialement resserré est plus facilement interprétable par les modèles génératifs. Les IA analysent des ensembles. Un ensemble cohérent est plus simple à résumer qu’un ensemble dispersé.
Le changement de paradigme éditorial
Le SEO des années 2010 reposait sur la couverture maximale des requêtes.
Le SEO post-2022 repose sur la hiérarchisation et la consolidation.
La stratégie éditoriale évolue donc vers :
– moins de pages indexées mais plus approfondies
– des clusters thématiques forts
– des pages piliers nourries par des contenus satellites parfois non indexés
– une logique de signal concentré plutôt que de volume dispersé
Cela ne signifie pas produire moins de contenu. Cela signifie choisir ce qui doit être exposé à l’index.
Dans un environnement où le référencement naturel et la recommandation générative s’entremêlent, la clarté structurelle devient un avantage compétitif.
Clarifier pour être recommandé
La recommandation algorithmique repose sur la compréhension.
Un site professionnel qui veut être reconnu comme expert dans un domaine spécifique doit apparaître comme cohérent, stable et lisible. Réduire le bruit SEO via le no index n’est pas une réduction de visibilité ; c’est une optimisation de signal.
Dans un univers où l’attention se fragmente et où les moteurs synthétisent plutôt qu’ils classent, la performance ne dépend plus de la quantité d’URL indexées, mais de la qualité perçue de l’ensemble.
C’est cette logique qui impose aujourd’hui une refonte des stratégies éditoriales : passer d’une logique d’occupation à une logique de concentration.
L’accompagnement en marketing de contenu des sites B2B nichés : entre rareté, faible volumétrie et nécessité d’élargissement stratégique
Une stratégie de niche structurellement limitée en volume
Dans le B2B, et plus encore dans le B2B ultra-spécialisé, la logique éditoriale repose souvent sur des requêtes métier très précises : «consultant SEO Pays basque », « consultant SEO agroalimentaire», « audit SEO industrie viticole », etc.
Ces requêtes correspondent à une intention transactionnelle forte, mais leur volumétrie est structurellement faible. Les outils SEO publics montrent que ce type d’expression dépasse rarement quelques dizaines de recherches mensuelles. Même en première position, le trafic potentiel reste plafonné.
Or Google traite plus de 8,5 milliards de requêtes par jour. Son modèle économique repose sur la satisfaction d’intentions massives et récurrentes. Un site positionné uniquement sur des requêtes ultra-nichées participe peu à cette volumétrie globale. Google n’est pas un dispositif d’aide à la visibilité des experts rares; il optimise la réponse à la demande collective.
Dans ce contexte, les agences installées depuis longtemps, disposant d’un historique solide de backlinks et d’une stabilité algorithmique, sont rarement délogées facilement. L’IA et les mises à jour successives tendent plutôt à consolider les acteurs déjà identifiés comme autorités sectorielles.
Une stratégie de niche est donc nécessaire pour la conversion, mais insuffisante pour la visibilité globale.
Faible volumétrie et faible masse critique de signaux
Le problème n’est pas seulement le volume de recherche. C’est aussi la quantité de signaux comportementaux générés.
Les algorithmes modernes analysent des données agrégées :
– impressions
– taux de clic
– temps d’engagement
– profondeur de scroll
– navigation interne
Un site recevant peu d’impressions produit mécaniquement peu de signaux exploitables. La base statistique est faible. L’autorité thématique reste confinée à un périmètre étroit.
Dans un environnement post-EEAT et dominé par l’émergence du GEO (Generative Engine Optimization), la reconnaissance algorithmique repose sur la capacité d’un site à être intégré dans des réponses plus larges, contextualisées et transversales.
Un site exclusivement centré sur des requêtes métier ultra-ciblées risque d’apparaître comme périphérique dans le graphe sémantique global.
Lecture professionnelle et engagement réduit
Une autre variable entre en jeu : le comportement des lecteurs B2B.
Les études du Nielsen Norman Group sur la lecture web montrent que la majorité des utilisateurs lisent en diagonale, selon un schéma en F. Dans le contexte professionnel, sauf urgence stratégique majeure, le temps d’engagement dépasse rarement une à deux minutes.
La recherche est utilitaire, rationnelle, peu émotionnelle.
Or les travaux en sciences cognitives indiquent que la mémorisation à long terme est renforcée par l’activation émotionnelle. Un contenu strictement technique laisse une empreinte plus faible qu’un contenu mobilisant des dimensions humaines, sociales ou existentielles.
Cela signifie qu’un site B2B niché cumule souvent :
– une faible volumétrie d’impressions
– un engagement émotionnel limité
– une mémorisation modérée
Ce triptyque peut, à long terme, fragiliser la dynamique globale des signaux EEAT.
Observation empirique : un cas singulier sur moins d’un an
Sur un site professionnel observé sur une période inférieure à 12 mois, certaines tendances apparaissent clairement — sans pour autant pouvoir être généralisées à l’ensemble des sites vitrines B2B.
Les articles à forte résonance transversale ou sociétale concentrent la majorité des visiteurs de Google.
Par exemple :
– un article sur Patagonia et l’éthique durable dépasse 180 visiteurs
– un article sur la perte de trafic SEO en 2025 atteint plus de 120 visiteurs
– un article sur la crise des médias en Espagne dépasse 100 visiteurs
– des articles sur l’hypersensibilité, Tesla ou Apple dépassent régulièrement 50 à 80 visiteurs
Ces contenus ne sont pas des pages métier ultra-spécialisées. Ils abordent des thématiques plus larges : transformation technologique, IA, marque, société, cognition.
À l’inverse, les pages purement métier génèrent souvent entre 1 et 10 visiteurs sur la période observée. Leur rôle est stratégique en conversion, mais marginal en volumétrie.
Un contraste frappant sur le temps d’engagement
Les données montrent également un phénomène intéressant.
Certains articles à dimension anthropologique, cognitive ou spirituelle affichent des temps d’engagement exceptionnellement élevés :
– 14 minutes
– 11 minutes
– 7 minutes
– 6 minutes
Ce sont des durées très supérieures à la moyenne observée sur des contenus strictement techniques, souvent situés entre 1m30 et 2m30.
Cela indique une implication plus forte, une lecture approfondie, une densité réflexive plus élevée.
En revanche, les articles à fort trafic affichent souvent :
– un taux de rebond élevé (80 % à 95 %)
– un engagement autour de deux minutes
Ces contenus sont consultés rapidement, probablement via des requêtes informationnelles liées à l’actualité ou aux transformations SEO.
On observe donc trois fonctions distinctes :
Les articles transversaux apportent la volumétrie.
Les articles réflexifs apportent la profondeur.
Les articles métier apportent la conversion.
L’intérêt stratégique des sujets transversaux et YMYL maîtrisés
Les thématiques classées YMYL ou ontologiquement transversales doivent être traitées avec rigueur, neutralité et prudence. Mais elles présentent un avantage structurel : elles génèrent de l’engagement.
Elles activent :
– l’émotion
– l’identification
– la réflexion personnelle
– la mémorisation
Ces facteurs contribuent indirectement à renforcer la reconnaissance globale du site.
Cependant, il est essentiel de préciser que ces observations reposent sur un cas particulier. Tous les sites vitrines B2B ne présentent pas les mêmes dynamiques. Certains secteurs très techniques peuvent fonctionner exclusivement sur la niche, notamment lorsqu’ils disposent d’une autorité historique forte.
Il ne s’agit donc pas d’un modèle universel, mais d’un signal stratégique intéressant : l’élargissement maîtrisé peut renforcer la robustesse algorithmique d’un site niché.
Vers un modèle éditorial hybride
L’accompagnement en marketing de contenu des sites B2B nichés ne consiste pas à abandonner la stratégie métier. Elle reste centrale pour la conversion et la crédibilité sectorielle.
Il s’agit plutôt d’organiser un modèle hybride :
Un socle d’expertise pointue, ciblant les requêtes métier à forte intention.
Un ensemble de contenus transversaux, structurés et maîtrisés, capables de générer volumétrie et engagement.
Un travail de cohérence éditoriale permettant d’articuler les deux dimensions sans diluer l’identité du site.
Dans un environnement dominé par l’EEAT et le GEO, la performance durable repose moins sur l’accumulation de pages niche que sur la capacité à produire des signaux diversifiés, cohérents et interprétables par les moteurs.
Ce n’est pas une stratégie d’expansion désordonnée.
C’est une architecture éditoriale à deux niveaux : profondeur d’expertise et largeur de résonance.
Et dans le cas étudié, les données observées sur moins d’un an illustrent clairement l’intérêt de cette approche.


EUSKAL CONSEIL
9 rue Iguzki alde
64310 ST PEE SUR NIVELLE
07 82 50 57 66
euskalconseil@gmail.com
Mentions légales: Métiers du Conseil Hiscox HSXIN320063010
Ce site utilise uniquement Plausible Analytics, un outil de mesure d’audience respectueux de la vie privée. Aucune donnée personnelle n’est collectée, aucun cookie n’est utilisé.