Discover Core Update 2026 : personnalisation locale confirmée, consolidation des publishers et montée de X dans les feeds

Le 5 février 2026, Google a fait quelque chose d’inédit : lancer une core update (mise à jour majeure de l’algorithme) ciblant exclusivement Google Discover, son flux de contenus personnalisés disponible dans l’application Google et sur la page d’accueil de Chrome mobile. C’est la première fois dans l’histoire des core updates qu’un déploiement est délibérément cloisonné à Discover, sans toucher aux résultats du Search classique. Le signal est fort : Google traite désormais Discover comme un environnement de classement à part entière, avec ses propres critères, sa propre logique, et ses propres gagnants.

Trois objectifs sont annoncés officiellement : davantage de contenu localement pertinent issu de sites du pays de l’utilisateur, moins de contenu sensationnel et de clickbait, et davantage de contenus approfondis, originaux et actuels provenant de sites reconnus comme experts sur leurs sujets. Une semaine après le début du déploiement, NewzDash — éditeur d’un outil de suivi SEO spécialisé news et Discover — a publié une analyse de données basée sur son panel d’utilisateurs. L’étude est l’une des plus solides techniquement parues à ce stade. Elle mérite d’être lue. Elle mérite aussi d’être challengée. (le lien vers l’étude est à la fin de l’artlcle).

Ce que NewzDash a mesuré : la méthodologie en détail

Avant d’analyser les résultats, il faut comprendre le dispositif. NewzDash compare deux fenêtres de sept jours : pré-update (25-31 janvier 2026) et post-update (8-14 février 2026), à partir de son panel de données de millions d’utilisateurs américains réels. Les exports couvrent quatre jeux de données : le US Top 1000 domains, et les Top 1000 articles respectivement pour les États-Unis, la Californie et New York.

Le Discover Visibility Score utilisé comme métrique centrale est un score relatif : l’élément le plus performant de chaque liste reçoit 100 points, et tous les autres sont calibrés proportionnellement. Pour les domaines, des scores normalisés sont utilisés pour rendre les deux fenêtres comparables. La plateforme précise que son panel est « un signal fort pour détecter des changements de distribution dans le temps », mais qu’il reste un échantillon — non une mesure absolue de l’écosystème Discover dans son intégralité.

Objectif 1 — contenu local : les données les plus solides

Sur le volet de la pertinence locale, l’étude produit ses résultats les plus convaincants.

Au niveau des domaines (US Top 1000, normalisé), la part internationale dans le score total passe de 8,52% à 7,04%, pendant que la part américaine progresse de 88,86% à 89,94%. Compte tenu des biais de l’étude, ce changement est sur l’épaisseur du trait et il est difficile d’en tirer de vraies conclusions.

Mais c’est au niveau des feeds régionaux que l’analyse est la plus probante. Les articles d’origine californienne dans le Top 100 du feed californien passent de 10 à 16 (+60%), et de 36 à 49 dans le Top 1000 complet (+36%). Plus significatif encore : le tableau croisé entre les feeds montre que les domaines locaux new-yorkais apparaissent environ 5 fois plus dans le feed NY que dans le feed californien, et inversement pour les domaines locaux californiens. Ce ratio est la démonstration empirique la plus solide de l’étude, quasi irréfutable comme preuve d’une personnalisation géographique sub-nationale effective.

Objectif 2 — réduction du clickbait : une méthodologie fondamentalement limitée

C’est le volet le plus honnêtement présenté dans l’étude, et c’est précisément pour cette raison que ses limites méritent d’être exposées clairement. NewzDash utilise deux proxies pour mesurer la réduction du clickbait (contenu conçu pour générer des clics en utilisant des titres trompeurs ou volontairement vagues) :

  • Des marqueurs textuels dans les titres (« shocking », « revealed », « you won’t believe », ponctuation excessive…)
  • Des indicateurs de structure : longueur moyenne des titres, proportion de titres interrogatifs, ratio contenus éditoriaux / contenus sociaux

Les résultats de ces proxies sont ambivalents. La proportion de titres contenant des marqueurs clickbait baisse très légèrement (0,4% → 0,3% aux États-Unis), mais la part de score capturée par ces items augmente significativement (0,19% → 0,40%, soit une hausse de +111% en relatif). Autrement dit, il y a peut-être moins de contenus clickbait dans le feed, mais ceux qui y restent sont proportionnellement plus performants. NewzDash interprète cela comme l’effet de quelques items très visibles qui tirent la moyenne. C’est plausible. C’est aussi non vérifiable avec ces données.

Le problème de fond est plus structurel : le clickbait de 2026 ne se détecte pas à la lecture d’un titre. Il se manifeste dans l’écart entre une promesse visuelle (la miniature, le snippet — extrait de contenu présenté dans le feed), et la réalité du contenu livré. Il se lit dans l’expérience on-page dégradée, dans les publicités intrusives, dans le temps passé avant rebond. Aucun de ces éléments n’est accessible depuis un export de spreadsheet. Les cas documentés — Yahoo (11 → 6 articles dans le Top 1000 US, disparition du Top 100), Autoevolution (5 → 0 articles), Geediting (chute du #14 au #153) — sont des observations anecdotiques cohérentes avec la thèse, mais ne constituent pas une preuve causale d’un filtrage algorithmique ciblé.

On peut dire que l’étude de NewzDash n’est pas réellement concluante sur le sujet.

Objectif 3 — contenu expert et timely : la variable confondante du calendrier

Le shift de catégories dans les feeds est net et cohérent entre les trois zones géographiques étudiées :

CatégorieUS préUS postCA préCA postNY préNY post
News15,94%19,16%16,00%18,71%17,39%19,52%
Sports5,06%8,52%5,51%8,49%5,57%8,10%
Arts & Entertainment24,40%17,90%21,51%15,71%21,62%15,29%

La progression de News et Sports est interprétée comme une preuve que Discover valorise davantage le contenu « timely » et utilitaire. C’est possible. C’est aussi exactement ce qu’aurait produit un Super Bowl suivi de Jeux Olympiques d’hiver dans n’importe quel algorithme de recommandation, même inchangé. Sans groupe de contrôle — des publishers hors du scope de l’update soumis à la même comparaison temporelle — cette attribution causale reste insuffisamment étayée.

L’observation la plus originale — et la plus difficile à interpréter — concerne la montée de X.com dans le Top 100. Les posts X passent de 3 à 13 items dans le Top 100 américain, et de 2 à 14 dans le Top 100 new-yorkais. NewzDash documente par ailleurs un cas de possible « surface substitution » : le compte X du New York Times devient le premier item du feed post-update, pendant que nytimes.com perd en présence directe (8 → 5 articles, sum score 116 → 43).

Le même phénomène a été constaté ces dernières semaines sur des pays (dont la France) qui n’est pas censée « bénéficier » de cette mise à jour. Est-ce un effet de l’update qui traite les posts institutionnels de médias autorisés comme du « contenu original et timely » ? Un biais de cycle d’actualité ? Ou la mesure de la montée en puissance de la source X pour d’autres raisons ? La dernière hypothèse est en réalité la plus plausible.

Sur la concentration des publishers, enfin, les données pointent dans une direction qui mérite attention :

  • Domaines uniques dans le US Top 1000 : 172 → 158 (−8%)
  • Score share du Top 10 américain : 75,31% → 76,65%
  • Domaines uniques dans le CA Top 1000 : 187 → 177 (−5%)
  • New York fait exception : 192 → 194 domaines, légère déconcentration du Top 10

Google promet « plus de diversité thématique » (les catégories uniques augmentent partout : +6% en US, +5% en CA, +9% en NY) mais livre « moins de diversité éditoriale » dans deux marchés sur trois. Le paradoxe est réel : davantage de sujets couverts, mais par un nombre plus restreint de publishers. C’est peut-être le signal le plus structurellement important de l’étude pour les éditeurs indépendants.

Ce que l’étude apporte de réellement solide

Au-delà de ces limites, trois conclusions résistent au challenge méthodologique et sont suffisamment étayées pour guider des décisions stratégiques.

La personnalisation géographique sub-nationale est réelle et quantifiée. Le ratio 5:1 entre la présence de domaines locaux dans les feeds homologues vs croisés (NY dans NY vs NY dans CA, et inversement) est une observation difficile à expliquer autrement qu’une personnalisation géographique effective et significative. Pour les éditeurs locaux et régionaux, c’est une opportunité structurelle confirmée.

La montée de X.com est un fait empirique significatif. Qu’elle soit antérieure à l’update ou accélérée par lui, la progression de 3 à 13 items X dans le Top 100 américain impose aux éditeurs de reconsidérer leur présence sur X comme une composante de leur surface de distribution dans Discover, et non comme un canal annexe.

La consolidation des publishers dans US et CA est préoccupante et mérite un suivi. Si le signal se confirme dans les semaines qui viennent, il indique un Discover qui élargit ses sujets tout en réduisant la base éditoriale qui en bénéficie, ce qui est structurellement défavorable aux éditeurs de taille intermédiaire.

Ce que cela implique concrètement pour les spécialistes SEO

L’update change le paradigme de la relation entre le Search et Discover. Jusqu’ici, une bonne stratégie SEO produisait souvent du trafic Discover en dérivé. Ce n’est plus suffisant. Discover exige désormais une stratégie propre, articulée autour de quelques réalités que l’analyse NewzDash contribue à préciser.

La topical authority (autorité thématique, soit la reconnaissance par Google qu’un site est un expert sur un sujet donné) doit être construite sujet par sujet, pas en termes de domaine global. Le feed évalue l’expertise de manière granulaire, et un éditeur généraliste ne peut pas rivaliser avec un spécialiste sur sa verticale, même si son DA (Domain Authority, indicateur tiers de la puissance globale d’un domaine) est supérieur.

Le traitement de X impose une réflexion sur la fragmentation de l’attribution. Si un post institutionnel X d’un éditeur apparaît dans Discover et génère du trafic vers X plutôt que vers le site, l’éditeur perd le premier clic — et potentiellement la session entière. La montée de X dans Discover est une opportunité de visibilité et un risque pour l’efficacité de l’entonnoir de conversion simultanément.

Enfin, la personnalisation locale doit être traitée comme une priorité de structure éditoriale, pas comme un angle de niche. Si les feeds régionaux californien et new-yorkais récompensent les publishers locaux avec des signaux aussi clairs, le même mécanisme s’appliquera lors du déploiement international. Les éditeurs français ont quelques semaines pour anticiper.


Bibliographie

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Ce contenu vous a plu ?

Inscrivez-vous gratuitement à notre newsletter et recevez chaque semaine l'actualité de l'IA directement dans votre boîte email. Vous pouvez vous désabonner à tout moment !