En janvier 2026, le quotidien britannique The Guardian a publié une enquête sur les AI Overviews de Google, ces résumés générés par l’intelligence artificielle qui s’affichent au-dessus des résultats de recherche classiques. Les journalistes ont testé des requêtes santé courantes, capturé les réponses de l’IA, puis les ont soumises à des associations de patients, des médecins et des organisations spécialisées dans l’information médicale.
Précision importante : les AI Overviews ne sont pas déployées sur Google France à la date de publication de cet article. Google a lancé cette fonctionnalité aux Etats-Unis en mai 2024, puis l’a étendue à plusieurs pays anglophones et à neuf pays européens en mars 2025 (Allemagne, Espagne, Italie, notamment), mais la France ne fait pas partie des marchés concernés. Les faits documentés par le Guardian portent sur le marché britannique. Ils méritent cependant l’attention des professionnels du SEO francophones, car un déploiement en France reste probable à terme.
Les cas concrets identifiés par l’enquête
Les erreurs documentées couvrent plusieurs domaines médicaux :
- Le cancer du pancréas : l’AIO recommandait d’éviter les graisses, alors que les oncologues recommandent un apport calorique élevé pour supporter les traitements. Pancreatic Cancer UK a qualifié ce conseil de « vraiment dangereux ».
- Les tests hépatiques : les résumés présentaient des valeurs de référence chiffrées sans tenir compte des variations liées au sexe, à l’âge, à l’origine ethnique ou à la nationalité. Un utilisateur pouvait interpréter ses résultats comme normaux alors qu’ils ne l’étaient pas.
- Le dépistage des cancers féminins : des informations fausses ont été identifiées sur les protocoles de dépistage.
L’enquête a également relevé un problème d’inconsistance : la même requête santé pouvait produire des résumés différents selon le moment de la recherche.
La réponse de Google et les correctifs appliqués
Un porte-parole de Google a déclaré que « la grande majorité » des AI Overviews fournissaient des informations exactes, et que de nombreux exemples cités reposaient sur des « captures d’écran incomplètes ». L’entreprise a précisé qu’une équipe interne de cliniciens avait examiné les requêtes signalées et que, « dans de nombreux cas, l’information n’était pas inexacte et était soutenue par des sites web de haute qualité ».

Google a également comparé la précision de ses AI Overviews à celle de ses featured snippets (les extraits en position zéro, ces encadrés qui affichent un extrait d’une page web en réponse directe à une requête), fonctionnalité existant depuis plus d’une décennie.
Sur le plan concret, Google a retiré les AI Overviews pour certaines requêtes spécifiques, notamment celles liées aux tests hépatiques. Mais des variantes de ces mêmes requêtes, comme « lft reference range », continuaient à déclencher des résumés IA.
Vanessa Hebditch, directrice du British Liver Trust, a salué ces retraits ponctuels tout en notant qu’ils ne traitaient pas le problème de fond des AIO pour les requêtes de santé.
L’enquête sur les disclaimers (février 2026)
La seconde enquête du Guardian, publiée le 16 février 2026, porte sur la manière dont Google affiche ses avertissements de sécurité sur les contenus médicaux générés par l’IA.
Google affirme que ses AI Overviews « informent les gens lorsqu’il est important de consulter un expert ou de vérifier l’information présentée ». Le Guardian a constaté qu’aucun disclaimer n’apparaît lorsque l’utilisateur voit pour la première fois un conseil médical généré par l’IA. Les avertissements ne s’affichent que si l’utilisateur clique sur un bouton « Show more ». Ils apparaissent alors en dessous de l’ensemble du contenu médical supplémentaire, dans une police plus petite et plus claire.
Google n’a pas contesté ces constats. Un porte-parole a indiqué que les AI Overviews « encouragent les gens à consulter un médecin » et mentionnent la nécessité de consulter un professionnel dans le résumé lui-même « lorsque c’est approprié ».
Ce qu’en disent les chercheurs
Plusieurs chercheurs ont réagi aux constats du Guardian. Pat Pataranutaporn, chercheur au MIT (Massachusetts Institute of Technology), considère que les disclaimers servent de « point d’intervention crucial » qui interrompt la confiance automatique de l’utilisateur et l’incite à évaluer l’information de manière critique. Il rappelle que les modèles d’IA actuels peuvent halluciner (générer des informations fausses présentées avec assurance) ou adopter un comportement dit sycophantique (tendance à privilégier la satisfaction de l’utilisateur plutôt que l’exactitude).
Sonali Sharma, chercheuse au centre d’IA en médecine et imagerie de l’Université Stanford (AIMI), pointe le fait que les AI Overviews apparaissent en haut de page et fournissent ce qui ressemble à une réponse complète, créant un effet de réassurance qui décourage la recherche complémentaire. Elle note que les AIO mélangent souvent informations correctes et incorrectes, ce qui rend la distinction difficile pour un non-spécialiste.
Gina Neff, professeure d’IA responsable à Queen Mary University of London, estime que les AI Overviews sont « conçus pour la vitesse, pas pour la précision » et que le problème est structurel.
Un double standard entre les exigences imposées aux éditeurs et celles appliquées à l’IA de Google
Pour les éditeurs de sites d’information sur la Santé, ces enquêtes mettent en lumière un problème systémique.
Google exige des éditeurs tiers le respect de critères E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness, soit Expérience, Expertise, Autorité et Fiabilité) stricts pour les contenus YMYL. Les Search Quality Rater Guidelines (les consignes internes que Google fournit à ses évaluateurs humains pour noter la qualité des résultats de recherche) stipulent que les contenus médicaux doivent démontrer une expertise et une expérience de premier plan. Des sites santé établis depuis des années ont vu leur visibilité chuter après le core update (mise à jour majeure de l’algorithme de classement) de décembre 2025, comme l’a documenté l’experte SEO Lily Ray.
Or les AI Overviews, qui occupent la position la plus visible de la page de résultats, ne sont pas soumises à ces mêmes critères. Elles ne démontrent ni expérience clinique, ni expertise médicale vérifiable, ni autorité institutionnelle. L’enquête du Guardian met en évidence ce que certains analystes appellent un « citation-support gap » : les AI Overviews affichent des URL de sources réputées, mais le contenu généré peut mal interpréter, simplifier ou contredire ces sources. L’URL citée ne garantit pas que le résumé reflète fidèlement le contenu de la page. Concrètement, un éditeur santé peut être pénalisé par Google pour un contenu jugé insuffisamment expert, tandis que le résumé IA qui le remplace en haut de page échappe à cette évaluation.
L’impact mesurable sur le trafic organique des sites de santé
L’impact des AIO sur le trafic organique est documenté par plusieurs études. Les AI Overviews réduisent les taux de clics (CTR, Click-Through Rate, soit le pourcentage d’utilisateurs qui cliquent sur un résultat) de 34,5 % lorsqu’elles sont présentes. Sur desktop, 7,4 % des utilisateurs cliquent sur un lien externe quand une AIO est affichée, contre 28 % sans. Sur mobile, le CTR passe de 38 % à 19 %.
Sur les requêtes santé YMYL spécifiquement, les utilisateurs lisent en moyenne 52 % du contenu généré par l’IA avant de décider s’ils consultent une source externe. La majorité ne dépasse jamais le premier tiers du résumé. Les éditeurs santé se retrouvent donc dans une situation où leurs contenus, évalués selon des critères stricts, sont à la fois moins visibles et moins consultés, au profit d’un résumé IA qui n’est pas soumis aux mêmes standards de qualité.
Et en France ?
Les AI Overviews ne sont pas actives sur Google.fr. Les utilisateurs français ne sont donc pas exposés, à ce stade, aux problèmes documentés par le Guardian. Mais le déploiement progressif de Google sur les marchés européens (neuf pays en mars 2025), la présence d’AI Overviews dans des pays limitrophes comme l’Allemagne, l’Espagne et l’Italie, et l’annonce par le VP de Google Dan Taylor que la fonctionnalité comptait plus de 2 milliards d’utilisateurs actifs mensuels début 2026, laissent penser qu’une arrivée en France est une question de calendrier.
Pour les éditeurs santé français et les professionnels du SEO médical, les enquêtes du Guardian offrent un aperçu concret des problèmes que pose le déploiement d’une IA générative sur des requêtes de santé. Comment des éditeurs soumis à des critères de qualité stricts peuvent-ils maintenir leur rôle d’information face à un résumé IA positionné au-dessus d’eux, qui n’est pas soumis aux mêmes standards, et dont les erreurs ne sont signalées par aucun avertissement visible ? Avec ces deux enquêtes, la question de la fiabilité des AI Overviews dans le domaine médical est sortie du champ du SEO pour entrer dans celui de la santé publique.
Bibliographie
- The Guardian – Google AI Overviews put people at risk with misleading health advice (janvier 2026)
- The Guardian – Google puts users at risk by downplaying disclaimers under AI Overviews (février 2026)
- TechCrunch – Google removes AI Overviews for certain medical queries (janvier 2026)
- Search Engine Journal – The Guardian: Google AI Overviews gave misleading health advice (janvier 2026)
- Ahrefs – What triggers AI Overviews? 86 factors and 146 million SERPs analyzed (novembre 2025)
- BrightEdge – Healthcare and AI Overviews: how Google sharpened its approach over three years
- Euronews – Google removes some health-related questions from its AI Overviews (janvier 2026)
- Winbuzzer – Google hides health warnings in AI Overviews, putting users at risk (février 2026)