Revenge porn et deepfakes : Google déploie un nouveau processus de suppression simplifié dans le Search

Signalement groupé, filtrage proactif, prise en charge des deepfakes : Google déploie un nouveau processus de suppression des images intimes non consenties dans Search. Décryptage d’une mise à jour qui redéfinit la modération des contenus images.

Le fardeau des victimes au coeur de la refonte

Pendant des années, demander la suppression d’une image intime non consentie sur Google relevait du parcours du combattant. Chaque image devait faire l’objet d’un signalement individuel, via un formulaire complexe, dans un contexte émotionnel souvent dévastateur. Pour les victimes de revenge porn (terme courant mais réducteur désignant la diffusion d’images intimes sans consentement, souvent par un ancien partenaire) ou de deepfakes (images ou vidéos créées ou manipulées par intelligence artificielle pour représenter une personne dans une situation fictive, généralement à caractère sexuel), la procédure elle-même constituait une forme de revictimisation.

C’est ce constat qui motive l’annonce publiée le 10 février 2026 par Google sur The Keyword, à l’occasion du Safer Internet Day (journée mondiale pour un Internet plus sûr, célébrée chaque année dans plus de 160 pays). L’entreprise déploie un nouveau processus, considérablement simplifié, pour demander le retrait des images intimes non consenties apparaissant dans Google Search et Google Images. L’annonce, signée par Phoebe Wong, Product Manager chez Google, s’inscrit dans une série de protections existantes que la firme renforce et centralise au sein de son outil « Results about you » (« Résultats vous concernant » en français).

Retrait des images : étape 1

Pour les professionnels du marketing digital et du SEO, cette mise à jour va au-delà de la simple politique de modération : elle introduit un mécanisme de filtrage algorithmique proactif dans Google Images, susceptible d’affecter la visibilité de certains contenus sur des requêtes connexes.

Trois évolutions majeures dans le processus de suppression

La refonte du processus repose sur trois piliers qui transforment l’expérience des personnes concernées.

Un accès direct depuis les résultats de recherche. L’utilisateur n’a plus besoin de chercher un formulaire enfoui dans les pages d’aide. Depuis Google Images, il suffit de cliquer sur les trois points qui apparaissent sur une image, de sélectionner « Remove result », puis « It shows a sexual image of me ». L’outil demande ensuite de préciser s’il s’agit d’une image réelle ou d’un deepfake (contenu synthétique généré par IA), et si la personne représentée est majeure ou mineure. La distinction est importante : les deepfakes relèvent de cadres juridiques de plus en plus spécifiques, comme on le verra plus bas.

Un signalement groupé. C’est probablement le changement le plus attendu. Là où il fallait signaler chaque image une par une, le nouveau formulaire permet de sélectionner et soumettre plusieurs images en une seule demande. Pour des victimes confrontées à la diffusion massive de dizaines, voire de centaines d’images, c’est un allègement considérable de la charge administrative et psychologique.

Un filtrage proactif optionnel. Après avoir soumis sa demande, l’utilisateur peut activer une protection continue qui filtre automatiquement les résultats similaires susceptibles d’apparaître dans des recherches ultérieures. Google ne se contente donc plus de supprimer les images signalées : il anticipe, via un système de détection algorithmique, l’apparition de contenus analogues. Comme le précise Engadget dans sa couverture de l’annonce, cette protection semble toutefois limitée aux résultats visibles par l’utilisateur qui l’a activée, et non à l’ensemble des utilisateurs de Google.

Retrait des images : étape 2

L’écosystème d’aide aux victimes se structure

Au-delà de la mécanique de suppression, Google intègre désormais un volet d’accompagnement. Dès la soumission d’une demande, des liens vers des organisations d’aide (soutien psychologique, assistance juridique) sont affichés. Le suivi de toutes les requêtes est centralisé dans le hub « Results about you », avec des notifications par e-mail sur l’état d’avancement de chaque demande.

Cet effort s’inscrit dans un écosystème plus large. La plateforme StopNCII.org, opérée par l’organisation britannique SWGfL (South West Grid for Learning), utilise une technologie de hachage sur l’appareil (création d’une empreinte numérique unique de l’image, sans que l’image elle-même ne quitte le téléphone de l’utilisateur) pour empêcher la diffusion des images intimes sur les plateformes partenaires (Facebook, Instagram, TikTok, Reddit, Microsoft Bing, Snap, Pornhub, entre autres). Plus d’un million d’images sont désormais protégées par ce système, soit une augmentation de 130 % sur un an. Aux Etats-Unis, le NCMEC (National Center for Missing and Exploited Children) opère un outil similaire baptisé TakeItDown, ciblé sur les mineurs, utilisant la même technologie de hachage.

Le Revenge Porn Helpline britannique, également géré par SWGfL, a signalé une augmentation significative des cas impliquant des contenus synthétiques (deepfakes) ces dernières années, soulignant que ce qui nécessitait autrefois des compétences techniques avancées peut désormais être réalisé par n’importe qui en quelques minutes, pour un coût dérisoire (aussi bas que six centimes d’euro par image, selon des chercheurs de l’Université de Floride et de Georgetown).

Disponibilité : un déploiement quasi mondial

Bonne nouvelle pour les utilisateurs européens : contrairement à la fonctionnalité de surveillance des documents d’identité (réservée aux Etats-Unis pour l’instant), le nouveau processus de suppression des images intimes est déployé dans la plupart des pays dès les prochains jours, avec une extension prévue « prochainement » aux régions restantes. La France et l’Europe devraient donc en bénéficier très rapidement, possiblement dès la mi-février 2026.

L’outil « Results about you » de base, qui sert de socle à cette fonctionnalité, est déjà accessible en France sous le nom « Résultats vous concernant ». Google précise que certaines fonctionnalités sont réservées aux utilisateurs de plus de 18 ans. Pour les demandes concernant des mineurs, un formulaire dédié reste disponible séparément.

Retrait des images : 3e et dernière étape.

Un contexte juridique qui se durcit partout dans le monde

L’initiative de Google s’inscrit dans un mouvement réglementaire global qui s’accélère. Le paysage juridique s’est considérablement transformé en 2025 autour de la lutte contre les NCII (Non-Consensual Intimate Imagery, terme juridique et technique désignant toute image ou vidéo intime diffusée sans le consentement de la personne représentée).

Aux Etats-Unis, le Take It Down Act, signé le 19 mai 2025, est la première loi fédérale à criminaliser directement la publication de NCII, y compris les deepfakes générés par IA. Elle prévoit des peines allant jusqu’à trois ans de prison et impose aux plateformes un retrait sous 48 heures après notification. Le texte, adopté à une quasi-unanimité (409 voix contre 2 à la Chambre des représentants), bénéficiait du soutien de plus de 100 organisations, dont Microsoft et la NCAA. Les plateformes ont jusqu’au 19 mai 2026 pour mettre en place leurs systèmes de notification et de retrait. La FTC (Federal Trade Commission, l’agence fédérale américaine chargée de la protection des consommateurs) est responsable de l’application de la loi.

Au Royaume-Uni, la création de deepfakes sexuels sans consentement est une infraction pénale depuis fin 2025. Le gouvernement britannique travaille sur un AI Bill plus large, attendu pour mai 2026, qui devrait réguler les modèles d’IA les plus puissants.

En Europe, le DSA (Digital Services Act ou Règlement sur les services numériques), pleinement applicable depuis février 2024, impose aux très grandes plateformes des obligations de suppression rapide des contenus illicites signalés. L’AI Act européen, en application progressive, classe certains usages de l’IA dans la catégorie des systèmes à haut risque et pourrait à terme encadrer plus strictement les outils de génération de deepfakes. Un policy paper publié en 2025 par les chercheurs Maria Pawelec et Maciej Labuz (CEE Digital Democracy Watch) détaille les menaces posées par les deepfakes à caractère sexuel et formule des recommandations juridiques, politiques et technologiques pour y répondre.

Les implications pour le SEO et le marketing digital

Pour les spécialistes du SEO images et de l’ORM (Online Reputation Management, gestion de la réputation en ligne), cette mise à jour de Google a des conséquences techniques et stratégiques qu’il faut anticiper.

Le filtrage proactif est l’élément le plus significatif. Jusqu’ici, Google ne faisait que retirer des résultats spécifiques après signalement. Désormais, l’activation de la protection continue introduit un mécanisme de détection de similitude qui peut affecter la visibilité d’images non encore signalées. Pour les professionnels qui travaillent sur l’optimisation d’images dans Google Images (via les balises alt, le schema markup, les sitemaps images), cela signifie qu’un système de filtrage supplémentaire peut intervenir en amont de l’affichage des résultats, indépendamment des critères SEO classiques.

La centralisation de toutes les demandes dans le hub « Results about you » crée par ailleurs un tableau de bord unifié de la vie privée dans Search. Les marques et personnalités publiques disposent désormais d’un point d’entrée unique pour gérer simultanément la suppression de coordonnées personnelles, de documents d’identité (aux Etats-Unis) et d’images intimes. C’est un outil que les agences d’e-réputation devront intégrer dans leurs audits réguliers.

Enfin, la prise en compte explicite des deepfakes dans le processus de signalement reflète une réalité que les moteurs de recherche ne peuvent plus ignorer : la frontière entre contenu authentique et contenu généré par IA s’estompe, et les mécanismes de modération doivent s’adapter. Pour les marketeurs qui utilisent des visuels générés par IA dans leurs stratégies de contenu, c’est un rappel que la transparence et le cadrage éthique de ces productions sont plus importants que jamais.

Bibliographie

  • Google, « A simpler way to remove explicit images from Search », The Keyword (10 février 2026) : Lire l’article source
  • Pawelec M. et Labuz M., « Non-Consensual Sexualising Deepfakes : Threats and Recommendations for Legal and Societal Action », CEE Digital Democracy Watch, 2025 : Lire le rapport (PDF)
  • Center for Democracy and Technology, « In Deep Trouble : Surfacing Tech-Powered Sexual Harassment in K-12 Schools » (avril 2025) : Lire sur CDT
  • StopNCII.org, plateforme mondiale de lutte contre la diffusion d’images intimes non consenties : Accéder au site
  • TAKE IT DOWN Act, fiche Wikipedia : Lire sur Wikipedia
  • Google Support, « Remove personal sexual content from Google Search » : Consulter la page d’aide

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Ce contenu vous a plu ?

Inscrivez-vous gratuitement à notre newsletter et recevez chaque semaine l'actualité de l'IA directement dans votre boîte email. Vous pouvez vous désabonner à tout moment !