Google Discover, le service de recommandation de contenus personnalisés de Google, est de plus en plus confronté à une problématique majeure : la prolifération de contenus générés par intelligence artificielle (IA), qui menace directement les éditeurs traditionnels. Ce phénomène s’est accentué avec l’essor d’outils comme ChatGPT ou Gemini, capables de produire en masse des articles, des résumés ou des analyses à moindre coût et en un temps record. Les algorithmes de Google, conçus pour privilégier la pertinence et l’engagement, peinent désormais à distinguer ces contenus automatisés des productions humaines, ce qui fausse la visibilité des médias établis.
Les éditeurs, déjà fragilisés par la baisse des revenus publicitaires et la concurrence des réseaux sociaux, voient leurs audiences s’éroder sur Google Discover, plateforme pourtant cruciale pour leur trafic. Les contenus générés par IA, souvent optimisés pour le référencement (SEO) avec des mots-clés ciblés et des structures standardisées, occupent une place croissante dans les suggestions, reléguant les articles de qualité, mais moins "algorithmiques", en arrière-plan. Certains médias dénoncent un cercle vicieux : plus les utilisateurs cliquent sur des contenus IA, souvent superficiels ou redondants, plus Google les met en avant, au détriment de l’information vérifiée et approfondie.
Face à cette situation, Google a commencé à ajuster ses algorithmes pour limiter la diffusion de contenus de faible valeur, notamment en pénalisant les sites qui publient massivement du texte généré par IA sans apport éditorial humain. Cependant, ces mesures restent insuffisantes pour les éditeurs, qui réclament une transparence accrue sur les critères de sélection de Discover et une meilleure reconnaissance de leur travail journalistique. Certains proposent même la création d’un label "contenu humain certifié", afin de différencier clairement les productions originales des textes automatisés. La bataille pour la visibilité sur Google Discover illustre ainsi un enjeu plus large : l’équilibre entre innovation technologique et préservation d’un écosystème médiatique diversifié et fiable.
Parallèlement, des questions éthiques et économiques émergent. Les contenus IA, bien que moins coûteux à produire, soulèvent des interrogations sur leur fiabilité, leur neutralité et leur capacité à alimenter un débat public de qualité. Les éditeurs craignent aussi une dévalorisation de leur métier, alors que les plateformes comme Google tirent profit de leur audience sans toujours redistribuer équitablement les revenus. Dans ce contexte, des initiatives européennes, comme le Digital Services Act (DSA), pourraient jouer un rôle clé en imposant aux géants du numérique plus de responsabilité dans la modération et la rémunération des contenus. Reste à savoir si ces régulations suffiront à enrayer la domination croissante de l’IA dans l’information en ligne.
Enfin, l’avenir de Google Discover dépendra de sa capacité à concilier personnalisation algorithmique et qualité éditoriale. Les utilisateurs, de plus en plus conscients des limites des contenus générés par IA, pourraient exiger une meilleure curation, favorisant ainsi un retour vers des sources fiables. Pour les éditeurs, l’enjeu est double : adapter leurs stratégies pour rester compétitifs dans un environnement dominé par l’IA, tout en préservant leur crédibilité et leur modèle économique. Cette tension entre automatisation et expertise humaine redéfinit aujourd’hui les règles du jeu dans l’écosystème de l’information numérique.