Le dernier podcast Search Off the Record de Google discutait de la question de savoir si « le référencement est sur une voie en voie de disparition » à cause de la recherche AI. Leur évaluation cherchait à expliquer que le référencement reste inchangé depuis l'introduction de l'IA Search, révélant un fossé entre leur vision du référencement selon laquelle « rien n'a changé » et les expériences réelles des spécialistes du marketing numérique et des éditeurs.
Google spécule si l'IA est sur une voie mourante
À un certain moment du podcast, ils ont commencé à parler de l'IA après que John Mueller ait introduit le sujet de l'impact de l'IA sur le référencement.
Jean a demandé :
« Alors, pensez-vous que l’IA remplacera le SEO ? Le référencement est-il en voie de disparition ? »
Gary Illyes a exprimé son scepticisme, affirmant que les référenceurs prédisent le déclin du référencement depuis des décennies.
Gary a exprimé son optimisme quant au fait que le référencement n'est pas mort, observant :
« Je veux dire, le référencement est en train de mourir depuis 2001, donc je n'en ai pas peur. Genre, je ne le suis pas. Ouais. Non, je suis presque sûr qu'en 2025, le premier article qui paraîtra portera sur la façon dont le référencement est à nouveau en train de mourir.
Il a raison. Google a commencé à mettre les vis à vis des tactiques de référencement populaires de l'époque vers 2004, prenant de l'ampleur en 2005 avec des choses comme l'analyse statistique.
Ce fut un choc pour les référenceurs lorsque les liens réciproques ont cessé de fonctionner. Certains ont refusé de croire que Google puisse supprimer ces tactiques, spéculant plutôt sur un « bac à sable » qui empêchait arbitrairement les sites de se classer. Le fait est que la spéculation a toujours été la solution de repli pour les référenceurs qui ne peuvent pas expliquer ce qui se passe, alimentant la crainte depuis des décennies que le référencement soit en train de mourir.
Ce que les Googleurs ont évité de discuter, ce sont les milliers de petits et grands éditeurs qui ont été anéantis au cours de l’année dernière.
Plus d’informations à ce sujet ci-dessous.
RAG est la façon dont les référenceurs peuvent aborder le référencement pour la recherche IA
Lizzi Sassman de Google a ensuite demandé en quoi le référencement était pertinent en 2025 et après quelques plaisanteries hors sujet, John Mueller a soulevé le sujet du RAG, Retrieval Augmented Generation. RAG est une technique qui permet aux réponses générées par un grand modèle de langage (LLM) d'être à jour et fondées sur des faits. Le système récupère des informations à partir d'une source externe telle qu'un index de recherche et/ou un graphe de connaissances et le grand modèle de langage génère ensuite la réponse, génération augmentée de récupération. L’interface Chatbot apporte alors la réponse en langage naturel.
Lorsque Gary Illyes a avoué qu'il ne savait pas comment l'expliquer, le googleur Martin Splitt est intervenu avec une analogie avec les documents (représentant l'index de recherche ou la base de connaissances), la recherche et la récupération d'informations à partir de ces documents, et une sortie des informations de « sorti du sac »).
Martin a proposé cette analogie simplifiée avec RAG :
« De nos jours, c'est probablement bien mieux et vous pouvez simplement montrer que, comme ici, vous téléchargez ces cinq documents, puis, sur la base de ces cinq documents, vous obtenez quelque chose du sac. »
Lizzi Sassman a commenté :
«Ah, d'accord. Cette question porte donc sur la manière dont la chose connaît ses informations et où elle va et obtient ces informations.
John Mueller a repris ce fil de discussion et a commencé à élaborer un concept plus large sur la façon dont RAG est ce qui lie les pratiques de référencement aux moteurs de recherche IA, affirmant qu'il existe toujours une partie d'exploration, d'indexation et de classement dans un moteur de recherche IA. Il a raison, même un moteur de recherche IA comme Perplexity AI utilise une version mise à jour de l'ancien algorithme PageRank de Google.
Mueller a expliqué :
« Je l'ai trouvé utile lorsque je parlais de choses comme l'IA dans les résultats de recherche ou en combinaison avec les résultats de recherche où les référenceurs, j'ai l'impression qu'au début, lorsqu'ils réfléchissent à ce sujet, pensent : » Oh, cette IA est cette grande boîte magique et personne ne sait ce que c'est. qui se passe là-dedans.
Et, lorsque vous parlez de type de partie de récupération augmentée, c'est essentiellement sur cela que travaillent les référenceurs, comme créer du contenu explorable et indexable pour la recherche et ce type de flux dans tous ces aperçus de l'IA.
J'ai donc en quelque sorte trouvé cet angle comme étant quelque chose à montrer, en particulier aux référenceurs qui ont un peu peur de l'IA et de toutes ces choses, qu'en fait, ces résultats de recherche alimentés par l'IA sont souvent un mélange d'éléments existants que vous recherchez. je le fais déjà. Et ce n’est pas que cela remplace soudainement l’exploration et l’indexation.
Mueller a raison de dire que le processus traditionnel d'indexation, d'exploration et de classement existe toujours, ce qui maintient le référencement pertinent et nécessaire pour garantir que les sites Web sont détectables et optimisés pour les moteurs de recherche.
Cependant, les Googleurs ont évité de discuter de la situation évidente aujourd'hui, à savoir celle des milliers d'éditeurs, petits et grands, dans le vaste écosystème du Web, qui ont été anéantis par les algorithmes d'IA de Google en back-end.
Les impacts réels de l'IA sur la recherche
Ce qui a changé (et n'a pas été abordé), c'est que la partie importante de l'IA dans la recherche n'est pas celle située en amont avec les aperçus de l'IA. Il s'agit de la partie back-end qui prend des décisions sur la base de signaux opaques d'autorité, d'actualité et de la situation quelque peu ironique dans laquelle une intelligence artificielle décide si le contenu est destiné aux moteurs de recherche ou aux humains.
Les SERP organiques sont explicitement obsolètes
Les dix liens bleus traditionnels sont implicitement obsolètes depuis environ 15 ans, mais l’IA les a rendus explicitement obsolètes.
Requêtes de recherche en langage naturel
Le contexte dans lequel les utilisateurs de recherche posent des questions conversationnelles précises en plusieurs allers-retours constitue un changement énorme pour les requêtes de recherche. Bing affirme que cela facilite la compréhension des requêtes de recherche et fournit des réponses de plus en plus précises. C'est ce qui déstabilise les référenceurs et les éditeurs car, avouons-le, une quantité importante de contenu a été créée pour se classer dans le paradigme des requêtes basées sur des mots clés, qui disparaît progressivement à mesure que les utilisateurs se tournent de plus en plus vers des requêtes plus complexes. La manière dont les créateurs de contenu optimisent cela est une grande préoccupation.
Algorithmes d'IA back-end
Le mot « capricieux » désigne la tendance à apporter des changements de comportement soudains et inexplicables. Ce n'est pas une qualité souhaitée par les éditeurs et les référenceurs dans un moteur de recherche. Pourtant, les algorithmes back-end capricieux qui ralentissent soudainement le trafic et changent ensuite d’avis virtuel des mois plus tard sont une réalité.
Google est-il détaché de la réalité de l’écosystème Web ?
Dommages à l’échelle de l’industrie causés par des algorithmes basés sur l’IA qui sont encore «améliorerg » ont incontestablement porté préjudice à une partie considérable de l’écosystème du Web. D'immenses quantités de trafic vers les éditeurs de toutes tailles ont été anéanties depuis l'intégration accrue de l'IA dans le backend de Google, un problème dont la récente recherche Google Off The Record a évité de discuter.
Beaucoup espèrent que Google abordera cette situation en 2025 avec plus de nuances que son PDG Sundar Pichai, qui a eu du mal à expliquer comment Google soutient l'écosystème Web, apparemment détaché du sort de milliers d'éditeurs.
La question n'est peut-être pas de savoir si le référencement est en voie de disparition, mais si la publication elle-même est en déclin à cause de l'IA à la fois dans le backend et à l'avant du champ de recherche de Google et des applications Gemini.
Consultez ces articles connexes :
La stratégie IA 2025 du PDG de Google minimise le champ de recherche
Google Gemini Deep Research pourrait éroder les revenus du site Web
PDG de Google : la recherche va profondément changer en 2025
Image en vedette par Shutterstock/Shutterstock AI Generator