Votre argent ou votre vie (YMYL) couvre des sujets qui affectent la santé, la stabilité financière, la sécurité ou le bien-être général des gens, et à juste titre, Google applique des normes algorithmiques sensiblement plus strictes à ces sujets.
Les outils d'écriture d'IA pourraient promettre d'augmenter la production de contenu, mais comme écrire pour YMYL nécessite plus de considération et de crédibilité d'auteur que d'autres contenus, un LLM peut-il écrire un contenu acceptable pour ce créneau ?
L’essentiel est que les systèmes d’IA échouent au niveau du contenu YMYL, offrant une uniformité fade là où l’expertise et l’autorité uniques comptent le plus. L’IA produit des réclamations médicales non fondées dans 50 % du temps et hallucine les décisions des tribunaux dans 75 % des cas.
Cet article examine comment Google applique les normes YMYL, montre où l'IA échoue et pourquoi les éditeurs qui s'appuient sur une véritable expertise se positionnent pour réussir à long terme.
Google traite le contenu YMYL avec un examen algorithmique
Directives d'évaluation de la qualité de recherche de Google déclarent que « pour les pages sur des sujets YMYL clairs, nous avons des normes d'évaluation de qualité de page très élevées » et que ces pages « nécessitent le plus grand examen ». Les lignes directrices définissent YMYL comme des sujets qui « pourraient avoir un impact significatif sur la santé, la stabilité financière ou la sécurité des personnes ».
La différence de poids algorithmique est documentée. Les conseils de Google déclare que pour les requêtes YMYL, le moteur de recherche accorde « plus de poids dans nos systèmes de classement à des facteurs tels que notre compréhension de l'autorité, de l'expertise ou de la fiabilité des pages ».
Le Mise à jour principale de mars 2024 ont démontré cette différence de traitement. Google a annoncé s'attendre à une réduction de 40 % du contenu de mauvaise qualité. Les sites Web YMYL dans les domaines de la finance et de la santé ont été parmi les plus durement touchés.
Les lignes directrices des évaluateurs de qualité créent un système à deux niveaux. Un contenu régulier peut atteindre une « qualité moyenne » avec une expertise quotidienne. Le contenu YMYL nécessite des niveaux EEAT « extrêmement élevés ». Le contenu avec un EEAT inadéquat reçoit la désignation « le plus bas », le jugement de qualité le plus sévère de Google.
Compte tenu de ces normes renforcées, le contenu généré par l’IA a du mal à les respecter.
Ce pourrait être une blague de l'industrie que les premières hallucinations de ChatGPT conseillé aux gens de manger des pierresmais cela met en lumière un problème très grave. Les utilisateurs dépendent de la qualité des résultats qu’ils lisent en ligne, et tout le monde n’est pas capable de déchiffrer les faits de la fiction.
Les taux d'erreur de l'IA le rendent inadapté aux sujets YMYL
UN Étude Stanford HAI de février 2024 testé GPT-4 avec Retrieval-Augmented Generation (RAG).
Résultats : 30 % des déclarations individuelles n’étaient pas étayées. Près de 50 % des réponses contenaient au moins une affirmation non étayée. Gemini Pro de Google a obtenu 10 % de réponses entièrement prises en charge.
Ce ne sont pas des écarts mineurs. GPT-4 RAG a donné des instructions de traitement pour le mauvais type d'équipement médical. Ce genre d’erreur pourrait nuire aux patients en cas d’urgence.
Money.com a testé la recherche ChatGPT sur 100 questions financières en novembre 2024. Seulement 65 % de bonnes réponses, 29 % de questions incomplètes ou trompeuses et 6 % de mauvaises.
Le système a obtenu des réponses sur des blogs personnels moins fiables, a omis de mentionner les changements de règles et n'a pas découragé le « timing du marché ».
Étude RegLab de Stanford les tests effectués sur plus de 200 000 requêtes juridiques ont révélé des taux d'hallucinations allant de 69 % à 88 % pour les modèles les plus modernes.
Les mannequins hallucinent au moins 75 % du temps lors des audiences judiciaires. Le Base de données des cas d'hallucinations IA suit 439 décisions de justice dans lesquelles l'IA a produit du contenu halluciné dans des dossiers judiciaires.
Men's Journal a publié son premier article sur la santé généré par l'IA en février 2023. Le Dr Bradley Anawalt du centre médical de l’Université de Washington a identifié 18 erreurs spécifiques.
Il a décrit « des erreurs factuelles persistantes et des interprétations erronées de la science médicale », notamment l’assimilation de différents termes médicaux, l’affirmation de liens non étayés entre l’alimentation et les symptômes et la fourniture d’avertissements sanitaires sans fondement.
L’article était « manifestement erroné sur des sujets médicaux fondamentaux » tout en étant « suffisamment proche des preuves scientifiques pour avoir un son de vérité ». Cette combinaison est dangereuse. Les gens ne peuvent pas repérer les erreurs parce qu’elles semblent plausibles.
Mais même lorsque l’IA parvient à comprendre les faits, elle échoue d’une autre manière.
Google donne la priorité à ce que l'IA ne peut pas fournir
En décembre 2022, Google a ajouté « Expérience » comme premier pilier de son cadre d’évaluation, en élargissant EAT à EEAT.
Les directives de Google demandent désormais si le contenu « démontre clairement une expertise directe et des connaissances approfondies (par exemple, une expertise qui découle de l'utilisation d'un produit ou d'un service, ou de la visite d'un lieu) ».
Cette question cible directement les limites de l’IA. L’IA peut produire un contenu techniquement précis qui se lit comme un manuel médical ou une référence juridique. Ce qu'il ne peut pas produire, c'est la perspicacité des praticiens. Le genre de traitement quotidien des patients ou de représentation des accusés devant les tribunaux.
La différence se voit dans le contenu. L’IA pourrait peut-être vous donner une définition du trouble de l’articulation temporo-mandibulaire (ATM). Un spécialiste qui traite des patients atteints d’ATM peut démontrer son expertise en répondant aux vraies questions posées par les gens.
À quoi ressemble la récupération ? Quelles erreurs les patients commettent-ils fréquemment ? Quand faut-il consulter un spécialiste plutôt que votre dentiste généraliste ? C'est « l'expérience » d'EEAT, une compréhension démontrée des scénarios du monde réel et des besoins des patients.
Les questions de qualité du contenu de Google le récompensent explicitement. L'entreprise vous encourage à demander : « Le contenu fournit-il des informations, des rapports, des recherches ou des analyses originaux ? » » et « Le contenu fournit-il une analyse perspicace ou des informations intéressantes qui dépassent l'évidence ? »
La société de recherche met en garde contre « le fait de résumer principalement ce que les autres ont à dire sans y ajouter beaucoup de valeur ». C’est précisément ainsi que fonctionnent les grands modèles de langage.
Ce manque d'originalité crée un autre problème. Lorsque tout le monde utilise les mêmes outils, le contenu devient indiscernable.
La conception de l'IA garantit l'homogénéisation du contenu
Recherche à l'UCLA documente ce que les chercheurs appellent une « spirale mortelle d’homogénéisation ». Les systèmes d’IA se tournent par défaut vers des préférences moyennes à l’échelle de la population, car les LLM prédisent le mot suivant le plus statistiquement probable.
Des chercheurs d'Oxford et de Cambridge l'ont démontré dans la nature. Lorsqu’ils ont formé un modèle d’IA sur différentes races de chiens, le système a de plus en plus produit uniquement des races communes, ce qui a finalement abouti à un « effondrement du modèle ».
UN Étude sur les progrès scientifiques a découvert que « l’IA générative améliore la créativité individuelle mais réduit la diversité collective du contenu nouveau ». Les écrivains sont individuellement mieux lotis, mais produisent collectivement une portée de contenu plus restreinte.
Pour les thématiques YMYL où la différenciation et l’expertise unique apportent un avantage concurrentiel, cette convergence est dommageable. Si trois conseillers financiers utilisent ChatGPT pour générer des conseils d'investissement sur le même sujet, leur contenu sera remarquablement similaire. Cela n’offre aucune raison pour que Google ou les utilisateurs préfèrent l’un à l’autre.
La mise à jour de mars 2024 de Google s'est concentrée sur « l'abus de contenu à grande échelle » et le « contenu générique/indifférencié » qui répète des informations largement disponibles sans nouvelles informations.
Alors, comment Google détermine-t-il si le contenu provient réellement de l’expert dont le nom y apparaît ?
Comment Google vérifie l'expertise de l'auteur
Google ne se contente pas d'examiner le contenu de manière isolée. Le moteur de recherche établit des connexions dans son graphe de connaissances pour vérifier que les auteurs possèdent l'expertise qu'ils revendiquent.
Pour les experts confirmés, cette vérification est robuste. Les professionnels de la santé ayant des publications sur Google Scholar, les avocats inscrits au barreau, les conseillers financiers ayant des dossiers FINRA ont tous des empreintes numériques vérifiables. Google peut associer le nom d'un auteur à ses informations d'identification, ses publications, ses allocutions et ses affiliations professionnelles.
Cela crée des modèles que Google peut reconnaître. Votre style d’écriture, vos choix terminologiques, votre structure de phrase et votre sujet forment une signature. Lorsque le contenu publié sous votre nom s’écarte de ce modèle, cela soulève des questions sur son authenticité.
Construire une véritable autorité nécessite de la cohérence, cela aide donc à faire référence aux travaux antérieurs et à démontrer un engagement continu dans votre domaine. Liez les signatures de l’auteur aux pages bio détaillées. Incluez les diplômes, les juridictions, les domaines de spécialisation et les liens vers des profils professionnels vérifiables (conseils médicaux d'État, barreaux, établissements universitaires).
Plus important encore, demandez à des experts de rédiger ou d’examiner minutieusement le contenu publié sous leur nom. Il ne s’agit pas seulement de vérifier les faits, mais aussi de s’assurer que la voix, le point de vue et les idées reflètent leur expertise.
La raison pour laquelle ces systèmes de vérification sont importants va au-delà des classements.
Les enjeux réels de la désinformation YMYL
UN Étude 2019 de l'Université de Baltimore a calculé que la désinformation coûte à l’économie mondiale 78 milliards de dollars par an. Fraude financière Deepfake a touché 50 % des entreprises en 2024, avec une perte moyenne de 450 000 $ par incident.
Les enjeux diffèrent des autres types de contenu. Les erreurs non YMYL provoquent des désagréments pour l'utilisateur. Les erreurs YMYL provoquent des blessures, des erreurs financières et une érosion de la confiance institutionnelle.
Loi fédérale américaine prévoit jusqu'à 5 ans de prison pour diffusion de fausses informations causant un préjudice, 20 ans si une personne subit des blessures corporelles graves et la réclusion à perpétuité si une personne en décède. Entre 2011 et 2022, 78 pays ont adopté des lois sur la désinformation.
La validation est plus importante pour YMYL car les conséquences se cascadent et se composent.
Les décisions médicales retardées par la désinformation peuvent aggraver les conditions de vie au-delà du rétablissement. De mauvais choix d’investissement créent des difficultés économiques durables. Un mauvais conseil juridique peut entraîner une perte de droits. Ces résultats sont irréversibles.
Comprendre ces enjeux permet d'expliquer ce que les lecteurs recherchent lorsqu'ils recherchent des sujets YMYL.
Ce que les lecteurs attendent du contenu YMYL
Les gens n'ouvrent pas le contenu de YMYL pour lire les définitions de manuels qu'ils pourraient trouver sur Wikipédia. Ils veulent entrer en contact avec des praticiens qui comprennent leur situation.
Ils veulent savoir quelles questions posent les autres patients. Ce qui fonctionne généralement. À quoi s'attendre pendant le traitement. Quels signaux d’alarme faut-il surveiller ? Ces informations proviennent d’années de pratique et non de données de formation.
Les lecteurs peuvent savoir quand le contenu provient d’une expérience authentique et quand il a été assemblé à partir d’autres articles. Lorsqu’un médecin dit « l’erreur la plus courante que font les patients est… », cela a un poids que les conseils générés par l’IA ne peuvent égaler.
L'authenticité compte pour la confiance. Dans les sujets YMYL où les gens prennent des décisions affectant leur santé, leurs finances ou leur situation juridique, ils ont besoin d'être sûrs que les conseils viennent de quelqu'un qui a déjà traversé ces situations.
Cette compréhension de ce que veulent les lecteurs devrait éclairer votre stratégie.
Le choix stratégique
Les organisations produisant du contenu YMYL sont confrontées à une décision. Investissez dans une véritable expertise et des perspectives uniques, sous peine de sanctions algorithmiques et de dommages à votre réputation.
L'ajout de « Expérience » à EAT en 2022 visait l'incapacité de l'IA à avoir une expérience directe. La mise à jour du contenu utile a pénalisé « le fait de résumer ce que les autres ont à dire sans ajouter beaucoup de valeur », une description exacte de la fonctionnalité LLM.
Lorsque Google applique des normes YMYL plus strictes et que les taux d'erreur de l'IA sont de 18 à 88 %, les risques l'emportent sur les avantages.
Les experts n'ont pas besoin de l'IA pour rédiger leur contenu. Ils ont besoin d’aide pour organiser leurs connaissances, structurer leurs idées et rendre leur expertise accessible. C'est un rôle différent de celui de générer du contenu lui-même.
Regarder vers l'avenir
La valeur du contenu YMYL provient de connaissances qui ne peuvent pas être extraites des sources existantes.
Cela vient du chirurgien qui sait quelles questions les patients posent avant chaque intervention. Le conseiller financier qui a guidé ses clients à travers les récessions. L'avocat qui a vu quels arguments fonctionnent devant quels juges.
Les éditeurs qui traitent le contenu YMYL comme un jeu en volume, que ce soit via l'IA ou des fermes de contenu humain, sont confrontés à un chemin difficile. Ceux qui le considèrent comme un signal de crédibilité ont un modèle durable.
Vous pouvez utiliser l’IA comme outil dans votre processus. Vous ne pouvez pas l’utiliser pour remplacer l’expertise humaine.
Plus de ressources :
Image en vedette : Roman Samborskyi/Shutterstock
