Les propriétaires de sites ne devraient pas être tellement préoccupés par un bon classement dans Google qu’ils perdent de vue la création de contenu utile aux utilisateurs.
C’est l’essentiel d’un commentaire récent laissé par John Mueller de Google dans un fil Reddit sur les classements de recherche.
Le fil de discussion demande:
« Si je ne savais pas ce qu’était le SEO technique, mais que j’avais un CONTENU de haute qualité, pourrais-je me classer n ° 1? »
En réponse, Mueller partage une déclaration qui est rarement entendue dans le monde du référencement: « Le classement n’est pas toujours le but. »
Le plus important est de créer du contenu que les gens recherchent.
En théorie, une page pourrait bien se classer en fonction du contenu uniquement, surtout si le sujet n’est pas souvent recherché.
Mais dans quelle mesure serait-il utile de se classer n ° 1 pour une requête si personne ne la recherche?
Le but est le trafic, et un bon contenu en lui-même ne générera pas toujours du trafic.
Voici la déclaration de Mueller dans son intégralité:
« Le classement n’est pas toujours l’objectif, votre site peut bien se classer mais si personne ne le recherche, ce n’est pas vraiment utile. De ce fait, un excellent contenu seul, même s’il est de classe mondiale, ne signifie pas que vous obtiendrez un trafic important. Et comprendre les ordinateurs ne change rien non plus. »
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Problèmes techniques de SEO à considérer
Mueller poursuit son commentaire en abordant directement la question d’origine.
Si le référencement technique n’était pas du tout pris en compte, une page pourrait-elle tout de même se classer n ° 1 avec un bon contenu?
Il y a des limites à ce qui peut mal tourner quand une page est construite sans tenir compte du référencement technique.
Le principal problème à considérer, qui peut faire la différence entre être indexé et non indexé, est la présence d’un balise noindex.
Si une page ne peut pas être indexée, elle ne peut pas être classée, c’est donc le seul problème technique qui peut empêcher un bon contenu du classement.
Mueller note également que même une page bloquée par robots.txt peut toujours se classer en premier. Voici sa déclaration complète:
«Techniquement, il y a des limites à ce que vous pouvez faire de mal; si la page n’est pas indexable, rien ne peut compenser.
Une page bloquée par le fichier robots.txt peut toujours être classée en premier, une page avec un noindex (paramètre CMS mal compris, peut-être) ou qui n’est pas immédiatement accessible avec une URL ne peut pas du tout être classée. Paradoxalement (?) Le blocage d’une page noindex avec robots.txt peut la rendre indexable.
Et bien sûr, une page noindex peut également générer du trafic indirect à partir de la recherche (une page de liaison peut classer et générer du trafic). »
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Recommandations de Mueller
Pour réduire les risques causés par la méconnaissance du référencement technique, Mueller recommande au moins d’avoir une certaine compréhension des bases.
L’utilisation d’un CMS moderne s’occupera automatiquement des bases. Mueller dit qu’il est le plus préoccupé par ceux qui ont juste assez d’expertise technique pour créer leur propre site.
«Habituellement, ma recommandation est de réduire les risques et de remettre les bases en bonne forme. L’utilisation d’un CMS moderne, quelque chose que les débutants ou les non-techniciens utiliseraient, le fera automatiquement pour vous. Ceux qui me préoccupent le plus sont ceux qui comprennent suffisamment les ordinateurs pour créer leur propre site :-). »
La source: Reddit