Google : Faut-il bloquer certaines ressources JS et CSS externes?

Dans un récent JavaScript Office Hours, Martin Splitt de chez a répondu à une question sur le blocage des ressources externes JS et CSS.

Google : Faut-il bloquer certaines ressources JS et CSS externes ?

La question était de savoir si le blocage des ressources externes ferait perdre du ranking à un site Web.

Du JavaScript et CSS bloqués peuvent affecter les classements

Le blocage des fichiers JavaScript (JS) et CSS peut causer des problèmes de classement dans certaines situations. Une des raisons est que Google a besoin de certains de ces fichiers afin de rendre la page web et déterminer si elle est mobile-friendly.

Une page officielle de développeur de Google dit ceci :

Pour garantir une indexation et un affichage optimaux de votre page, Googlebot doit pouvoir accéder aux fichiers JavaScript, CSS et image que votre site Web utilise

il est possible que le classement du site ne soit pas optimal.

Blocage des fichiers JavaScript et CSS externes

La personne qui pose la question a une raison valable de s’inquiéter de la façon dont Google pourrait réagir au sujet du blocage des ressources externes.

La question:

Si vous utilisez robots.txt pour bloquer JS ou CSS sur des fichiers JS/CSS externes dans d’autres noms de domaine ou si d’autres domaines les bloquent, alors l’utilisateur verra des choses différentes que Googlebot, n’est-ce pas ?

Google se méfierait-il de ce genre de pages et les a-t-elle déclassées ?

Martin Splitt de Google a répondu :

Non, nous ne déclasserons rien. Ce n’est pas caché. Dissimuler, très spécifiquement, signifie tromper l’utilisateur.

Ce n’est pas parce que nous ne pouvons pas voir le contenu que vous trompez l’utilisateur.

La dissimulation est une astuce que les spammeurs utilisent pour afficher un ensemble de contenu à Google afin de tromper Google dans le classement et afficher une page Web complètement différente pour les utilisateurs, comme un virus ou un spam chargé dans la page web.

La dissimulation (cloaking) est également un moyen d’empêcher Google d’explorer les URL que les éditeurs ne veulent pas que Google voie, comme les liens d’affiliation.

Dans ce cas, d’après Splitt Martin le blocage des ressources externes ne sera pas considéré comme une dissimulation.

Comment bloquer les ressources externes peut être problématique

Martin poursuit en décrivant comment le blocage des ressources externes peut devenir un problème :

Il est encore potentiellement problématique si votre contenu n’apparaît que lorsque nous pouvons aller chercher ces ressources et nous ne voyons pas le contenu dans le HTML rendu parce qu’il est bloqué par robots.txt.

Alors, on ne peut pas l’indexer. S’il manque du contenu, nous ne pouvons pas l’indexer.

Les outils de test de Google révéleront des problèmes

Martin poursuit en montrant comment un éditeur peut diagnostiquer si le blocage des ressources est problématique.

Il est donc certainement utile d’essayer nos de test pour voir si le contenu que vous voulez utiliser pour être vu sur la page est en fait visible sur la page, même si certaines ressources JavaScript ou CSS pourraient être robotisés.

Mais d’une manière générale, les ressources JavaScript ou CSS robotisées ne sont pas en soi un problème. Cela peut être un problème si nous ne pouvons pas voir le contenu, mais c’est très bien du point de vue de la dissimulation, ce n’est pas dissimulation.

Il a en outre précisé :

Si le contenu est chargé par JavaScript et que nous ne pouvons pas charger ce JavaScript parce qu’il est robotisé, nous n’allons pas le voir et c’est potentiellement problématique.

Mais si c’est une amélioration comme une boîte de Chat ou un widget de commentaire … alors ce n’est pas un problème.

Dans le monde réel, si l’on veut bloquer les ressources externes avec un robots.txt, alors beaucoup se tournent vers la dissimulation.

Et certaines formes de dissimulation peuvent être un moyen de bloquer les ressources qui n’ont rien à voir avec la façon dont la page est rendue et qui s’inscrit dans ce que Google recommande.

Source

Auteur : Noel NGUESSAN

Je suis Noel Nguessan, fondateur du site Arobasenet.com qui existe depuis 2007 et a aujourd'hui plus de 6.800 articles. Pour ma part, j'ai intégré le monde de l'internet en 1997 en qualité de créateur de site internet, avant de devenir développeur web et multimédia au début de l'année 2000, avant de basculer naturellement vers le SEO en tant que Consultant.