L’algo Penguin peut conduire Google à se méfier de votre site

Lorsque Google a déployé Penguin 4.0, a déclaré que la mise à jour visait à dévaluer ou ignorer les liens, pas à rétrograder les liens. Continuer la lecture de « L’algo Penguin peut conduire Google à se méfier de votre site »

Facebook va pénaliser ceux qui partagent de la désinformation

Facebook a introduit de nouveaux avertissements qui informent les utilisateurs que le partage répété de fausses allégations pourrait entraîner que « leurs propres publications soient rétrogradées dans le fil d’actualité afin que d’autres personnes sont moins susceptibles de les voir. »

Facebook va pénaliser ceux qui partagent à plusieurs reprises de la désinformation

 

Jusqu’à présent, la politique de l’entreprise a été de démystifier les posts individuels qui sont démystifiés par les fact-checkers ou vérificateurs des faits.

Mais les messages peuvent devenir viraux bien avant qu’ils ne soient vérifiés par les fact-checkers, et il y avait peu d’incitation pour les utilisateurs de ne pas partager ces messages en premier lieu.

Avec le changement, dit qu’il mettra en garde les utilisateurs sur les conséquences du partage répété de la désinformation.

Les Pages Facebook considérées comme des récidivistes comprendront des avertissements contextuels lorsque de nouveaux utilisateurs tenteront de les suivre, et les personnes qui partagent constamment de la désinformation recevront des notifications indiquant que leurs propres messages pourraient être moins visibles dans le fil d’actualité.

Les notifications auront également un lien vers la vérification des faits pour le post en question, et donneront aux utilisateurs la possibilité de supprimer le post.

C’est que Facebook déclare dans un récent communiqué :

Aujourd’hui, nous lançons de nouvelles façons d’informer les gens s’ils interagissent avec du contenu qui a été évalué par un fact-checker ainsi que de prendre des mesures plus fortes contre les personnes qui partagent à plusieurs reprises la désinformation sur Facebook.

Qu’il s’agisse de contenu faux ou trompeur sur covid-19 et les vaccins, le changement climatique, les élections ou d’autres sujets, nous nous assurons que moins de gens voient de la désinformation sur nos applications.

 

Plus de contexte pour les Pages qui partagent à plusieurs reprises de fausses allégations

 

Facebook dit vouloir donner aux utilisateurs plus d’informations avant qu’ils n’aiment une Page qui a partagé à plusieurs reprises le contenu que les fact-checkers ont noté, de sorte que vous verrez un pop-up lorsque vous allez aimer l’une de ces Pages.

Vous pouvez également cliquer pour en savoir plus, y compris que les fact-checkers disent que certains messages partagés par cette page comprennent de fausses informations et un lien vers plus d’informations sur le programme de vérification des faits.

Plus de contexte pour les Pages qui partagent à plusieurs reprises de fausses allégations

Cela aidera les gens à prendre une décision éclairée quant à savoir s’ils veulent suivre () la Page.

 

Extension des pénalités pour les comptes Facebook individuels

 

Depuis le lancement du programme de vérification des faits sur Facebook à la fin de 2016, Facebook dit se concentrer sur la réduction de la désinformation virale.

Il a pris des mesures plus fortes contre les Pages, les Groupes, les comptes et les domaines (sites web) partageant de la désinformation, et maintenant, il étend certains de ces efforts pour inclure des pour les comptes Facebook individuels aussi.

À partir d’aujourd’hui, nous réduisons la distribution de toutes les publications dans le fil d’actualité à partir du compte Facebook d’une personne si elle partage à plusieurs reprises du contenu qui a été évalué par l’un de nos partenaires de vérification des faits.

Nous réduisons déjà la portée d’un seul message dans le fil d’actualité s’il a été démystifié.

 

Notifications redessinées lorsque les gens partagent du contenu fact-checked

 

Facebook a maintenant décidé d’informer les utilisateurs lorsqu’ils partagent du contenu qu’un vérificateur des faits à récemment vérifié et noté.

Et maintenant, il a repensé ces notifications pour les rendre plus faciles à comprendre lorsque cela se produit.

La notification inclut l’article du fact-checker démystifiant la réclamation ainsi qu’une invite à partager l’article avec leurs abonnés.

 

Notifications redessinées lorsque les gens partagent du contenu fact-checked

Elle comprend également un avis stipulant que les personnes qui partagent à plusieurs reprises de fausses informations peuvent voir leurs messages déplacés plus bas dans le fil d’actualité afin que d’autres personnes soient moins susceptibles de les voir.

Toute optimisation pour Core Web Vitals dure 28 jours avant résultats

n’a pas l’intention d’accélérer le temps qu’il faut pour analyser et rendre compte des données Core Web Vitals.

Toute optimisation pour Core Web Vital dure 28 jours avant résultats. Et ce n\'est pas prêt de changer...

 

Les outils de test de de Google, notamment Google Pagespeed Insights, prennent 28 jours pour recueillir des données globales sur le terrain, ce qui ne changera probablement pas de sitôt.

pour la dernière période de collecte de données de 28 jours ne passe pas (

John Mueller, Web Trends Analyst chez Google, l’a explicitement déclaré lors du hangout de la Search Central enregistré le 5 Mars dernier.

Vahan Petrosyan, Search Engine Journal’s IT Director, a posé des questions à John Mueller à ce sujet tout en notant les défis que la fenêtre de 28 jours crée pour les développeurs et les SEOs.

Car, lorsqu’une modification est apportée à un site Web pour améliorer les éléments signaux web essentiels ou Core Web Vitals, il faudra au moins 28 jours avant que cette modification ne soit récupérée par les outils de test de Google.

Il est peu probable que ce délai de 28 jours soit réduit, selon la réponse de Mueller que vous pouvez lire ci-dessous.

 

John Mueller à propos des données Core Web Vitals

 

Dans la vidéo du hangout, Mueller doute que la collecte de données Core Web Vitals puisse changer un jour par rapport à ce qu’elle est aujourd’hui.

Je ne sais pas. J’en doute, parce que les données que nous montrons dans la Search Console est basée sur les données du rapport d’expérience utilisateur Chrome qui sont agrégées au cours de ces 28 derniers jours.

C’est donc la principale raison du retard. Ce n’est pas que la Search Console est lente dans le traitement de ces données ou quelque chose comme ça. C’est juste la façon dont les données sont collectées et agrégées, cela prend juste du temps.

Google n’a pas l’intention d’analyser et de rapporter les données Core Web Vitals en temps réel.

Les scores représentent des données globales, parce que Google veut s’assurer que le site fournit toujours une bonne expérience utilisateur sur une longue période.

Si les référenceurs SEO et les développeurs veulent les données plus rapidement, John Mueller recommande qu’ils effectuent leurs propres tests avec des outils tiers ou l’API PageSpeed Insights.

Donc, habituellement, ce que je recommande quand les gens posent des questions sur ce genre de chose en disant « Je veux savoir plus tôt quand quelque chose ne fonctionne pas »,

Et il y a un tas d’outils tiers qui le font pour vous automatiquement.

Vous pouvez également utiliser l’API Page Speed Insights directement et choisir, je ne sais pas, un petit échantillon de vos pages importantes et simplement les tester tous les jours.

Et de cette façon, vous pouvez dire assez rapidement s’il y a des régressions dans l’une des configurations que vous avez faites.

John Mueller souligne que les données de laboratoire offertes par des outils tiers ne sont pas les mêmes que le champ de données, ce qui est ce que Google rapporte.

De toute évidence, un test de laboratoire n’est pas le même que le champ de données.

Il y a donc un peu de différence là-bas. Mais si vous voyez que les résultats des tests de laboratoire de données sont stables pendant un certain temps, et puis tout à coup ils vont vraiment être bizarre, alors c’est un indicateur fort que quelque chose s’est cassé dans votre mise en page ou dans vos pages quelque part.

John Mueller reconnaît que la façon dont Google collecte le cumulative layout shift (CLS) est particulièrement délicate.

Si les référenceurs SEO estiment que les calculs de Google ne font pas sens, John Mueller les encourage à communiquer directement avec l’équipe Chrome.

Cela rend les choses plus difficiles. Ce n’est pas que nous essayons de rendre les choses plus difficiles, c’est juste la façon dont ces données sont collectées dans Chrome. Il faut juste du temps pour être agrégé.

Le Cumulative Layout Shift est parfois, je pense, difficile à interpréter et à comprendre ce qui est exactement à l’origine des problèmes là-bas.

Je pense que pour les choses où vous sentez que les calculs sont faits d’une manière qui ne fait pas beaucoup sens, essayez d’entrer en contact avec l’équipe Chrome.

Je pense surtout qu’Annie Sullivan travaille à améliorer le Cumulative Layout Shift des choses. Et assurez-vous juste qu’elle voit ce genre d’exemples.

Et si vous rencontrez quelque chose où vous dites, « oh ça n’a aucun sens du tout », alors assurez-vous que l’équipe Chrome le sache. Ce n’est pas tant que du côté de , nous essayons de creuser et d’essayer de comprendre ce qui se passe exactement avec ce score, mais nous avons un peu besoin de compter sur le score du côté de Chrome.

Enfin, John Mueller rappelle aux SEOs que Google prévoit de mettre à jour le Core Web Vitals environ une fois par an.

Il va donc falloir avoir de bons scores Core Web Vitals dès le mois de Mai 2021 pour ne pas en souffrir pendant de longs mois. Ce qui fait penser aux débuts de Google Panda et aussi , quand les délais de recouvrement des classements antérieurs paraissaient si longs pour les sites pénalisés. CQFD.

Bien que le Cumulative Layout Shift soit un élément essentiel du Web cette année, par exemple, il se peut qu’il ne soit pas un changement l’an prochain si Google détermine qu’il n’est pas vital de fournir une bonne expérience utilisateur.

Et notre objectif avec les Core Web Vitals et Page Expérience en général est de les mettre à jour au fil du temps.

Je pense donc que nous avons annoncé que nous voulions les mettre à jour peut-être une fois par an et faire savoir aux gens à l’avance ce qui se passe.

Je m’attends donc à ce que cela s’améliore au fil du temps. Mais il est également important d’obtenir vos commentaires ou retours et de s’assurer qu’ils sont au courant de ces cas bizarres.

Source : Searchenginejournal

Google précise les pénalités pour spam sur Search et les questions de qualité

John Mueller de chez a publié l’une des réponses les plus détaillées sur le sujet du spam de la recherche globale, des , des algorithmes de qualité et plus encore.

Google précise les pénalités pour spam sur Search et les questions de qualité

Voici un résumé de ce que John a dit suivi de la réponse intégrale :

  1. Les sites Web ne sont pas définitivement supprimés de .
  2. Google n’a pas de liste de sites bloqués en permanence.
  3. Les suppressions complètes d’action manuelle sont pour le « spam pur avec rien d’utile sur ces pages. »
  4. Google préfère ignorer les mauvaises parties des sites plutôt que de les pénaliser.
  5. Il a expliqué comment fonctionnent les demandes de réexamen.
  6. Google a des algorithmes qui signalent les problèmes (algorithmes de capture de spam ?)
  7. Google a des algorithmes pour la pertinence aussi (comme les Core Updates ?)

Voici ce que John a écrit sur Reddit :

Les sites ne sont pas définitivement supprimés de Google – il y a toujours un moyen d’obtenir que le site soit indexé à nouveau. Parfois, il faut beaucoup de temps et beaucoup de travail, mais Google n’a pas une liste de sites bloqués en permanence.

Pour les actions manuelles (pénalités), généralement, les choses qui conduisent à la suppression complète sont assez graves, comme quand un site est juste du spam pur avec rien d’utile de lui-même.

Pour tout le reste, il y a une variété pour « ignorer les mauvaises parties pour se concentrer sur ce qui est bon », « sauter pour certaines fonctionnalités de recherche (par exemple, ce n’est pas dans les news) », et « large baisse dans le classement de recherche » (lorsque les mauvaises parties ne peuvent pas être séparées du contenu).

J’aime les cas où Google peut juste ignorer le mauvais et se concentrer sur le bon. Les gens font accidentellement du « black-hat » en suivant de mauvais conseils (comme « utiliser du blanc sur le texte blanc avec vos mots clés »), et si les systèmes de Google peuvent ignorer cela, mais toujours montrer le site pour ses parties utiles, alors les utilisateurs seront plus heureux, et je suis sûr, les propriétaires de site apprendront à un moment donné.

Cependant, cela peut conduire à des situations embarrassantes où un concurrent se classe au-dessus de vous, mais fait quelque chose « évidemment black hat », vous tentant de le faire aussi (ces sites ont tendance à se classer malgré les trucs black hat, pas à cause de cela).

Quand il s’agit d’actions manuelles / pénalités, vous pouvez demander un réexamen après avoir corrigé le problème. Dans la pratique, cela signifie que Google doit réexaminer le site, en fonction du type d’action manuelle qui peut se produire assez rapidement (par exemple, « le site n’est plus piraté ») ou prendre un peu de temps (« J’ai supprimé certains mauvais liens » peut parfois prendre des mois).

Si « les algorithmes » signalent les problèmes (essentiellement juste un logiciel qui fonctionne chez Google), ou tout simplement ne trouvent pas le site plus aussi pertinent dans la recherche (fondamentalement des changements dans la façon dont Google classe dans la recherche), alors il s’agit plus d’améliorer le site, généralement à un niveau plus large.

C’est comme quand une station de radio ne joue plus votre musique parce qu’elle n’est plus considérée comme grande : on ne change pas seulement les échantillons de batterie, il faut repenser ce que l’on crée dans l’ensemble.

Il peut également arriver que le temps d’un site ou son utilité vient de passer. Si vous avez un site web de jeux old-school-phone (pour ancien modèle de téléphone) et que plus personne n’exécute ces appareils, aucune quantité de texte modifié sur les pages ne corrigera cela. Repérer le changement de vent avant qu’il ne soit trop tard est un peu un art, comme c’est le cas d’une manière qui vous permet de réutiliser une partie de votre travail.

Source : Seroundtable

Google ajoute 12 pénalités manuelles à la Search Console

a ajouté tout un ensemble de nouvelles actions manuelles à la liste des actions manuelles. Les nouveaux sont pour le non-respect des règles Google Actualités et Google Discover.

Google ajoute les actions manuelles de Discover et Actualités à la Search Console

Pour rappel, Le rapport sur les actions manuelles répertorie les problèmes détectés manuellement sur une page ou sur un site.

En d’autres termes, une action manuelle Google, c’est quand un humain chez Google émet une sorte de pénalité contre un site quand un examinateur humain chez Google a déterminé que les pages sur le site ne sont pas conformes aux guidelines de qualité webmaster de Google.

Google a déclaré que la plupart des actions manuelles traitent des tentatives de manipuler l’index de recherche de Google. La plupart des problèmes signalés ici se traduira par des pages ou des sites étant classés inférieurs ou omis des résultats de recherche sans aucune indication visuelle à l’utilisateur.

Les actions manuelles de peuvent apparaître dans votre compte Console, à la section “Sécurité et actions manuelles” lorsque votre site viole une ou plusieurs politiques de contenu Google Actualités.

Découvrez les actions manuelles dans la Search Console

Lorsque votre site enfreint une ou plusieurs stratégies de contenu Discover, découvrez que des actions manuelles peuvent apparaître dans votre Search Console dans le cadre “Sécurité et actions manuelles”.

Google propose donc désormais une page d’aide concernant les actions manuelles spécifiques de Google Actualités et Discover et sur la façon de les corriger.

  1. Non-respect des règles Discover : contenu réservé aux adultes :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu réservé aux adultes, car il comporte des scènes de nudité, des actes sexuels ou du contenu à caractère sexuel suggestif ou explicite.

  2. Non-respect des règles Google Actualités et Discover : contenu dangereux :

    aussi bien pour des personnes que des animaux).

  3. Non-respect des règles Google Actualités et Discover : contenu relevant du harcèlement :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu, car il présente du contenu relevant du harcèlement, de l\’intimidation ou de la menace, y compris, mais sans s\’y limiter, du contenu qui pourrait cibler une personne en vue de l\’insulter ou de la menacer d\’atteintes graves, de transformer quelqu\’un en objet sexuel contre son gré, de divulguer des informations personnelles tierces susceptibles d\’être utilisées pour menacer un individu, de dénigrer ou rabaisser une victime de violence ou de tragédie, de nier un événement atroce ou de harceler quelqu\’un de quelque façon que ce soit.

  4. Non-respect des règles Google Actualités et Discover : contenu incitant à la haine :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu, car il présente du contenu incitant à la haine.

    Les contenus qui prônent ou cautionnent la violence, ou dont l\’objectif principal est d\’inciter à la haine envers une personne ou un groupe d\’individus, ne sont pas autorisés, y compris, mais sans s\’y limiter, en raison de l\’origine ethnique, de la religion, du handicap, de l\’âge, de la nationalité, du statut d\’ancien combattant, de l\’orientation sexuelle, du sexe, de l\’identité sexuelle ou de toute autre caractéristique faisant l\’objet de discriminations répandues ou de marginalisation.

  5. Non-respect des règles Google Actualités et Discover : contenu multimédia manipulé :

    Google a détecté sur votre site du contenu qui semble enfreindre ses règles concernant le contenu multimédia manipulé.

    Les images, ou les contenus audio ou vidéo qui ont été manipulés pour tromper, escroquer ou induire en erreur les utilisateurs en créant une représentation d\’actions ou d\’événements qui n\’ont objectivement pas eu lieu, et qui en donneraient une compréhension ou une impression fondamentalement différente à une personne raisonnable, de telle sorte que cela pourrait porter préjudice à des groupes ou des individus, ou compromettre de manière significative une participation ou une confiance dans les processus électoraux ou civiques, ne sont pas autorisés.

    Action recommandée :

    Examinez vos pages et mettez-les à jour afin qu\’elles respectent le règlement. Identifiez le contenu multimédia manipulé, divulguez toute intention satirique ou parodique, ou supprimez tout contenu trompeur susceptible de nuire considérablement à la participation à des processus civiques ou électoraux, ou à la confiance que leur portent les citoyens.

  6. Non-respect des règles Google Actualités et Discover : contenu médical :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu médical, car il présente du contenu dont l\’objectif principal est de fournir des conseils médicaux, des diagnostics ou des traitements à des fins commerciales.

    Google dit ne pas non plus autoriser les sites qui contredisent les consensus scientifiques ou médicaux et les bonnes pratiques de médecine factuelle.

  7. Non-respect des règles Discover : contenu trompeur :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu trompeur, car il trompe les utilisateurs en les incitant à effectuer une action en leur promettant un sujet ou un article qu\’ils ne retrouveront finalement pas sur le site.

  8. Non-respect des règles Google Actualités et Discover : contenu à caractère sexuel explicite :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu à caractère sexuel explicite, car il présente des images ou des vidéos à caractère sexuel explicite destinées principalement à susciter une excitation sexuelle.

  9. Non-respect des règles Google Actualités et Discover : contenu à caractère terroriste :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu à caractère terroriste, car il fait la promotion d\’actes terroristes ou extrémistes, y compris le recrutement, l\’incitation à la violence ou la célébration d\’attentats

  10. Non-respect des règles Google Actualités : transparence :

    Google a détecté du contenu sur votre site qui semble enfreindre ses règles liées à la transparence.

    Les internautes qui consultent votre site souhaitent savoir qui publie vos contenus et avoir des informations sur leurs auteurs.

    C\’est pourquoi les sources d\’actualités sur Google doivent comporter de façon claire une date, le nom de l\’auteur et des informations sur ce dernier, la publication, l\’éditeur, l\’entreprise ou le réseau à l\’origine de la source, et des coordonnées.

    Actions recommandées :

    Examinez et mettez à jour vos pages afin qu\’elles respectent les règles Google Actualités en fournissant des dates claires, des coordonnées précises, ainsi que des informations non génériques sur les auteurs, la publication, l\’éditeur, le comité de rédaction, l\’entreprise ou le réseau à l\’origine de la page.

  11. Non-respect des règles Google Actualités et Discover : contenu violent et choquant :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au contenu, car il présente du contenu incitant à la violence ou qui en fait l\’apologie. De même, les contenus particulièrement crus ou violents qui visent à provoquer le dégoût ne sont pas autorisés.

  12. Non-respect des règles Google Actualités et Discover : langage vulgaire et grossier :

    Google a détecté sur votre site du contenu qui semble enfreindre son règlement relatif au langage vulgaire et grossier, car il contient des obscénités ou grossièretés gratuites.

Actions recommandées pour corriger ces infractions

Dans l’ensemble des cas d’infractions mentionnés ci-dessus :

  1. Examinez vos pages et supprimez le contenu réservé aux adultes afin de respecter les règles Discover.
  2. Lorsque vous êtes sûr que votre site n\’enfreint plus nos consignes, sélectionnez “Demander un examen” dans le rapport sur les actions manuelles.

    Pensez à inclure une preuve de modification de vos pratiques éditoriales, telles que de nouvelles consignes de rédaction et des renseignements sur votre comité de rédaction contenant l\’historique des améliorations apportées.

  3. Une fois votre demande de réexamen envoyée, soyez patient et consultez les messages de votre compte Search Console.

    Google vous préviendra dès qu’il aura terminé l\’examen de votre site. S’il considère qu\’il n\’enfreint plus ses consignes, il révoquera l\’action manuelle.

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

L’outil Désavouer des liens arrive dans la nouvelle Search Console

Un an après avoir officiellement fermé l’ancienne version de Console, a annoncé qu’il a migré l’outil Disavow Links ou outil “Désavouer des liens” de l’ancienne Search Console vers la nouvelle Search Console

L’outil “Désavouer des liens” arrive dans la nouvelle Search Console

Google a donc annoncé que l’outil Disavow Links est enfin en migration vers la nouvelle interface de la Search Console, avec des améliorations. Google a également mis à jour sa page support avec de nouvelles orientations.

Aujourd’hui, nous terminons la migration de l’outil “Désavouer des liens” vers la nouvelle interface de la Search Console :

  • Interface améliorée
  • Télécharger un fichier de liens à désavouer sous forme de fichier texte
  • Les rapports d’erreur pour les fichiers téléchargés ne sont plus limités à 10 erreurs

), vous devez essayer de supprimer ces liens du site incriminé.

vous devez désavouer les URL des pages ou domaines douteux qui redirigent vers votre site Web.

L\’outil “Désavouer des liens”

L’outil de désaveu des liens est un moyen pour les éditeurs de signaler à Google que des liens spammy ne doivent pas être pris en compte.

L’outil \ »Désavouer des liens\ » était quelque chose que les éditeurs ont demandé dans le sillage de l’algorithme Penguin de Google. Google a d’abord résisté à fournir aux éditeurs la possibilité de désavouer les liens.

L’algorithme Google Penguin était un algorithme de liens qui pénalisait les sites qui recevaient des liens spammy ou en envoyaient d’ailleurs, comme les fermes de liens. Certains éditeurs ont perdu du trafic pendant des mois et plus longtemps en attendant que l’algorithme Penguin soit actualisé.

Les éditeurs ont été naturellement consternés par l’algorithme et par la tâche d’avoir à contacter chaque propriétaire de site à partir duquel ils peuvent avoir acheté un lien ou dont ils ne voulaient pas le lien.

Les sites qui avaient dans le passé acheté des liens et oublié à leur sujet se sont également retrouvés sous une pénalité liée à Penguin et ont également fait face à la tâche de contacter les sites pour avoir des liens supprimés, y compris les sites avec lesquels ils n’ont peut-être pas acheté des liens, mais avaient des liens qui semblaient suspects à leurs yeux.

C’est pourquoi la communauté a pratiquement supplié Google pour avoir un moyen de désavouer les liens. Finalement, Google a reconnu la valeur de l’outil et l’a publié.

L’outil Disavow links a toujours été pour désavouer en premier les liens spammy que les éditeurs ou leur prestataire ont eu le malheur de placer ici et là.

Utilisations alternatives de l’outil Disavow link

Ainsi, depuis son lancement, la communauté SEO a commencé à utiliser l’outil pour désavouer les liens de recherche spammy aléatoire qu’ils ont estimés étaient à l’origine de la chute de leurs sites dans les classements.

Ce genre d’utilisation n’est pas ce que Google avait à l’esprit quand il a publié l\’outil. Les instructions de Google indiquent clairement de l’utiliser pour les liens qui ont causé une action manuelle ou sont susceptibles de provoquer une action manuelle. Il n’y a rien dans les instructions sur l’utilisation pour aider à corriger les classements de mots clés qui sont en baisse.

Même que John Mueller a déjà déclaré que Google est bon pour ne pas compter les liens factices et de ne pas utiliser l\’outil Disavow links pour les liens factices.

La page support de l’outil “Désavouer des liens” recommande de l’utiliser uniquement dans le cas d’une action manuelle ou pour désavouer les liens susceptibles de provoquer une action manuelle.

La recommandation de Google contredit l’utilisation de l’outil par certains SEO et les éditeurs qui l’utilisent dans l’espoir d’améliorer les classements qui baissent.

Amélioration de l’outil “Désavouer des liens”

L’annonce de Google a vanté trois améliorations dans l’outil populaire :

  • Interface améliorée
  • Télécharger un fichier de liens à désavouer sous forme de fichier texte
  • Les rapports d’erreur pour les fichiers téléchargés ne sont plus limités à 10 erreurs

Alors, qu’y a-t-il de nouveau ?

Le grand changement est en fait le nouvel emplacement, mais Google a également mis à jour l’interface pour l’outil.

Vous pouvez désormais également télécharger un fichier de désaveu sous forme de fichier texte, et il existe un nouveau rapport d’erreur pour les fichiers téléchargés qui ne sont plus limités à 10 erreurs.

Où se trouve désormais l’outil Disavow link ?

Le nouvel emplacement pour l’outil “Désavouer des liens” est maintenant à cette adresse : https://search.google.com/search-console/disavow-links.

Auparavant, il était situé à l’adresse : https://www.google.com/webmasters/tools/disavow-links-main. Les deux URL semblent encore fonctionner, mais je pense que l’ancienne URL sera bientôt dépréciée.

Google avertit cependant :

Il s\’agit d\’une fonctionnalité avancée qui doit être utilisée avec prudence.

En cas d\’utilisation incorrecte, cette fonctionnalité peut nuire au classement de votre site dans les résultats de recherche Google.

Nous vous recommandons de ne désavouer les liens entrants que si vous pensez avoir un nombre considérable de liens artificiels, de mauvaise qualité ou associés à du spam pointant vers votre site et si vous êtes convaincus qu\’ils vous causent du tort.

De nombreux SEO et prestataires SEO utilisent l’outil \ »Désavouer des liens\ ». Il est également important de savoir que l’emplacement a changé et de comprendre les petites modifications apportées par Google à l’outil avec la migration.

Source : Searchenginejournal

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

Google: Des actions manuelles sont plutôt algorithmiques maintenant

John Mueller de chez a déclaré que beaucoup de ces actions manuelles ne sont probablement plus utilisées. Et ce parce que beaucoup peuvent avoir été automatisées et fait algorithmiquement.

Google: Les actions manuelles sont plutôt algorithmiques maintenant

En effet, d’après John Mueller, beaucoup de ces actions manuelles ont évolué au fil du temps. Google a donc commencé à infliger des pénalités manuellement, mais à un moment donné, il a trouvé comment le faire algorithmiquement.

Il a ajouté qu’il est logique de trouver des moyens de le faire algorithmiquement plutôt que simplement purement manuel.

Qu\’est-ce qu\’une action manuelle ?

Consignes aux webmasters relatives à la qualité, Google initie une action manuelle contre ce dernier.

Voici la transcription des propos de John Mueller via Seroundtable

Beaucoup de ces actions manuelles ont évolué au fil du temps. Là où nous dirions bien que nous devons le faire manuellement et à un moment donné nous trouvons comment le faire algorithmiquement.

Et ça a évolué dans cette direction. Mais je ne sais pas en particulier en ce qui concerne les pages satellite. C’est au moins quelque chose que je n’ai pas vu les gens en parler beaucoup récemment.

Et Barry Schwartz de poser la question suivante :

Pourrions-nous obtenir une liste des celles qui sont passés d’actions manuelles à actions algorithmiques ?

John Mueller:

Non. Mais c’est quelque chose où de notre point de vue il est logique de trouver des moyens de le faire algorithmiquement plutôt que de le faire simplement de façon manuelle.

Parce que le web est tout simplement gigantesque et nous ne pouvons pas examiner manuellement l’ensemble du web.

Nous devons trouver des moyens d’en faire autant que possible algorithmiquement. Et dans de nombreux cas, il y a encore des choses bizarres là-bas que nous n’attrapons pas algorithmiquement que peut-être nous devons prendre des mesures manuelles les concernant.

Voici les actions manuelles qui peuvent être appliquées par Google :

  • Hébergeur gratuit associé à du spam
  • Problème lié aux
  • Liens artificiels vers votre site
  • Liens artificiels sur votre site
  • Techniques de dissimulation (cloaking) ou redirections trompeuses
  • Spam agressif
  • Images dissimulées (cloaking)
  • Texte caché ou accumulation de mots clés
  • Non-correspondance du contenu
  • Redirections trompeuses sur mobile

Google : Les signalements de spam n’entraînent pas d’actions manuelles

Gary Illyes de chez a annoncé sur Google webmaster blog qu’il voulait clarifier que les rapports de spamet aussi de prévention) de spam de .

Google : Les rapports de spam n’entraînent pas d’actions manuelles

Rappelons que le mot \ »spam\ » chez Google fait référence à des pages qui essayent de tromper Google pour obtenir un meilleur classement.

Google vient de supprimer toute mention d’actions manuelles dans les Consignes au Webmaster de Google et il déclare que ces rapports de spam ne conduiront pas un employé de chez Google à examiner un site et à le pénaliser manuellement. 

  • Prévention automatisée du spam.
    • La différence est que lorsque vous soumettez un rapport de spam, ce rapport de spam ne sera utilisé par Google que pour comprendre comment améliorer ses algorithmes de recherche.

      Vous ne verrez pas un site que vous avez signalé tomber ou disparaître par lui-même dans les résultats de recherche Google directement en raison d’un rapport de spam. Google peut utiliser ces informations pour mettre à jour ses algorithmes, mais pas pénaliser manuellement un site spécifique.


  • Actions manuelles.
    • Les actions manuelles sont des que les employés de Google peuvent attribuer à des pages ou des sites individuels lorsque ces sites violent les Consignes au webmaster de Google.

      Lorsque vous recevez une action manuelle, cette action s’affiche dans .

      Encore une fois, les signalements de spam de Google ne mèneront pas à une action manuelle contre le site signalé.

Voici ce que les Consignes au webmaster disaient auparavant :

Si vous croyez qu’un autre site abuse des consignes relative à la qualité de Google, s’il vous plaît, faîtes-le nous savoir en déposant un rapport de spam

Google préfère développer des solutions évolutives et automatisées aux problèmes, nous essayons donc de minimiser les combats de spam individuellement.

Bien que nous ne puissions pas prendre des mesures manuelles en réponse à chaque rapport, les rapports de spam sont prioritaires en fonction de l’impact de l’utilisateur, et dans certains cas peuvent conduire à la suppression complète d’un site spammy des résultats de recherche de Google.

Toutefois, toutes les actions manuelles n’entraînent pas la suppression. Même dans les cas où nous prenons des mesures sur un site signalé, les effets de ces actions peuvent ne pas être évidents.

Mais ça, c’était avant.

Désormais, les consignes au webmaster de Google disent :

et utilise ce rapport pour optimiser ses systèmes de détection de spam.

Gary Illyes de chez Google a précisé dans son post

Les rapports de spam jouent un rôle important : ils nous aident à comprendre où nos systèmes automatisés de détection de spam peuvent manquer de couverture.

La plupart du temps, il est beaucoup plus percutant pour nous de résoudre un problème sous-jacent avec nos systèmes de détection automatisés que de prendre des mesures manuelles sur une seule URL ou un seul site.

En théorie, si nos systèmes automatisés étaient parfaits, nous attraperions tous les spams et nous n’aurions pas besoin de systèmes de signalement du tout.

La réalité est que même si nos systèmes de détection de spam fonctionnent bien, il y a toujours place à l’amélioration, et la déclaration de spam est une ressource cruciale pour nous aider à le faire. Les rapports de spam sous forme agrégée nous aident à analyser les tendances et les modèles de contenu spammy pour améliorer nos algorithmes.

Dans l’ensemble, l’une des meilleures approches pour exclure le spam hors de la recherche est de s’appuyer sur le contenu de haute qualité créé par la communauté web et notre capacité à le mettre en avant à travers le classement.

Il est clair que lorsque vous soumettez des rapports de spam, vous ne devriez pas vous attendre à une action immédiate ou une pénalité manuelle qui sera associée au site que vous signalez.

Il faudra du temps pour que Google améliore ses algorithmes et que ces algorithmes montrent un impact dans les résultats de recherche Google.

Source : Searchengineland 

Les nouveaux facteurs du référencement Bing

Dans une version mise à jour des Consignes au webmaster de Search, le moteur de recherche partage des détails sur la façon dont le contenu est classé.

Les facteurs du référencement Bing révélés par Bing Guidelines

 

Bing a publié une version mise à jour de ses guidelines au webmaster qui contient une toute nouvelle section sur la façon dont le référencement se fait sur Bing.

Ces lignes directrices sont donc destinées à vous aider à comprendre comment Bing trouve, indexe et classe les sites Web.

La suite de ces consignes au webmaster aidera votre site à être indexé par Bing et vous aidera à optimiser votre site afin d’augmenter sa possibilité de se classer pour les requêtes pertinentes dans les résultats de recherche de Bing.

Veuillez toutefois prêter une attention particulière aux conseils dans la section “Abus et exemples de choses à éviter” pour vous assurer que votre site joue selon les règles et ne sera pas trouvé comme un site de spam, ce qui pourrait conduire à la rétrogradation ou même la radiation de votre site Web à partir des résultats de recherche Bing.

 

Bing Webmaster Guidelines vient d’obtenir une mise à niveau. Découvrez comment @Bing découvre, analyse, indexe et classe le contenu et suivez nos meilleures pratiques et lignes directrices.

Voici une ventilation des modifications importantes apportées aux consignes au webmaster de Bing.

 

Comment Bing classe le contenu ?

Jusqu’à présent, les directives au webmaster de Bing ne contenaient aucune information sur la façon dont le contenu est classé, ce qui en fait une mise à jour assez importante.

Maintenant, il y a une section entière consacrée pour expliquer les différents facteurs de référencement Bing impliqués dans le classement du contenu dans Bing Search.

Bing préface cette section en notant qu’il ne donne pas la priorité aux produits et services Microsoft dans les résultats de recherche.

Un autre point est fait sur la façon dont les sites Web ne peuvent pas soudoyer leur progression vers le haut des résultats de recherche. Microsoft Advertising est disponible pour les entreprises qui veulent payer pour plus d’exposition.

Alors, voici un regard sur les différents facteurs qui influencent les résultats de recherche Bing. Voici les principaux facteurs que Bing examine lorsqu’il classe le contenu :

  • Pertinence : Dans quelle mesure le contenu de la page de destination correspond à l’intention derrière la requête de recherche.
  • Qualité et crédibilité : Bing évalue la page elle-même, la réputation de l’auteur ou du site, et le niveau du discours.
  • Engagement utilisateur : Pour déterminer l’engagement des utilisateurs, Bing considère:
    • Les utilisateurs ont-ils cliqué sur les résultats de recherche d’une requête donnée et, dans l’affirmative, quels résultats ?
    • Les utilisateurs ont-ils passé du temps sur ces résultats de recherche qu’ils ont cliqués pour visiter ou sont-ils rapidement retournés sur Bing ?
    • L’utilisateur a-t-il ajusté ou reformulé sa requête ?

     

  • Fraîcheur : Bing préfère généralement le contenu des sites qui fournissent constamment des informations à jour.
  • Emplacement : Bing examine l’endroit où se trouve l’utilisateur (pays et ville), où la page est hébergée, la langue utilisée et l’emplacement des visiteurs.
  • Temps de chargement de la page : Bing préfère des temps de chargement plus rapides, car les pages lentes offrent une mauvaise expérience utilisateur.

Facteurs de classement négatif

Quand il s’agit de classement sur Bing, les propriétaires de site doivent faire attention au type de langage qu’ils utilisent.

Le (Search Engine Optimization ou pour moteur de recherche) est une pratique légitime qui vise à améliorer les aspects techniques et de contenu d’un site Web, ce qui rend le contenu plus facile à trouver, pertinent et plus accessible aux crawlers des moteurs de recherche.

La majorité des pratiques du référencement rendent un site Web qui est plus attrayant pour Bing, cependant, l’exécution du travail liée au SEO ne garantit pas que les classements s’amélioreront ou les sites recevront une augmentation du trafic de Bing.

En outre, pris à l’extrême, certaines pratiques SEO peut-être abusées entraînent des sanctions par les moteurs de recherche.

Les sites qui se livrent à des abus tels que les pratiques décrites ci-dessous sont considérés comme de mauvaise qualité.

Par conséquent, ces sites peuvent subir des pénalités de ranking, avoir le balisage de site ignoré et ne peuvent pas être sélectionnés pour l’indexation.

Ces lignes directrices de Bing Webmaster ne décrivent que quelques-unes des formes les plus répandues de comportements inappropriés, manipulateurs ou trompeurs.

En outre, les utilisateurs peuvent signaler l’abus de l’une de ces pratiques en utilisant le lien de rétroaction dans le pied de bing.com après avoir effectué une recherche qui reproduit le problème.

  • Cloaking ou technique de dissimulation : C’est la pratique de montrer une version d’une page Web à un crawler de recherche comme Bingbot, et une autre version aux visiteurs réguliers.
  • Programmes de liens, Achat de liens, Spamming de lien : Bien que les schémas de liens puissent réussir à augmenter le nombre de liens pointant vers votre site Web, ils ne parviendront pas à apporter des liens de qualité vers votre site ni aucun gain positif.
  • Systèmes de médias sociaux : Les systèmes de médias sociaux sont semblables aux fermes de lien en ce qu’ils cherchent à exploiter artificiellement un effet de réseau pour abuser l’algorithme de Bing. La réalité est que les systèmes de médias sociaux sont faciles à voir dans l’action et la valeur de la valeur du site est dépréciée.

  • Contenu dupliqué : La duplication du contenu sur plusieurs URLs peut entraîner la perte de confiance de Bing dans certaines de ces URL au fil du temps. Ce problème doit être géré en corrigeant la cause profonde du problème. L’élément rel=canonique peut également être utilisé, mais doit être considéré comme une solution secondaire à celle de la résolution du problème de base.
  • Contenu scrapé : Scraper ou copier du contenu provenant d’autres sites Web plus réputés peut ne pas ajouter de valeur à vos utilisateurs et peut être considéré comme une violation du droit d’auteur. Au lieu de republier du contenu à partir d’autres sites sans ajouter de contenu ou de valeur original, vous devez créer votre propre contenu qui différencie votre propre site Web.
  • Bourrage de mots clés ou chargement des pages avec des mots clés non pertinents : Lors de la création de contenu, assurez-vous de créer votre contenu pour les utilisateurs réels et les lecteurs, de ne pas inciter les moteurs de recherche à mieux classer votre contenu. Le bourrage de mots clés de votre contenu avec des mots clés spécifiques dans le seul but de gonfler artificiellement la probabilité de vous classer pour des termes de recherche spécifiques est en violation des lignes directrices et peut conduire à la rétrogradation ou même la radiation de votre site Web à partir des résultats de recherche de Bing.
  • Contenu généré automatiquement : Le contenu généré par une machine est une information générée par un processus informatique automatisé, une application ou un autre mécanisme sans l’intervention active d’un humain.
  • Programmes d’affiliation sans ajouter une valeur suffisante : Les sites Web qui relient les produits d’autres sites Web (tels que , eBay, etc) mais prétendent qu’ils sont un détaillant officiel ou en affiliation avec ces sites sont appelés sites d’affiliation faibles, et ils ajoutent peu ou pas de valeur incrémentielle (comme les commentaires supplémentaires, fonctionnalité de recherche, Choix de l’éditeur, etc.) et ne sont destinés qu’à prendre le crédit pour d’autres contenus
  • Comportement malveillant : Lors de la création de contenu et de la gestion de votre site, assurez-vous de ne pas participer à l’hameçonnage ou à l’installation de virus, de chevaux de Troie ou d’autres logiciels malveillants en vérifiant votre contenu, en maintenant votre système de gestion de contenu, en gardant votre système d’exploitation à jour et en limitant l’accès à qui peut publier sur votre site.
  • Balisage de trompeuses : Le site avec des balisages doit être précis et représentatif de la page sur laquelle se trouvent les balises. En particulier, les sites ne doivent pas avoir de balisage qui n’est pas pertinent pour la page sur laquelle il est ou est inexact ou trompeur.

Autres infos supplémentaires sur le référencement Bing

Maintenant que vous êtes au courant des principales mises à jour, voici quelques changements supplémentaires trouvés dispersés dans les consignes.

  • Limiter les choses : Tout au long des lignes directrices mises à jour, il y a diverses mentions pour garder les choses à une certaine limite.Au total, il y a 8 utilisations du mot « limitez » dans les nouvelles lignes directrices par rapport à zéro utilisation dans l’ancien document.

    Voici quelques-uns des nouveaux points ajoutés :

    • Limitez le nombre de liens sur une page à quelques milliers de plus.
    • Limitez l’utilisation du chargement dynamique des ressources – c’est-à-dire AJAX – pour limiter le nombre de demandes http et limiter l’utilisation de JavaScript sur les grands sites Web.
    • Limitez le nombre de pages sur votre site Web à un nombre raisonnable (aucune limite définie).

     

  • Utilisation d’images : Il y a un certain nombre de nouveaux points annoncés sur la façon dont les webmasters peuvent utiliser les images d’une manière qui aide Bing à mieux comprendre le contenu.Au total, il y a 22 utilisations du mot « images » dans les nouvelles lignes directrices comparativement à 6 utilisations dans l’ancien document.

    Voici quelques-uns des nouveaux points ajoutés :

    • Utilisez des images et des vidéos uniques et originales qui sont pertinentes pour le sujet de la page.
    • Bing peut extraire des informations à partir d’images, de légendes, de données structurées, de titres et de textes connexes tels que des transcriptions.
    • N’intégrez pas de texte ou d’informations importantes dans des images ou des vidéos.
    • Incluez des titres descriptifs, des noms de fichiers et du texte pour les images et la vidéo.
    • Choisissez des photos et des vidéos de haute qualité.
    • Optimisez les images et les vidéos pour améliorer les temps de chargement des pages.

     

  • Nouveaux attributs ALT : Bing prend désormais en charge les nouveaux attributs ALT, tels que rel=\ »sponsored” et rel=\ »ugc”.Voici ce que disent les nouvelles guidelines de Bing :

    Faites un effort raisonnable pour vous assurer que les liens payants ou publicitaires de votre site utilisent l’attribut rel=\ »nofollow” ou rel=\ »sponsored” ou rel=\ »ugc” pour empêcher que les liens ne soient suivis par un crawler et qu’ils n’aient potentiellement un impact sur les classements de recherche.

Ce sont les mises à jour majeures que vous pouvez découvrir dans les nouvelles Consignes au webmaster de Bing.

Source : Searchenginejournal

La fonction Clics confirmés des AdSense fait chuter le revenu des éditeurs

Les éditeurs de sites affiliés à Google AdSense sont une fois de plus pris dans le collimateur de la quête de de nettoyer le Web ouvert.

La fonction “Clics confirmés” de Google fait chuter le revenu des éditeurs

Au cours des 6 derniers mois, de plus en plus d’éditeurs utilisant et Ad Exchange se sont plaints d’être pénalisés par l’initiative “Confirmed Clicks” ou “Clics Confirmés” de Google, qui vise à améliorer l’expérience des utilisateurs du Web et à limiter les éditeurs profitant de personnes qui cliquent accidentellement sur les annonces.

Comme beaucoup d’améliorations de la plate-forme Google, les sources se plaignent que cela manque de nuance, pour ne pas dire de clarté.

C’est quoi la fonctionnalité “Clics Confirmés” ?

Google a introduit les clics confirmés comme une implémentation automatisée qui se produit sur des unités d’annonces spécifiques qui sont soumises à des clics invalides supérieurs à la moyenne.

Selon Google, les clics invalides sont des clics qui sont involontaires ou frauduleux.

La fonctionnalité “Confirmed Click” de Google est destinée à s’assurer que les utilisateurs qui cliquent sur les annonces ont l’intention de cliquer sur ces annonces.

Lorsqu’un utilisateur clique sur une annonce, il est invité à cliquer sur un bouton « Visiter le Site » pour continuer à se rendre sur le site de l’annonceur si la fonctionnalité de “Clic confirmé” est en place.

Lorsqu’un utilisateur clique sur une annonce, il est invité à cliquer sur un bouton « Visiter le Site » pour continuer à se rendre sur le site de l’annonceur si la fonctionnalité de “Clic confirmé” est en place.

Ce bouton “Visiter le Site” est en surimpression sur l’annonce de Google. La fonctionnalité a un impact sur des unités d’annonces spécifiques, éventuellement sur des appareils spécifiques, pour les éditeurs AdSense et Ad Exchange.

Le clic confirmé ne peut être appliqué qu’aux impressions servies par AdX ou AdSense.

Si Google a déterminé qu’une unité d’annonces a des clics invalides supérieurs à la moyenne, l’impression servie dans cette unité d’annonce par AdX ou AdSense contiendra la superposition «Visiter le Site».

D’autres sources de demande ne mettent pas en œuvre cette superposition.

Certains éditeurs ont vu une baisse significative de leur Click Through Rate (CTR pour Taux de clics) pour une unité d’annonces spécifique, mais pas de baisse des impressions pour cette même unité d\’annonce.

Lors de l’enquête, ils ont vu la fonctionnalité “Confirmed Clicks” sur l’unité d’annonce.

Cliquer sur vos propres annonces est considéré comme invalide, donc cliquer sur les annonces pour déterminer si la fonctionnalité affecte vos unités publicitaires n’est pas une bonne stratégie

Quelles sont les causes de la fonctionnalité “Clic Confirmé” ?

Les politiques de placement d’annonces Google.

Pour maintenir une expérience utilisateur de haute qualité sur votre site, Google vous recommande de vous assurer que les éléments de navigation ne se superposent pas sur vos annonces et que les annonces ne se transforment pas en zones de votre site où les utilisateurs sont susceptibles d’engager avec votre contenu.

Bref, cette initiative – qui existe depuis au moins 2012 – signifie que si Google détecte beaucoup de clics accidentels sur l’unité d’annonces d’un éditeur, alors elle s\’affichera sous sur un message « Visiter le Site » afin que les utilisateurs cliquent 2 fois pour se rendre sur la page Web redirigée.

La barrière supplémentaire peut dissuader les gens, conduisant à une baisse des taux de clics et des taux d’annonce des éditeurs.

Le résultat, selon les sources de cette histoire, est une baisse des recettes publicitaires programmatiques de 40% à 60%.

Mat Bennet, Directeur Général d’OKO, qui aide les éditeurs à monétiser les annonces a déclaré :

Les gens ne veulent pas en parler parce qu’ils ont l’impression d’être dans la maison des chiens.

Mat Bennet dit en avoir discuté avec environ 25 éditeurs depuis l’année dernière qui ont rencontré des problèmes avec l’initiative “Confirmed Clicks”, y compris des éditeurs Premium mondiaux de News. Il a vu un pic de l’activité “Confirmed Clicks” en Mars 2020 avant que l’Europe et les États-Unis soient entrés en confinement.

D’après Digiday,  un porte-parole de Google a déclaré en réponse :

Les clics confirmés sont implémentés pour maintenir une expérience utilisateur positive lorsque nous voyons un nombre élevé de clics accidentels d’annonces et des engagements inauthentiques.

Cela profite également à l’éditeur qui pourrait autrement voir une baisse de la valeur de ses unités d’annonces ou des enchérisseurs, même potentiellement exclure leurs sites.

Lorsque nous constatons une amélioration de la qualité des clics, la fonctionnalité est automatiquement supprimée.

Le responsable de la croissance chez Yieldbird, Szymon Pruszynski, qui travaille avec 300 éditeurs déclare de son côté :

Cela empire, mais je ne vois pas un fléau de l’activité. Cela est lié aux énormes pics de trafic lors de l’arrêt et du confinement de Covid-19.

Pruszynski dit s’être entretenu avec 4 éditeurs au cours des deux derniers mois qui ont été pénalisés.

Un éditeur travaillant avec Pruszynski gagnait 10 000 $ par jour grâce à des revenus de programmatiques d’échange ouverts qui ont chuté jusqu’à 3 000 $ par jour une fois que l’éditeur a été pénalisé pour des clics accidentels.

Les restrictions n’ont pas été levées pendant 3 semaines, ce qui rend la perte de revenu plus difficiles à avaler. Et cela est encore exacerbé par la réduction des coûts par clic et la réduction des dépenses publicitaires pour un ralentissement économique.

Mat Bennet a précisé ce qui suit :

Les éditeurs pourraient également tomber en faute par de simples problèmes de cartographie (mapping) de site, comme le changement de contenu pendant le chargement, pas assez d’espace autour des annonces ou de la navigation qui se chevauchent sur des appareils spécifiques

Bien sûr, certains des clics accidentels pourraient être frauduleux et les éditeurs peuvent voir s’ils sont pénalisés avec la confirmation du clic en vérifiant le code source.

Mais il peut être difficile à repérer. La plupart du temps, il est remarqué par la chute des revenus en dépit du maintien des impressions.

Qu’est-ce que la pénalité à 2 clics / double-clic de Google ?

Comme dit plus haut, dans certaines circonstances, Google exigera qu’un utilisateur confirme qu’il a intentionnellement cliqué sur une annonce avant de s’inscrire et d’honorer ce clic.

Google vérifie qu’un utilisateur avait l’intention de cliquer sur une annonce en plaçant un message et un bouton interstitiel « Visiter le Site » qui apparaît sur l’annonce après le premier clic effectué par le visiteur.

L’utilisateur n’est redirigé vers l’URL cible que lorsqu’il clique à nouveau sur le bouton “Visiter le Site”, d’où le nom de la pénalité « Deux clics ». Si l’utilisateur clique sur l’annonce et le bouton de vérification, le clic sera enregistré. Dans le cas contraire, l’éditeur ne tirera pas de revenus non vérifiés sur les unités publicitaires touchées.

La pénalité “Deux clics” peut avoir un impact significatif sur les revenus de l’éditeur.

L’obligation de cliquer deux fois afin de vérifier déclenche une baisse du taux de clics (CTR) d’une annonce qui fait chuter les CPM efficaces, ce qui entraîne une chute totale des revenus avec eux.

Malgré cela, Oko Ad Management dit ne pas voir cette question comme une sanction délibérée par Google pour punir les éditeurs.

Au lieu de cela, il voit la pénalité des deux clics comme un test ou pour vérifier les clics accidentels qui se trouvent avoir un grand impact sur les revenus. À ce titre, il se réfère en interne à cela comme le «comportement du Visiter le Site» plutôt que comme une pénalité.

Lorsque Google émet des aux éditeurs, celles-ci sont notifiées par e-mail. Pour les éditeurs d’AdSense, de telles actions apparaîtront également dans le “Policy Center” de leur compte.

Le comportement sur le “Visiter le Site” ne déclenche aucun de ces facteurs. En tant que tel, Oko ne croit pas que Google voit cela comme une pénalité. La priorité absolue de Google, ce sont les utilisateurs et l’expérience utilisateur.

Par conséquent, ils ne veulent pas que l’expérience utilisateur soit ternie par des clics accidentels. La confirmation de clic est là pour améliorer l’expérience utilisateur globale du site et empêcher l’annonceur de payer pour des clics accidentels. Cela peut sembler académique pour les éditeurs touchés par la question, mais il peut être utile de comprendre et de résoudre le problème.

Le fait d’être invité à vérifier d’entrer sur un site peut effrayer certains utilisateurs, a déclaré Pruszynski.

Méfiant par rapport au malvertising ou d’être escroqué, les gens préfèrent laisser tomber entièrement et les taux de clics baissent entre 0,8% à 1% à 0,1% de CTR, en prenant une partie des revenus.

Yieldbird voit également une baisse du nombre de pages vues lorsque les sites ont été touchés par l’initiative de Google.

Et si Google perçoit un problème avec une unité d’annonces sur ordinateur, la plate-forme de Google côté demande (demand-side) cesse d’enchérir et d’acheter sur toutes les unités d’annonces. Typiquement, si un éditeur a jusqu’à 15 unités d’annonce via le bureau et mobile, cela peut se transformer en un problème très réel.

Comment puis-je savoir si le comportement du Visiter le Site m’affecte ?

Il est important de noter que cette invite n’aura d’impact que sur les éditeurs qui ont des problèmes existants avec des clics invalides ou s’il y a un risque élevé de clics accidentels.

Le premier signe notable qu’un site a été affecté par le comportement sur le bouton “Visiter le Site” est généralement la baisse soudaine des revenus des annonces sans qu’il y ait forcément une baisse correspondante du trafic vers le site.

Il y a certaines choses qui peuvent causer ce modèle, mais le comportement du “Visiter le Site” a une empreinte particulière à surveiller : les impressions seront à des niveaux normaux, mais le taux de CTR aura considérablement baissé.

Bien que tout le monde soit d’accord avec l’esprit de l’initiative — les clics accidentels ne profitent pas aux utilisateurs ni aux annonceurs — comme beaucoup d’améliorations de la plate-forme, le problème concerne la communication et la notification.

Les approches générales visant à couper des sources de revenus entières semblent arbitraires et punitives, selon des sources, dont Mat Bennet qui travaille sur la base de Google qui utilise une moyenne mobile de 30 jours pour vérifier les clics accidentels. Et il ajoute :

Certains éditeurs ont un problème pendant 8 ou 10 semaines. On ne sait jamais vraiment si on répare tout.

Ce que nous conseillons, c’est d’aller dans le dur (code source de la charte graphique du site) et d’apporter des changements drastiques. Lorsque le problème est supprimé, vous pouvez revenir dans les unités pour récupérer lentement les revenus.