Google Search desktop ajoute les favicons et le label Annonce noir

un favicon du site et le .

Avec un important label “Annonce”, ces modifications sont maintenant à venir sur sur ordinateur cette semaine.

dispose d\’un favicon du site et du nom de domaine.

espère mettre l\’image de la marque d\’un site Web « à l\’avant-plan » et « [vous aider] à mieux comprendre d\’où vient l\’information et quelles pages ont ce que vous recherchez.»

Une autre mise à jour change le label vert “Annonce” pour désigner les en noir, pour épouser la couleur du nom de domaine affiché en premier sur chaque résultat organique.

Le format met la marque d\’un site en avant et au cente, aidant les chercheurs à mieux comprendre d\’où vient l\’information, scanner plus facilement les résultats et décider quoi explorer.

Les propriétaires de sites peuvent indiquer une icône (favicon, NDLR) préférée qu\’ils souhaitent voir apparaître à côté des résultats de recherche (organiques, NDLR) Google comme expliqué ici

Le nom du site Web et son icône apparaissent en haut de la carte de résultats pour aider à ancrer chaque résultat, de sorte que vous pouvez plus facilement scanner la page des résultats et décider quoi explorer ensuite.

En ce qui concerne les utilisateurs

Lorsque vous recherchez un produit ou un service et que Google a une information utile à afficher, vous verrez un label noir d\’annonce en gras en haut de la carte à côté de l\’adresse Web afin que vous puissiez identifier rapidement d\’où proviennent les informations.

Sauf que la confusion entre les annonces Google Ads et les résultats organiques atteint son paroxysme.

Comme Google continue à faire de nouveaux formats de contenu et des actions utiles disponibles- de l\’achat de billets de cinéma à la lecture de podcasts, ce nouveau design lui permet d\’ajouter plus de boutons d\’action et des aperçus utiles pour rechercher des cartes de résultats, tout en vous donnant une meilleure idée du web contenu de la page avec attribution claire de retour à la source.

Sur mobile, cette conception prend en charge de nouveaux formats de contenu, comme les AMP Stories. Google pourrait ajouter plus de boutons d\’action et des aperçus utiles aux cartes de résultats de recherche.

Après le déploiement sur le site mobile de recherche et les applications, les favicons de Google Search desktop et les autres changements sont en cours de déploiement cette semaine.

5 raisons pour lesquelles vos pages indexées par Google sont en baisse

Il est essentiel de faire indexer vos pages Web par (). Les pages qui ne sont pas indexées ne peuvent pas être classées dans les résultats de recherche. Ce qui en

5 raisons pour lesquelles vos pages indexées par Google sont en baisse

Mais, il arrive que votre nombre de pages précédemment indexées soient tout d’un coup en baisse. Ce qui entraîne inéluctablement une chute brutale du trafic organique.

Alors, comment voir que le nombre de pages que vous avez indexées ? Vous pouvez :

  1. Utiliser l’opérateur “site:”
  2. soumissions de votre fichier Sitemap XML dans la section “Sitemaps” de .
    • Vous y découvrirez le nombre total de pages connues de Google, ainsi que les pages envoyées par vous. Les pages bloquées par des robots ou supprimées ne sont en principe pas affichées dans la valeur totale indexée.

Chacun des éléments ci-dessus donnera des différents, mais pourquoi ils sont différents est une autre histoire.

Pour l\’instant, nous allons juste parler d\’analyser une diminution du nombre de pages indexées signalées par Google.

Si vos pages ne sont pas indexées, cela pourrait être un signe que Google peut ne pas aimer votre page ou ne pas être en mesure de l\’explorer facilement. Par conséquent, si votre nombre de pages indexées commence à diminuer, cela pourrait être dû à l\’un ou l\’autre de ces cas :

  • Vous avez été impacté par une pénalité Google.
  • Google pense que vos pages ne sont pas pertinentes.
  • Google ne peut pas explorer vos pages.

Voici quelques conseils sur la façon de diagnostiquer et de résoudre le problème de la diminution du nombre de pages indexées.

1. Les Pages se chargent-elles correctement ?

Assurez-vous qu\’elles ont le bon code d\’état d\’en-tête HTTP 200.

Le serveur a-t-il connu des temps d\’arrêt fréquents ou longs ? Le nom de domaine a-t-il récemment expiré et a-t-il été renouvelé tardivement ?

Élément d\’action

Vous pouvez utiliser un outil de vérification gratuit de l\’état d\’en-tête HTTP pour déterminer si l\’état approprié est là.

Pour les gros sites, les outils d\’exploration typiques tels que Xenu, DeepCrawl, Screaming Frog ou Botify peuvent les tester.

Le code d\’état HTTP d\’en-tête correct est 200. Parfois, certaines erreurs 3xx (sauf le 301), 4xx, ou 5xx peuvent apparaître. Aucune de ces nouvelles ne sont de bonnes nouvelles pour les URL que vous voulez indexer.

2. Vos URL ont-elles changées récemment ?

Parfois, un changement dans le CMS, la programmation backend, ou le paramètre de serveur qui entraîne un changement dans le domaine, sous-domaine, ou dossier peut par conséquent modifier les URL d\’un site.

Les moteurs de recherche peuvent se souvenir des anciennes URL, mais, si elles ne sont pas redirigées correctement, beaucoup de pages peuvent être désindexées.

Élément d\’action

Espérons qu\’une copie de l\’ancien site peut encore être visité d\’une manière ou d\’une autre pour prendre note de toutes les anciennes URL afin que vous puissiez cartographier les redirections 301 vers les nouvelles URL correspondantes.

3. Avez-vous résolu des problèmes de contenu dupliqué ?

La correction du contenu en double implique souvent la mise en œuvre de balises canoniques, de redirections 301, de balises meta noindex ou disallow dans le fichier robots.txt.

Tout cela peut entraîner une diminution des URL indexées. Il s\’agit d\’un exemple où la diminution des pages indexées peut être une bonne chose.

Élément d\’action

Puisque c\’est bon pour votre site, la seule chose que vous devez faire est de vérifier que c\’est certainement la cause de la diminution des pages indexées et pas autre chose.

4. Est-ce que les délais de chargement de vos pages sont longs ?

Certains serveurs ont des restrictions de bande passante en raison du coût associé qui vient avec. Notamment sur les serveurs mutualisés. Ces serveurs peuvent avoir besoin d\’être mis à niveau.

Parfois, le problème est lié au matériel et peut être résolu en améliorant votre traitement matériel ou limitation de mémoire.

Certains sites bloquent les adresses IP lorsque les visiteurs accèdent à trop de pages à un certain rythme. Ce paramètre est un moyen strict d\’éviter toute tentative de piratage DDOS, mais cela peut également avoir un impact négatif sur votre site.

Typiquement, cela est surveillé au deuxième réglage d\’une page et si le seuil est trop bas, les robots du moteur de recherche normal explorant votre site peuvent atteindre le seuil et ne peuvent alors pas explorer le site correctement.

Élément d\’action

S\’il s\’agit d\’une limitation de la bande passante du serveur, alors il pourrait être un moment approprié pour mettre à niveau (upgrader) les services.

S\’il s\’agit d\’un problème de traitement de serveur ou mémoire, en dehors de la mise à niveau du matériel, vérifiez si vous avez tout type de technologie de mise en cache serveur en place, cela donnera moins de pression sur le serveur.

Si un logiciel anti-DDOS est en place, essayez soit d\’assouplir les paramètres de blocage ou ajoutez Googlebot à la liste blanche pour qu\’il ne soit pas bloqué à tout moment. Méfiez-vous cependant, il y a quelques faux googlebots qui existent aussi.

Assurez-vous de détecter Googlebot correctement.

Détecter Bingbot a une procédure similaire.

5. Les robots des moteurs de recherche voient-ils votre site différemment ?

Parfois, ce que les robots des moteurs de recherche voient est différent de ce que nous voyons. Certains développeurs construisent des sites d\’une manière préférée sans connaître les implications .

De temps en temps, un CMS préféré sera utilisé sans vérifier s\’il est optimisé pour les moteurs de recherche. Parfois, il pourrait avoir été fait exprès par un SEO qui tente de dissimuler du contenu (cloaking), pour essayer de duper les moteurs de recherche.

Parfois, le site a été compromis par les pirates, qui provoquent une page différente d\’être montrée à Google pour promouvoir leurs liens cachés ou masquer les redirections 301 vers leur propre site.

La pire situation serait les pages qui sont infectées par un certain type de malware au point que Google désindexe automatiquement les pages immédiatement une fois détectées.

Élément d\’action

L\’utilisation de la fonction “Explorer comme Google”  est la meilleure façon de voir si Googlebot voit le même contenu que vous.

Vous pouvez également essayer de traduire la page dans Google Translate même si vous n\’avez pas l\’intention de traduire dans la langue ou vérifier la page \ »Cache de Google\ », mais il y a aussi des moyens autour de ceux-ci pour toujours masquer le contenu derrière eux.

Une diminution des pages indexées n\’est pas toujours mauvaise

La plupart du temps, une diminution des pages indexées peut signifier une mauvaise chose, mais un correctif pour contenu dupliqué, contenu non-pertinent, ou contenu de mauvaise qualité pourrait également entraîner une diminution du nombre de pages indexées, ce qui est une bonne chose.

Essayez d\’évaluer votre site en examinant les 5 raisons possibles pour lesquelles le nombre de vos pages indexées est en diminution.

Source

Google Search Console ajoute une fonctionnalité Messages

Google Search Console

Google Search Console ajoute une fonctionnalité “Messages”

Les messages sont accessibles par l\'icône des notifications en forme de cloche située dans le coin supérieur droit.

Dans son post d’annonce, Google déclare :

Pour rendre le travail avec les messages plus efficace dans la Search Console, nous avons travaillé pour faire des messages une partie intégrante du produit.

Les messages peuvent être consultés sans perturber votre flux de travail. Ils seront également classés.

Les types de catégories sont :

  • Ergonomie mobile
  • Performance
  • Les types d’amélioration
  • Couverture
  • Fil d’ariane
  • impossibles à analyser
  • Champs de données associées aux liens sitelink
  • Produits
  • Et bien d’autres…

Source : Google.com

Accéder à des messages plus anciens

Selon Google, cela permettra aux nouveaux utilisateurs ayant accès à la propriété de la Search Console d\’obtenir une meilleure idée de l\’historique du site en étant en mesure de parcourir les messages précédents.

Nous introduisons également la possibilité pour les propriétaires de sites d\’accéder à tous les messages envoyés sur le site, même ceux qui ont été envoyés précédemment, peu importe quand ils ont été vérifiés et quand les messages ont été envoyés.

Maintenant, lorsque les utilisateurs accèdent à un nouveau site, ils peuvent voir les messages que le site a reçus dans le passé, ce qui devrait aider les nouveaux propriétaires à comprendre le contexte de cette propriété (surtout quand un à été acheté par un nouveau propriétaire pour son propre site, NDLR).

Le panneau de messages affiche les messages uniquement à partir du 23 mai 2019.

Les messages envoyés avant cette date ne peuvent être consultés que dans votre e-mail personnel ou dans la liste de messages héritée.

Vos anciens messages seront disponibles dans l\’ancienne interface pour le moment, vous pouvez les trouver sous la section \ »Outils d\’héritage et rapports\ » dans la barre latérale.

Shopify introduit Shopify Email pour le e-commerce

Shopify introduit Shopify Email pour le e-commerce

La plateforme canadienne d’e-commerce, Shopify

emailing) au sein de la plate-forme. Les nouvelles capacités devraient globalement être disponibles pour les marchands Shopify à partir du début de 2020.

Il offre des modèles de messagerie personnalisables qui peuvent importer les actifs de marque existants et le contenu du produit dans les magasins des marchands, et les e-mails sont envoyés en utilisant le du commerçant.

Vous avez du courrier. Créez, exécutez et suivez des campagnes de marketing par e-mail sans jamais avoir besoin de quitter Shopify, maintenant avec Shopify Email.

Comment créer une campagne d’emailing avec Shopify Email ?

  1. Commencez par votre marque : Votre logo, vos produits et vos couleurs de magasin sont automatiquement ajoutés dans des modèles de messagerie pour vous faire gagner du temps.
  2. Choisissez un modèle :newsletter), et plus encore.
  3. Modifiez et vérifiez : Une fois que vous avez sélectionné un modèle, modifiez le texte, les boutons, les images, et plus encore pour en faire votre propre.

    De plus, votre e-mail s’enregistre automatiquement afin que vous puissiez y revenir à tout moment.

Comment créer une campagne d’emailing avec Shopify Email ?

Comment envoyer votre email marketing en toute confiance ?

  1. Utilisez votre nom de domaine :
  2. Choisissez vos destinataires : Importez votre liste de clients à Shopify puis segmentez les emails pour vous assurer que le bon message arrive à la bonne personne.
  3. Aperçu et planification de votre travail :

    Vous pour mettre votre marketing par e-mail sur le pilote automatique.

Comment envoyer votre email marketing avec Shopify Email en toute confiance ?

Comment analyser et faire évoluer vos campagnes ?

  1. Comprendre les performances de votre campagne : Possédez vos propres données et obtenez des rapports exploitables à partir de votre tableau de bord pour afficher les tarifs ouverts, les ventes, et plus encore.
    Comment analyser et faire évoluer vos campagnes Shopify Email ?
  2. Améliorez vos efforts : À chaque campagne de courriel, essayez de nouvelles choses pour affiner votre approche au fil du temps.

Bing annonce la pénalité pour Structure inorganique du site

Bing Search a annonce de nouvelle de lien. Ces pénalités de lien sont axées sur la prise en charge des réseaux de blogs privés (PBN pour Private Blog Networks), la location de sous-domaines et la manipulation des liens inter-sites.

Bing annonce la pénalité pour “Structure inorganique du site”

annonce dans son post :

Au cours des prochaines semaines, nous mettrons à jour les lignes directrices de Bing Webmaster afin de les rendre plus claires et plus transparentes pour la communauté SEO.
Cette mise à jour majeure sera accompagnée d’articles de blog qui partagent plus de détails et de contexte autour de certaines violations spécifiques.

Dans le premier article de cette série, nous introduisons une nouvelle sanction pour traiter des violations de la \ »Structure inorganique du site\ ».

comme les pages satellite) et d’autres nouveaux (tels que la location de sous-domaines).”

C\’est quoi la Structure inorganique du site ?

Une structure inorganique du site est un modèle de liaison qui utilise des signaux de liaison internes au niveau du site (avec des sous-domaines) ou des modèles de liaison intersites (avec des noms de domaines externe) afin de manipuler les classements des moteurs de recherche.

Bien que ces techniques de spam existaient déjà, Bing a introduit le concept de les appeler “Structure inorganique du site” afin de les décrire.

Bing a noté que les sites créent légitimement des sous-domaines pour séparer différentes parties du site, telles que support.example.com. Ceux-ci sont traités comme appartenant au domaine principal, en passant des signaux au niveau du site aux sous-domaines.

Bing a également déclaré que des sites comme WordPress créent des sites autonomes en sous-domaines, auquel cas

Et Bing de prévenir :

Afin de maintenir la qualité de nos résultats de recherche tout en étant transparents pour la communauté SEO, nous introduisons de nouvelles sanctions pour répondre à la «structure inorganique du site».

Les réseaux de blogs privés (PBN) et autres réseaux de liaison

réseaux de blogs privés).

Dans l’image ci-dessus, tous ces domaines sont effectivement le même site Web.
Source : Bing.com

Dans l’image ci-dessus, tous ces domaines sont effectivement le même site Web.

Ce type de comportement est déjà en violation de la politique de lien de Bing Search

Les pages satellite et le contenu dupliqué

Les pages satellite sont des pages qui sont trop optimisées pour des requêtes de recherche spécifiques, mais qui ne redirigent ou pointent les utilisateurs que vers une destination différente.

Comme le déclare ,

) de nombreux sites différents hébergés sous différents noms de domaine, chacun ciblant son propre ensemble de requêtes de recherche, mais tous redirigent vers la même destination ou héberge le même contenu.

Une fois de plus, tous ces domaines sont effectivement le même site Web.

Une fois de plus, tous ces domaines sont effectivement le même site Web.

Ce genre de comportement est déjà en violation des lignes directrices de Bing Webmaster.

Cependant, Bing reconnaît que le contenu en double est inévitable (par exemple HTTP vs

D\’autre part, les contrevenants implémenteront généralement aucun de ces derniers, ou utiliseront plutôt des redirections sournoises.

Location de sous-domaines ou de sous-dossiers

Au cours des derniers mois, Bing dit avoir entendu des préoccupations de la communauté SEO au sujet de la pratique croissante d\’héberger du contenu tiers ou de laisser un tiers exploiter un sous-domaine ou un sous-répertoire désigné, généralement en échange d\’une compensation.

Cette pratique, que certains appellent « Location de sous-domaine (ou sous-répertoire) » (que Google a récemment commencé à pénaliser), tend à brouiller les limites des sites Web.

La plupart du est un site Web unique, à l\’exception d\’un seul sous-domaine ou sous-dossier, qui est un site Web distinct exploité par un tiers.

Dans la plupart des cas que Bing dit avoir examiné, le sous-domaine avait très peu de visibilité pour la navigation directe à partir du site Web principal.

Concrètement, il y avait très peu de liens du nom de domaine principal vers le sous-domaine et ces liens étaient généralement placés au bas des pages du nom de domaine principal ou dans d\’autres endroits “obscurs” (pages satellite ou doorways en anglais).

Par conséquent, l\’intention pour cette personne était clairement de bénéficier de signaux au niveau du site, même si le contenu du sous-domaine avait très peu à voir avec le contenu sur le reste du domaine.

Comme le montre l’image ci-dessus, le nom de domaine est principalement un site Web unique, à l\'exception d\'un sous-domaine.

Comme le montre l’image ci-dessus, le nom de domaine est principalement un site Web unique, à l\’exception d\’un sous-domaine.

Certaines personnes dans la communauté SEO soutiennent que cela fait partie du jeu pour un site Web de monétiser sa réputation en laissant un tiers acheter et opérer à partir d\’un sous-domaine.

Cependant, dans ce cas, la pratique équivaut à l\’achat de signaux de classement, ce qui n\’est pas très différent de l\’achat de liens.

Par conséquent, Bing Search a décidé d\’envisager la « location de sous-domaines » comme une violation de sa politique de « structure inorganique du site » lorsqu\’elle est clairement utilisée pour introduire un service tiers complètement indépendant dans la limite du site Web.

Et ce, dans le seul but de divulguer des signaux au niveau du site à ce service. Dans la plupart des cas, les sanctions imposées pour cette violation ne s\’appliqueraient qu\’au sous-domaine loué, et non au domaine racine.

Votre responsabilité en tant que propriétaire du domaine

C’est ici l\’occasion pour Bing de rappeler aux propriétaires de domaine qu\’ils sont en fin de compte responsables du contenu hébergé sous leur domaine, indépendamment des limites du site Web qu’il identifie.

Cela est particulièrement vrai lorsque les sous-domaines ou les sous-traitants sont exploités par différentes entités.

Bien que les limites claires du site Web empêcheront les signaux négatifs dus à un seul mauvais acteur de se propager vers d\’autres contenus hébergés sous le même domaine, la réputation globale du nom de domaine sera affectée si un nombre disproportionné de sites Web finissent par violer les lignes directrices de Bing Webmaster.

Prenant un cas extrême, si vous offrez l\’hébergement gratuit sur vos sous-domaines et 95% de vos sous-domaines sont signalés comme spam, Bing va alors étendre les sanctions à l\’ensemble du domaine, même si le site Web racine lui-même n\’est pas un site spammy.

Un autre cas malheureux est celui du site piraté. Une fois qu\’un site Web est compromis, il est typique pour les pirates de créer des sous-dossiers ou des sous-répertoires contenant du contenu spammy, parfois à l\’insu du propriétaire légitime.

Lorsque Bing Search détecte un tel cas, il pénalise généralement l\’ensemble du site jusqu\’à ce qu\’il soit propre.

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

L’enregistrement du nom de domaine .New est disponible

L\'enregistrement du nom de domaine .new est disponible pour tous

Google a introduit des raccourcis en .newFormajouter .new à la fin.

Et bientôt, pour aider leurs utilisateurs à démarrer des tâches plus rapidement.

Par exemple, en tapant “doc.new” dans votre navigateur, vous affiche automatiquement une page vierge Google Docs pour vous permettre de créer immédiatement un fichier Doc et saisir votre texte.

et donc des raccourcis – très bientôt.

effectuer des “Actions” en ligne en une seule étape rapide.

Ainsi, Spotify a revendiqué Playlists.new, qui permet aux utilisateurs de créer de nouvelles playlists rapidement.

Medium possède Story.new, qui vous fait écrire plus vite, et Sell.new est un raccourci pour vendeurs eBay. , OpenTable et Cisco Webex ont leurs propres variantes.

Voici quelques-uns des raccourcis que vous pouvez utiliser :

  1. Playlist.new : Créez une nouvelle playlist pour ajouter des chansons sur Spotify.
  2. Story.new : Écrivez sur ce qui compte pour vous sur Medium.
  3. Canva.new : Créez de beaux designs avec votre équipe.
  4. Webex.new  Pour un moyen facile, rapide et sécurisé pour démarrer votre salle de réunion personnelle à partir de n’importe quel navigateur, essayez ce raccourci de Cisco Webex.
  5. Link.new : Créez instantanément des liens fiables, puissants et reconnaissables qui maximisent l\’impact de chaque initiative numérique à l’aide de Bitly.
  6. Invoice.new : Créez, personnalisez et envoyez des factures client directement à partir du tableau de bord de Stripe.
  7. Api.new : Prototypez et lancez vos idées pour les nouveaux points de terminaison API Node.js avec ce raccourci de RunKit.
  8. Coda.new : Simplifiez le travail de votre équipe avec un nouveau document qui combine documents et feuilles de calcul en un seul clic..
  9. Music.new : Créez des illustrations de chansons personnalisées pour les sorties d’artistes d’OVO Sound, préenregistrez la musique à venir et jouez le dernier contenu en un seul clic.
  10. Cal.new : Créez un nouvel événement Google Agenda à partir de votre navigateur.

Similaire au nom de domaine en .app, .page, et .dev, le domaine .new sera sécurisé parce que tous les domaines seront servis sur les connexions .

Jusqu’au 14 janvier 2020, les propriétaires de marques peuvent enregistrer leurs domaines .new de marque.

À compter du 2 décembre 2019, n’importe qui peut demander un domaine .new pendant la période d’inscription limitée.

Si vous avez une idée pour un domaine .new, vous pouvez en apprendre davantage sur les politiques et comment vous inscrire à .new.

 

Exigence d’avis des registrars

Les registrars (prestataires internet qui vendent des noms de domaine, NDLR) doivent fournir une notice aux futurs inscrits de domaine .new de l’exigence relative aux domaines d’action et de l’exigence HTTPS.

Cette notice doit être clairement et visiblement fournie dans le cadre du flux d’enregistrement avant l’achat du .new.

Elle doit être distincte et ne pas être intégrée dans d\’autres conditions de service, ni exiger de l\’inscrit de suivre un lien pour obtenir l\’information.

Les renseignements suivants doivent être inclus dans l\’avis à tous les inscrits :

  1. Exigences relatives aux domaines d’action : 
    • .New est un espace de nom pour la génération d\’action ou le flux de création en ligne;
    • Que tous les domaines .new doivent rediriger l’utilisateur directement dans une génération d’action ou flux de création en ligne;
    • Que des mesures d’exécution, y compris la résiliation, peuvent être prises pour un nom de domaine .new qui est utilisé d’une manière incompatible avec les exigences d’Action des domaines .new;
    • Tout domaine .new ne doit pas resté inutilisé plus de 100 jours à partir de la date d’enregistrement;
  2. Exigences HTTPS :
    • Ce .new est un espace de nom sécurisé qui nécessite httpS d’être utilisé sur tous les domaines .new afin que ces domaines fonctionnent dans les navigateurs Web et chargent les sites Web .new.
    • Obtention d’un certificat SSL est aussi obligatoire.

FAQ sur les domaines .new

 

  • Dois-je utiliser mon nom de domaine .new tout de suite ?
    • Google dit comprendres que cela peut prendre un certain temps pour perfectionner votre raccourci .new avant qu’il ne se déploie.C’est pourquoi Google Registry renoncera à l’application de la politique d’enregistrement .new pour les domaines dans leurs 100 premiers jours d’enregistrement, tant que ces domaines ne se résolvent pas.

      Après cette période de 100 jours passés, Google Registry appliquera l’exigence d’utilisation, qui pourrait inclure la suspension ou la suppression des domaines sans aucun remboursement possible pour les domaines qui ne sont pas utilisés ou qui sont utilisés d\’une manière non conforme.

  • Pourquoi devrais-je choisir .new plutôt qu’une autre extension de domaine ?
    • .New est le premier et le seul nom de domaine entièrement consacré à l’action.Avec tant d’inscrits précoces utilisant de mémorables raccourcis .new, les visiteurs sauront que les domaines .new existent pour faciliter des actions à exécuter rapidement.

      C\’est le choix clair si vous voulez aider vos utilisateurs à faire les choses plus rapidement et plus facilement.

  • Que se passe-t-il si je veux enregistrer un domaine et l’utiliser plus tard ?
    • Google dit vouloir vendre des noms de domaine .new à des inscrits qui sont prêts à les utiliser.Bien que sa renonciation de 100 jours de l’exigence est conçue pour vous donner un certain temps pour obtenir que votre domaine soit en place et en cours d’exécution, il ne recommande pas d’acheter de domaine .new si vous n’avez pas un raccourci clair à l’esprit.

      Précisons que le raccourci ne peut pas pointer vers une page d’accueil ou d’article de votre site ou blog, mais bien vers une page pour exécuter une action précise comme jouer une musique, remplir un formulaire, lancer une vidéo, etc…

      Alors, une fois ces 100 jours de plus passés, Google dit se réserver le droit d\’appliquer la nouvelle politique d\’enregistrement.

  • Que se passe-t-il si je n’utilise pas mon domaine .new pour l’action ?
    • L’obligation d’utiliser les noms de domaine .new pour l’action en ligne et la création de contenu s’applique à tous les domaines .new. Google Registry appliquera activement la nouvelle politique d’enregistrement, qui peut inclure la suspension et la suppression de domaines non conformes sans remboursement.Avant de prendre ces mesures, Google fera savoir aux inscrits non conformes qu’ils ont violé ses politiques d’enregistrement et leur donnera un court délai pour se mettre en conformité.
  • Est-ce que .new est limité aux entreprises et aux organisations, ou les individus peuvent-ils s’inscrire aussi ?
    • Les politiques de Google Registry ne limitent pas qui peut enregistrer un domaine .new, seulement la façon dont ils doivent être utilisés.Bien qu’il s’attend à ce que la plupart de ses inscrits soient des entreprises et des organisations, il accueille des inscrits individuels qui prévoient d\’utiliser leur domaine .new pour la génération d\’action ou la création de contenu en ligne.

Source

Microsoft bannit CCleaner de ses forums de support

Microsoft a blacklisté (mis sur liste noireCCleaner et les liens vers le logiciel antivirus ne peuvent plus être affichés dans ses forums de support.

Microsoft bannit CCleaner de ses forums de support

Un e-mail envoyé aux modérateurs de la communauté “liste noire”. Si un utilisateur ordinaire tente de publier un lien vers un site banni, ce message sera supprimé.

L’information de la mise en liste noire vient du site italien HTNovo dont le fondateur, Jo Val, est un modérateur de la communauté .

Il explique :

Il ne sera plus possible à partir d\’aujourd\’hui de recommander CCleaner sur les pages Microsoft par les utilisateurs normaux.

Dans des cas exceptionnels, modérateurs ou agents pourront toujours insérer des pages appartenant au nom de domaine dans la liste noire.

Une page visible par les modérateurs se présent comme suit (les noms de domaines ont été effacés) :

Filtre de la liste noire

Microsoft a mis en place divers filtres pour assurer la sécurité des membres de la communauté.

Lorsqu\’un site Web inscrit sur la liste noire est affiché, le système le supprime s\’il a été affiché par un utilisateur non affilié.

Le filtre supprimera une partie du site de sorte qu\’il est illisible avec 4 étoiles (****). Les utilisateurs affiliés sont en mesure de publier des sites Web qui sont présents sur la liste noire.

Ce n\’est pas exactement clair pourquoi Microsoft a choisi de blacklister CCleaner, bien que le logiciel a certainement été très problématique dans le passé.

En effet, CCleaner a été dans le passé compromis pour livrer des logiciels malveillants aux PC Windows, et Microsoft ne l’a certainement pas encore digéré.

Et il y a aussi eu quelques problèmes avec CCleaner qui n\’était pas compatible avec 10, bien que ces problèmes ont maintenant été résolus.

En général, cependant, CCleaner fournit des fonctionnalités qui sont déjà intégrées dans Windows 10 (Defender) et est quelque peu redondant de nos jours.

Néanmoins, la société ne sera probablement pas contente de Microsoft qui aura pris une telle action directe contre elle.

Source

Le Top 26 des facteurs de ranking sur Google selon les SEO

En août 2019, 1.584 professionnels dans le domaine de l\’optimisation pour les moteurs de recherche (

Le Top 26 des facteurs de ranking sur Google en 2019 selon les SEO

Ce rapport partage les résultats agrégés de cette enquête. Chaque année, l\’enquête sera répétée pour montrer les tendances de la façon dont les opinions des facteurs de classement changent.

Eh bien, maintenant les résultats ont été divulgués et Rand Fishkin a publié ce que 1.584 SEO pensent du classement de .

Gardez à l\’esprit qu\’il s’agit de ce que les SEO pensent des facteurs qui impactent sur les classements de Google, c\’est une enquête et ce n\’est pas la façon dont l\’algorithme de classement de Google fonctionne.

Le texte de la question présenté à chaque participant était le même :

Pour chacun des facteurs suivants, entrez votre opinion sur le poids qu\’il reçoit dans les systèmes de classements organiques de Google (les résultats classiques de style 10 liens bleus).

Les participants à l\’enquête ont noté sur une échelle de 0 à 10 pour évaluer chacun des 26 facteurs de classement avec les étiquettes suivantes :

Les participants à l\'enquête ont noté sur une échelle de 0 à 10 pour évaluer chacun des 26 facteurs de classement avec les étiquettes suivantes
Source : Sparktoro.com

  1. Pertinence de tout le contenu de la page : 8,52/10
  2. Qualité des sites et des pages qui envoient les liens : 7,87/10
  3. Mots et expressions pertinents pour la requête de l\’utilisateur : 7,50/10
  4. L\’expertise, l\’autorité et la confiance perçues du domaine : 7,48/10
  5. La compatibilité mobile de l\’interface utilisateur : 7,26/10
  6. Utilisation des mots clés exacts : 7,12/10
  7. Qualité et diversité des sites qui envoient des liens (sites envoyant les backlinks) : 7,04/10
  8. L\’exactitude du contenu avec des faits acceptés : 6,97/10
  9. Autorité de liaison du domaine hôte : 6,90/10
  10. L\’expertise, l\’autorité et la confiance perçues de la Page : 6,87/10
  11. Utilisation d\’entités de pertinence de la requête dans le contenu de la page : 6,78/10
  12. Vitesse de chargement de la page : 6,77/10
  13. Signaux de données d\’utilisation de l\’utilisateur tels que les préférences de clic des chercheurs, taux de rebond par rapport aux autres pages/sites du classement, p. ex. pogo-sticking, engagement, etc : 6,62/10
  14. Fraîcheur de la publication : 6,37/10
  15. Texte d\’ancrage des liens pointant vers la page : 6,33/10
  16. Emplacement, fréquence et distance des mots connexes : 6,33/10
  17. Quantité totale du contenu sur la page : 5,75/10
  18. Utilisation d\’une image pertinente unique : 5,69/10
  19. Facteurs d\’accessibilité du site : 5,58/10
  20. Texte d\’ancrage des liens vers une autre page du domaine : 5,29/10
  21. Mots-clés utilisés dans l\’URL : 5,22/10
  22. Mentions du site ou de la marque sans lien : 5,16/10
  23. L\’âge du site : 5/10
  24. Utilisation de Google AMP : 4,76/10
  25. Utilisation de liens sortants sur la page : 4,66/10
  26. Mots clés dans le : 4,19

Les conclusions de Rand Fishkin

Dans les premiers jours de l\’enquête, les mots clés ont été les facteurs de classement les plus votés, puis, pendant près d\’une décennie, les backlinks ont toujours été importants.

Maintenant, la pertinence et la qualité du contenu dominent. Cette perception est, d’après Fishkin, généralement correcte (bien que les liens sont encore un facteur puissant), et cela reflète les grands progrès que Google a fait dans la compréhension du contenu qui satisfait l\’intention de l’internaute.

La valeur perçue du texte d\’ancrage diminue : le texte d\’ancrage des liens a été un pilier dans les quelques principaux facteurs de classement chaque année jusqu\’en 2019.

Il n\’est même plus dans le top 10. Rand Fishkin estime que c\’est probablement incorrect comme une évaluation absolue, mais il reste d\’accord que, en général, Google tend à s\’éloigner d\’une dépendance excessive sur ce facteur au cours des deux décennies précédentes (1998-2018).

La compatibilité mobile ou mobile-friendly et la vitesse de chargement sont plus grandes que prévues.

L’impression de Rand Fishkin qui a réalisé cette étude est que les études de cas et les déclarations publiques de Google sont que ces éléments sont relativement de petits facteurs de classement direct (bien que, il suppose qu’indirectement, ils favorisent des choses telles que le gain de lien, l\’engagement et d\’autres contributions importantes).

Les voir si hauts a été une surprise, et peut refléter que le SEO moderne confond souvent corrélation et causalité.

Longueur du contenu – Age du site : Pour Fishkin, sa conviction est que, alors que les deux sont corrélés avec des classements plus élevés, ni l\’un ni l\’autre d\’entre eux ne sont techniquement utilisés par Google pour classer les pages Web.

Il se dit surpris (et un peu déçu) de les voir classés si hauts parmi les facteurs de classement classés par les professionnels du référencement.

.

Google lance la vérification automatique du domaine via la Search Console

Google

Google lance la vérification automatique du DNS via la Search Console

l\’annonce de Bing avec Domain Connect il y a quelques jours.

c’est la propriété du domaine, dans la Search Console, pour donner aux propriétaires de sites une vue complète de leur site, en supprimant la nécessité de basculer entre les différentes propriétés pour obtenir l\’image complète de leurs données.

Parlant de la propriété de domaine, écrit :

Nous avons vu beaucoup de réactions positives de la part des utilisateurs qui ont vérifié les propriétés de domaine.

Une rétroaction commune que nous avons entendue des utilisateurs est qu\’avant de passer aux propriétés de domaine, ils sous-estimaient leur trafic, et la nouvelle méthode les a aidés à comprendre les données agrégées de leurs clics et impressions plus efficacement.

Lorsque nous avons interrogé les utilisateurs de la propriété de domaine sur leur satisfaction avec la fonctionnalité, presque tous semblent être satisfaits.

En outre, la plupart de ces utilisateurs ont indiqué qu\’ils trouvent les propriétés de domaine plus utiles que les propriétés traditionnelles de préfixe d\’URL.

Fondamentalement, avec son annonce de ce jour, Google Search Console veut rendre plus facile de vérifier vos noms de domaine avec l\’outil et il utilise une méthode de flux de travail avec le fournisseur de DNS pour rendre ce processus plus lisse.

Le flux vous guidera à travers les étapes nécessaires pour mettre à jour votre configuration de registrar de sorte que votre enregistrement DNS comprend le jeton de vérification que Google fournira.

C’est ce qu’il explique comme suit :

Cependant, la modification d\’un enregistrement DNS n\’est pas toujours anodine, surtout pour les petites et moyennes entreprises.

Nous avons entendu dire que le principal défi empêchant les propriétaires de sites de passer aux propriétés de domaine est d\’obtenir leur domaine vérifié.

Pour aider à relever ce défi, nous avons collaboré avec divers bureaux d\’enregistrement de noms de domaine pour automatiser une partie du flux de vérification.

Le processus vous guidera à travers les étapes nécessaires pour mettre à jour votre configuration de registrar de sorte que votre enregistrement DNS inclut le jeton de vérification que nous fournissons. Cela rendra le processus de vérification beaucoup plus facile.

En d’autres termes :

Nous collaborons avec différents bureaux d\’enregistrement de noms de domaine pour vous faciliter et accélérer la vérification du DNS.

Comment utiliser la vérification automatique du DNS ?

Pour vérifier votre à l\’aide du nouveau flux :

  1. Ouvrez la page de votre Search Console
  2. En haut à gauche, cliquez sur le menu déroulant du sélecteur de propriété dit “Propriété de recherche”
  3. Cliquez sur « Ajouter la propriété », tout en bas de ce menu déroulant
  4. Ensuite, choisissez l\’option “Domaine”.

    (Cliquez sur les images pour les agrandir)

  5. Le système vous guidera à travers une série d\’étapes, y compris une visite au site du registraire où vous devez appliquer des modifications.
    Source : Seroundtable.com

Google rappelle qu’il existe plusieurs façons de vérifier votre site avec .

Aujourd’hui, il s’agit juste d’une façon de plus, mais qui tend à simplifier et accélérer le processus. Notez que vous pouvez ensuite aller sur Bing et importer cette vérification dans Bing Webmaster Tools à partir de Console.

WordPress 5.3 devrait changer la façon dont il bloque l\'indexation Google

WordPress

WordPress 5.3 devrait changer la façon dont il bloque l\'indexation Google

Ce changement abandonne la solution traditionnelle Robots.txtRobots Meta Tag.

Et ce, au moment ou annonce son intention de faire du fichier robots.txt un standard officiel et propose même déjà 5 alternatives à la directive noindex

 

Blocage de l’indexation Google

Le mot «indexation» signifiait l’exploration du site par GoogleBot.

Mais cette directive de robots.txt

WordPress 5.3 va vraiment prévenir l\’indexation

“Robots Meta Tag”

Cette modification affectera le paramètre .

Ce changement est une amélioration. Les éditeurs peuvent être plus sûrs en sachant que les pages Web bloquées ne seront pas affichées dans les résultats de recherche de Google.

Joost de Valk

Ces changements visent à mieux décourager les moteurs de recherche de référencer un site plutôt que de les empêcher de parcourir le site.

Dans les versions précédentes de WordPress, Disallow: / a été ajouté au fichier robots.txt pour empêcher les moteurs de recherche d’explorer le site. Cela a été supprimé pour les sites Web non publics dans WordPress 5.3.

Pourquoi WordPress a-t-il utilisé Robots.txt ?

WordPress s\’est appuyé sur Robots.txt pour bloquer l\’indexation d\’un site Web parce que c\’est ainsi que tout le monde a gardé les pages de s’afficher dans les résultats de recherche de Google. C\’était la façon habituelle de le faire.

Pourtant, même si tout le monde l\’a fait de cette façon, comme expliqué plus haut, c\’était une approche peu fiable.

Le mot « indexation » ayant deux significations

  1. L\’indexation signifie explorer, comme lorsque Googlebot visite et télécharge des pages Web.
  2. L\’indexation peut également signifier l\’ajout d\’une page Web à la base de données de Google des pages Web (qui est appelé l\’index).

Bloquer Google d’indexer une page web l\’empêchera de voir la page Web, mais Google pourrait toujours indexer la page Web et l\’ajouter à l\’index de Google. Est-ce logique ?

Robots.txt Versus Robots Meta Tag

Garder une page web hors de l\’index de Google n\’était pas l\’intention de la solution Robots.txt. Faire cela est le travail de Meta Tag Robots, dixit Searchenginejournal.

Il est donc bon de voir WordPress embrasser Robots Meta Tag comme la solution pour bloquer les pages Web de l\’affichage dans les moteurs de recherche.

La méthode la plus efficace pour exclure les sites en développement d\’être indexés par les moteurs de recherche est d\’inclure le HTTP Header X-Robots-Tag: noindex, nofollow lors de la desserte de tous les actifs pour votre site: images, PDFs, vidéo et autres actifs.

Précisons que l\’en-tête HTTP X-Robots-Tag (exemple : header(\ »X-Robots-Tag: noindex, nofollow\ », true); ) n\’a pas les mêmes objectifs, les mêmes effets et ne s\’implémente pas de la même manière que le fichier Robots.txt. Néanmoins, ces deux méthodes sont très liées.

Et comme la plupart des actifs non-HTML sont servis directement par le serveur Web sur un site WordPress, le logiciel de base est incapable de définir cet en-tête HTTP. Vous devez consulter la documentation de votre serveur Web ou de votre hôte pour vous assurer que ces actifs sont exclus sur les sites en développement.

WordPress 5.3 devrait sortir en Novembre 2019.