Instagram pourrait bientôt exiger des selfies vidéo pour confirmer votre identité

Les plateformes de médias sociaux sont en proie à des robots et à des escrocs prétendant être des personnes qu’ils ne sont pas. Continuer la lecture de « Instagram pourrait bientôt exiger des selfies vidéo pour confirmer votre identité »

L’outil de test des résultats enrichis permet de choisir un user-agent

Comme on le sait maintenant, les résultats enrichis sont des résultats de recherche qui vont plus loin que le simple lien bleu cliquable.

L\'outil de test des résultats enrichis permet de choisir un user-agent

D’où l’intérêt de l’outil de test des résultats enrichis qui se concentre sur les types de données structurées qui sont éligibles pour être montrés comme des résultats enrichis.

Et Console vient d’annoncer dans un Tweet qu’il est désormais possible de sélectionner le robot “Googlebot pour smartphone” pour vous préparer à l’indexation orientée mobile.

En d’autres termes :

Nous sommes heureux d’annoncer un nouveau sélecteur pour desktop/mobile au test des résultats enrichis.

La nouvelle fonctionnalité vous aidera à examiner votre implémentation des données structurées en utilisant les deux agents utilisateur pour préparer l’indexation mobile-First.

 

La nouvelle fonctionnalité vous aidera à examiner votre implémentation des données structurées en utilisant les deux agents utilisateur pour préparer l’indexation mobile-First.

Google a donc mis à jour son outil de test des résultats enrichis pour permettre de faire des tests séparés sur mobile et desktop.

Et ce choix d’agent utilisateur permet donc ainsi aux propriétaires de sites de tester l’éligibilité des résultats enrichis sur leurs sites soit sur mobile, soit sur ordinateur.

Ce choix d’agent utilisateur permet ainsi aux propriétaires de sites de tester l’éligibilité des résultats enrichis sur leurs sites soit sur mobile, soit sur ordinateur.

Le résultat du test vous indique si « votre page est éligible aux résultats enrichis » et vous montre les éléments détectés sur votre page tels que le champ associé aux liens sitelink, la présence du logo, etc.

Pour rappel, un user agent ou agent utilisateur est une application cliente utilisée avec un protocole réseau particulier.

L’expression est plus généralement employée comme référence pour celles qui accèdent au World Wide Web.

Les agents utilisateur du Web vont de la gamme des navigateurs jusqu’aux robots d’indexation, en passant par les lecteurs d’écran ou les navigateurs braille pour les personnes ayant une incapacité.

La chaîne « User-Agent » est l’un des critères utilisé pour exclure un certain nombre de pages ou une partie d’un site Web en utilisant le « protocole d’exclusion des robots » (robots.txt).

Ceci permet aux webmasters qui estiment que certaines parties de leur site Web ne devraient pas être incluses dans les données recueillies par un robot en particulier, ou qu’un robot en particulier épuise trop la bande passante, de l’inviter à ne pas visiter ces pages.

 

Se préparer à l’indexation orientée mobile

L’indexation orientée mobile (ou index mobile-first) signifie que Google utilise principalement la version pour mobile d’un site pour l’indexation et le classement.

Auparavant, lors de l’évaluation de la pertinence d’une page par rapport à la requête d’un utilisateur, l’index se référait majoritairement à la version pour ordinateur du contenu de cette page.

Toutefois, comme la plupart des internautes accèdent aujourd’hui à Google via leur appareil mobile, la version pour mobile est à présent celle qui est principalement utilisée par l’index. Et comme le confirme Google, aucun index séparé spécifique n’est créé pour le contenu pour mobile. Nous continuons à n’utiliser qu’un seul index.

Avec l\’indexation orientée mobile, Googlebot explore et indexe principalement les pages avec l’user agent pour smartphone. Google confirme aussi qu’il affichera l’URL la plus appropriée pour les utilisateurs (que celle-ci soit destinée aux ordinateurs ou aux mobiles) dans les résultats de recherche.

Et comme Google l’avait précédemment, il procédera à une transition progressive des sites afin de garantir aux propriétaires et utilisateurs de sites une expérience de qualité.

Il évalue donc chacun des sites individuellement pour voir s’ils sont prêts pour l’indexation orientée mobile, en se basant sur les bonnes pratiques, puis il procède à la transition le moment venu.

Comment corriger ou réparer l\'erreur 404 ?

Lorsque les visiteurs suivent des liens hypertextes

Comment corriger ou réparer l\'erreur 404 ?

Les liens brisés ne sont pas seulement mauvais pour l\’expérience utilisateur

Qu’est-ce que les liens brisés affectent ?

La page d’erreur 404 ne frustre pas uniquement les moteurs de recherche et les utilisateurs. Elle aura aussi une incidence sur votre entreprise elle-même.

  1. Votre chiffre d’affaires :

    En plus de perdre des revenus, vous perdrez aussi des clients. Un client potentiel qui ne trouve pas la page de conversion est une personne qui pourrait faire savoir à son entourage et sur les réseaux sociaux (par exemple) la mauvaise expérience vécue sur votre site.

    Et au final, ce n’est pas un seul client potentiel que vous aurez perdu, mais beaucoup d’autres.

    Après tout, vous ne voudriez pas perdre votre temps et effort pour créer votre site Web

  2. Votre taux de rebond :

    La page d\’erreur 404

    Le taux de rebond est mesuré par la quantité de temps (durée

    va au fil du temps générer un taux de rebond plus élevé.

    Lorsque les moteurs de recherche constatent un taux de rebond élevé sur votre page, ils vont brandir un carton rouge

    Par conséquent, il est très important de garder les visiteurs satisfaits quand ils visitent votre site en .

  3. Votre classement :

    Comme mentionné ci-dessus, le taux de rebond peut provoquer un mauvais classement dans les pages de résultats.

    Un autre facteur qui aura une incidence sur votre , c’est de voir votre page non indexée lors de l’exploration de Googlebot. Google utilise ses robots pour explorer votre site en entier afin de recueillir des informations précieuses sur la thématique de votre page.

Les liens sortants brisés

Et vous pourriez ne pas savoir que le contenu lié a été supprimé ou déplacé sur le site externe.

Lorsque votre site a des liens sortants brisés, c’est un mauvais signal à la fois pour vos utilisateurs et votre référencement. Googlebot explore le Web en allant de liens en liens pour collecter des données sur chaque page.

Veillez à vérifier régulièrement vos liens sortants pour vous assurer que vous ne redirigez pas les lecteurs (ou les bots) vers les pages brisées.

Comment vérifier et analyser vos liens sortants morts

Si vous avez un petit site, cette vérification des liens morts pourra se faire manuellement via l’extension Chrome “Check My Links” pour examiner manuellement chaque page de votre site et effectuer des contrôles individuellement pour détecter les liens brisés.

Cet outil vous aidera à découvrir à la fois les liens internes (liens de votre propre site) et les liens externes (liens vers d’autres sites

Si vous avez un gros site, il ne sera probablement pas possible de vérifier manuellement chaque page pour découvrir les liens brisés. Dans ce cas, il vaut mieux investir dans des vérificateurs de liens morts payants tels que Ahref ou Semrush qui peuvent vous aider à trouver des liens cassés en vrac sur votre site.

Vous pouvez aussi utiliser Broken Link Checker qui est un outil gratuit parfait si vous avez un site de moins de 3000 pages. Au-delà de 3000 pages, une contribution vous sera demandée.

Vous entrez votre , vous sélectionnez “Report distinct broken links only” et vous cliquez sur le bouton “Report distinct broken links only” après avoir saisi le code de vérification affiché.

Le résultat s’affiche au bout de quelques minutes dans un tableau avec, s’il y en a,cliquez sur URL pour le lien de votre page) et de destination (cliquez sur SRC pour le lien de la page pointée).

A vous d’aller le corriger ou le supprimer dans la page d’origine sur votre site.

Liens internes morts et pages d\’erreurs 404

Une erreur 404 se produit lorsque le contenu de votre site a été supprimé ou déplacé sans aucune redirection appropriée mise en place pour rediriger les visiteurs vers la page correcte.

explorer et indexer les sites

Lorsque les utilisateurs tombent sur des pages inexistantes ou déplacées sur votre site, cela peut affecter votre ratio d’utilisateurs habituels et affecter les taux de conversion de votre site Web.

Pour trouver les pages erreur 404 sur votre site résultant des liens internes cassés, vous pouvez utiliser l’outil Broken Link Check ou l’extension Chrome “Check My Links”, tous deux cités plus haut.

3 façons d\’éviter et fixer les pages d’erreur 404

  1. Mettez à jour plutôt que de supprimer le contenu :liens vers votre site).
  2. La redirection 301 pour envoyer les visiteurs vers une nouvelle page :en utilisant la redirection 301.
  3. Contactez le webmaster et demandez que le lien soit mis à jour :une URL incorrecte

Alors que Google affirme qu’avoir des pages d’erreur 404 ne nuira pas nécessairement à votre référencement

Google n\'est pas un moteur de recherche selon le Parlement Européen

Selon l’association EDRi qui rapporte l’information, l’Union Européenne vient d’adopter un texte législatif qui établit que n’est pas un moteur de recherche comme nous le pensions tous jusqu’à maintenant.

Google n\'est pas un moteur de recherche selon le Parlement Européen

Ainsi, après deux années de procédures et de négociations entre le Parlement Européen et le Conseil de l’Union Européenne, le texte final adopté signifierait aussi que , et DuckDuckgo ne sont pas des moteurs de recherche.

Rappelons ici que l’EDRi (European Digital Rights) est une association belge qui regroupe 35 organisations de défense des libertés numériques dans 21 pays européens. L’objectif est de lutter pour la défense des droits des citoyens au sein de l’Union européenne en sensibilisant les gouvernements et l’opinion publique.

Alors, pourquoi Google n’est pas un moteur de recherche aux yeux du Parlement Européen ?

Selon la définition adoptée  (PDF) par les députés européens, un moteur de recherche explore tous les sites web, ce que ne ferait pas Google. Selon eux, \ »Google ne recherche pas et/ou n’indexe pas le web obscur (dark web ou deep web) tel que Tor, tout comme il ne visite pas les pages qui lui interdisent l’accès via le fichier robots.txt du site\ ».

Finalement, on serait tenté de penser qu’il n\’y a actuellement aucun moteur de recherche existant aujourd\’hui qui corresponde à la définition énoncée par la Directive sur la Sécurité des Réseaux et de l\’Information (SRI) qui indique :

“Le moteur de recherche en ligne est un service numérique qui permet aux utilisateurs d\’effectuer des recherches en principe dans tous les sites Web ou, dans un sous-ensemble géographique correspondant, des sites Web dans une langue déterminée sur la base d\’une requête sur n\’importe quel sujet sous la forme d\’un mot, phrase ou autre expression et renvoie des liens dans lequel se trouvent les renseignements concernant le contenu demandé.”

C’est donc l’emploi de l’expression clé “en principe dans tous les sites Web” qui est techniquement ce qui disqualifie tous les moteurs de recherche tels qu’on les connaît aujourd’hui d’être des moteurs de recherche, selon la définition de l’UE.

Car, Google, pour ne citer que lui en tant que leader de la recherche internet, choisirait de ne pas rechercher les sites Web de Tor et serait également en conformité avec les demandes des fichiers “robots.txt”, par lesquels les propriétaires de sites Web demandent au moteur de recherche de ne pas indexer leurs pages.

Comme le note l’EDRi dans son post, Google supprime environ 1 million les pages web individuelles chaque jour de son index pour de prétendues violations du droit d\’auteur, il désindexe aussi des pages pour diverses raisons, telles que les “revenge porn\ ». Et surtout, d’immenses quantités de documents ne sont également pas indexés par Google.

En bref, ni Google ni tout autre service de recherche… n’indexe ou ne veut indexer, en principe et en pratique, tous les sites Web. Les moteurs de recherche donc, conformément à la Directive sur la Sécurité des Réseaux et de l\’Information (SRI), n\’existent pas en Europe.

Google privilégie l\'indexation des pages HTTPS par défaut


Google favorisera les pages HTTPS par défaut

En d’autres termes, le référencement HTTPS devient maintenant la priorité pour , après en avoir fait un critère de classement avec un tout petit \ »boost\ » au départ.

Toutefois, les pages HTTP ne seront probablement pas pour l’instant affectées dans les résultats de recherche. Google ne cherche qu’à fournir plus de pages sécurisées dans ses résultats, mais on peut s’attendre à ce que l’étape suivante, comme il l’a fait avec le mobile-friendly, sera de déclasser les pages non-sécurisées.

page sécurisée HTTPS

Critères de l’indexation du HTTPS par défaut

conditions suivantes :

  • Elle ne contient pas de dépendances non sécurisées.
  • Elle ne redirige pas les internautes vers ou via une page HTTP non sécurisée.
  • Elle ne possède pas de lien \ »rel=\ »canonical\ »\ » vers la page HTTP.
  • Elle ne contient pas de balise Meta \ »noindex\ » pour les robots.

Donc, en ce qui concerne Google, la version HTTPS de votre site, si vous en avez, sera prioritaire par défaut.

l\’en-tête HSTS (HTTP Strict Transport Security) sur votre serveur.

Qu’est-ce que le HTTP Strict Transport Security (HSTS)

Le HTTP Strict Transport Security (HSTS) est un mécanisme de politique de sécurité proposé pour HTTP, permettant à un serveur web de déclarer à un agent utilisateur (comme un navigateur webcomme HTTPS).

« Strict-Transport-Security »

La politique HSTS aide à protéger les utilisateurs de sites web contre quelques attaques réseau passives (écoute clandestine) et actives. Une attaque du type man-in-the-middle ne peut pas intercepter de requête tant que le HSTS est actif pour ce site.

C\'est quoi le contenu dupliqué pour Google ?

Le contenu dupliqué ou contenu en double est aussi l’un des sujets récurrents du référencement Web abordés par les .

Qu\'est-ce que Google entend par contenu dupliqué ou en double ?

Et ce, en raison du fait qu’il existe différentes sortes de contenus en double dont certains peuvent être pénalisés par et d’autres pas.

Le dernier Hangout de John Mueller sur le “duplicate content”

Par définition, et selon Google

Alors, voici quelques précisions de John Mueller :

  • Le contenu dupliqué touche à peu près tous les sites web, quelle que soit leur taille.
  • Selon John Mueller, le contenu en double, c’est un même contenu sur un même site. C’est aussi un même contenu avec un même chemin d’accès dans des URLs avec et sans WWW.
  • N’est pas un contenu dupliqué un contenu traduit ou adapté à partir d’une autre langue (ce n’est pas une raison pour ne pas citer la source). Il en est de même avec différentes pages ayant un même titre et/ou une même description, ainsi que le contenu dans les applications.
  • John Mueller confirme ce qu’avait déjà dit Gary Illyes en Mars 2015, à savoir que le contenu dupliqué n’est pas en soi une cause de pénalité.
  • Les contenus dupliqués sont une perte de temps de stockage et de ressources serveurs.
  • Si une page est dupliquée, Google ne conserve qu’une seule copie.
  • Un contenu dupliqué pour 2 localisations dans deux pays différents n’est pas une cause de pénalité.

La pénalité de contenu dupliqué est donc un mythe.

Comment gérer les contenus dupliqués

Selon Google, les mesures suivantes vous permettent de résoudre les problèmes de contenu en double de manière proactive et de vous assurer que les visiteurs accèdent au contenu que vous souhaitez leur présenter.

  • Utilisez les redirections 301 : si vous avez restructuré votre site, utilisez des redirections 301 (\ »RedirectPermanent\ »
  • Soyez cohérent :http://www.example.com/page/, http://www.example.com/page ni http://www.example.com/page/index.htm.
  • Utilisez des domaines de premier niveau :

    Google peut supposer que le site ”http://www.example.de”“http://www.example.com/de” ou http://de.example.com.

  • Soyez prudent en diffusant votre contenu :Guest blogging), Google affichera systématiquement la version jugée la plus appropriée pour les internautes pour chaque recherche donnée, qui pourra correspondre ou non à celle que vous préférez.

    notamment en guest blogging) inclut un lien renvoyant vers votre article original.

  • Utilisez Search Console pour indiquer à Google comment indexer votre site : vous pouvez indiquer à Google votre domaine favori (par exemple, http://www.example.com ou http://example.com).
  • Limitez les répétitions :l\’outil de gestion des paramètres
  • Évitez la publication de pages incomplètes :Meta noindex pour bloquer leur indexation.
  • Apprenez à maîtriser votre système de gestion de contenu :
  • Limitez les contenus similaires :
  • rel=\ »canonical\ » ou des redirections 301.

Si votre site a été retiré des résultats de recherche, après avoir apporté les modifications nécessaires et vous être assuré que votre site respectait ses consignes SEO, envoyez une demande de réexamen à Google.

Google demande de ne pas bloquer l\'accès de Googlebot aux fichiers

a commencé à envoyer à de nombreux webmasters des messages d’alerte par email les notifiant de l’impossibilité pour Googlebot, le robot d’indexation de , d’explorer librement certains fichiers. 

Ce qui pourrait impacter le référencement de leurs sites web.

Google envoie des notifications aux sites bloquant l’accès aux fichiers CSS et JavaScript

Ces fichiers généralement mentionnés par Google concernent les CSS et autres JavaScripts qui n’autorisent pas l’accès à leurs données.

Voici un exemple de message reçu par certains webmasters :

Plus particulièrement, Googlebot ne peut accéder à vos fichiers JavaScript ou CSS

Le message d’alerte indique également avec insistance que le blocage des fichiers Javascript et/ou CSS “peut entraîner des classements qui ne soient pas optimaux”.

Alors que Google a fait savoir, après un changement de ses consignes aux webmasters, de ne plus jamais bloquer Googlebot lors de ses visites d’exploration et d’indexation. Notamment via le fichier robots.txt.

Voici d’ailleurs ce qu’il dit dans ses consignes :

Pour nous aider à comprendre le contenu de votre site de manière exhaustive,

Comment découvrir les ressources bloquées par robots.txt

Les ressources bloquées sont aussi mises en évidence dans la section “Index Google” -> “Ressources bloquées” dans votre Console.

Le message d’alerte dans Google Search Console fournit aussi les détails sur la façon de résoudre le problème en proposant toutefois de mettre à jour la règle du fichier robots.txt pour débloquer la ressource.

Et ils sont aussi nombreux, les webmasters qui utilisent , qui ont reçu des avertissements pour avoir utilisé “abusivement” l’instruction “Disallow: /wp-content/plugins” dans leur fichier robots.txt.

Voici les différents types d’instructions qui peuvent générer un message d’alerte dans Google Search Console et par email :

Disallow: /.js$*

Disallow: /.inc$*

Disallow: /.css$*

Disallow: /.php$*

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /cgi-bin/

Disallow: /wp-content/uploads/

Disallow: /wp-includes/css/

Disallow: /wp-includes/js/

Disallow: /wp-includes/images/

Ce que demande donc Google dorénavant, c’est qu’il n’y ait plus dans aucun fichier robots.txt d’instructions du type “Disallow: /nomdufichier” ou “Disallow: /nomdurepertoire/”.

Si vous en avez dans votre fichier robots.txt, supprimez-les immédiatement, remplacez-les par \ »Allow: /\ » et le problème sera résolu. Sinon, votre référencement pourrait en souffrir comme Google le mentionne dans ses notifications.

Testez votre fichier robots.txt

outil de test du fichier robots.txt

  1. \ »Exploration\ »Outil de test du fichier robots.txt.
  2. éditeur de texte.
  3. Faites défiler le code du fichier robots.txt pour localiser les avertissements relatifs à la syntaxe et les erreurs de logique
  4. Dans la liste déroulante à droite de la zone de texte, sélectionnez le user-agent que vous souhaitez simuler.
  5. Cliquez sur le bouton TEST après avoir choisi le robot pour lancer la simulation.
  6. Vérifiez si le bouton TEST indique Acceptée ou Bloquée

1 Milliard de dollars : c\'est le coût de la fraude publicitaire dans les applis mobiles

La fraude publicitaire en ligne est désormais un fléau qui commence à préoccuper sérieusement les annonceurs et surtout les plateformes publicitaires.

Je vous annonçais d’ailleurs ici que les géants du Net tels que , et étaient en train de s’associer pour faire face en commun à ces clics frauduleux qui pénalisent les annonceurs et pourraient donc remettre en cause la crédibilité des factures qui leur sont présentées par les plateformes publicitaires.

Chiffres de la fraude publicitaire dans les applis mobiles

Une nouvelle étude de la société Forensiq vient de tirer la sonnette d’alarme en révélant que les applications mobiles seraient aussi une cible des fraudeurs.

Mais, dans le cas des appareils mobiles, il s’agit dans un premier temps du piratage desdits appareils afin d’afficher des publicités masquées et de simuler des activités humaines similaires aux traditionnels robots ou bots rencontrés sur les ordinateurs.

Forensiq dit que sa plateforme de détection de fraudes a identifié plus de 5.000 applications mobiles commettant la fraude publicitaire tout en surveillant tous les types de trafic irrégulier suites à ces impressions publicitaires fictives.

La société Forensiq

Lorsqu\’une application est exécutée par l’utilisateur au premier plan, seules 10 à 20 % des annonces mobiles sont visibles.

Dans certains cas, les applications ont été conçues pour frauder les publicités. Dans d\’autres cas, Forensiq a vu que l\’activité programmatique des applications ne supportaient pas la publicité.

Images via Marketingland.com

La société Forensiq estime que les applications sont \ »victimes d\’usurpation d\’applications” qui nécessitent que les éditeurs ou les plateformes publicitaires mobiles modifient les headers des applis.

Parce que ces applications diffusent des annonces, souvent au rythme de 20 annonces par minute et peuvent aussi récupérer des données.

Selon Forensiq, ces applications malveillantes demandent souvent des autorisations suspectes, et sont notamment en mesure d’empêcher les mobiles de se mettre en veille, de s’exécuter au démarrage, de modifier et supprimer du contenu sur la carte SD et accéder aux services de localisation lors de l\’exécution en arrière-plan.

Beaucoup de ces autorisations sont requises même si les véritables caractéristiques de l\’application ne les exigent pas réellement.

Forensiq dit aussi avoir constaté que quelques applications installaient un script pour simuler des clics aléatoires et charger la page de destination de l\’annonceur à l\’insu de l\’utilisateur.

Tandis que d\’autres applications redirigeaient automatiquement des utilisateurs par le biais de liens d\’affiliation vers des sites Web demandant aux utilisateurs d\’acheter des objets ou autres applications sur l\’app store.

Quand Google, Yahoo et Facebook s\'allient pour bloquer les faux trafics de robots

Malgré la concurrence qui existe entre eux, les Géants du Net savent s’unir pour faire face à un même danger commun quand leurs intérêts sont en jeu.

, et viennent de créer un fichier commun destiné à bloquer les faux trafics web et à combattre la fraude publicitaire.

Quand Google, Yahoo et Facebook collaborent pour bloquer les mauvais robots

Ce fichier est constitué d’une liste noire des adresses IP identifiées des robots simulant de faux trafics sur leurs plateformes. Et donc sur tous les sites web.

Ainsi, comme le rapporte le site Thehackernews, ce nouveau programme commun va permettre à ces leaders du Net de blacklister et de rejeter les visites de certains robots web, ainsi que des bots nuisibles et consommateurs de bande passante inutilement.

Google, Yahoo et Facebook ou tout autre entreprise du domaine des nouvelles technologies va donc tenir une liste noire qui va répertorier des adresses IP suspectes de systèmes informatiques dans les data centers qui peuvent être tentées de se faire passer pour des humains pour cliquer les publicités de façon automatisée.

DoubleClick de Google a, à lui tout seul, bloqué près de 8,9% du trafic de certains data center au cours du mois de Mai dernier.

L’objectif de cette collaboration est surtout de mettre en place un front commun contre certaines activités nuisibles pour tous, notamment les clics frauduleux sur les publicités en ligne qui constituent aujourd’hui un fléau, mais aussi un vrai business pour leurs auteurs…

D’ailleurs, ces précurseurs de ce front commun entendent bien inviter d’autres leaders du Net à y contribuer afin de réduire considérablement certaines fraudes qui pululent sur le Net. Il faut dire que ces clics frauduleux touchent à “leurs portes-feuilles”, et c’est préoccupant pour eux.

Et c’est aussi préoccupant pour les annonceurs qui paient pour des clics factices.