4 extensions de navigateurs d\'Avast et AVG vous espionnent

Si votre navigateur Firefox ou ChromeAvast et sa filiale AVG installées, vous devez les désactiver ou supprimer dès que possible, d’après TheHackerNews qui rapporte l’information.

4 extensions de navigateurs d\'Avast et AVG vous espionnent sur Chrome et Firefox

Ces 4 extensions pour navigateurs qui vous espionnent sont les suivantes :

  1. Avast Online Security
  2. AVG Online Security
  3. Avast SafePrice
  4. AVG SafePrice

antivirus Avast ou AVG sur leurs PC, le logiciel installe automatiquement ses add-ons respectifs sur les navigateurs des utilisateurs.

Quelles données d\’utilisateurs sont envoyées à Avast ?

  1. Un identifiant utilisateur unique (UID
  2. Titre de la page,
  3. URL référent,
  4. Une valeur qui indique si vous avez visité une page avant,
  5. Votre code du pays
  6. Nom du navigateur et son numéro de version exact,

Commentaire de Wladimir Palant :

L’onglet “Tracking” et la fenêtre “identificateurs” ainsi que vos actions permettent à Avast de créer une reconstruction presque précise de votre comportement de navigation :

– Quels sites Web avez-vous visité et quand,

– Combien de temps passez-vous à lire / regarder le contenu,

– Que cliquez-vous là-bas et quand passez-vous à un autre onglet.

permettant à Avast de vous reconnaître de manière fiable, même un identifiant utilisateur unique.

Au cours du week-end dernier, Palant a fait part de ses conclusions aux deux fabricants de navigateurs, Mozilla et . Mozilla a pris des mesures immédiates

Mozilla a déclaré :

“couverture médiatique considérable”.

4 extensions de navigateurs d\'Avast et AVG vous espionnent

Si votre navigateur Firefox ou ChromeAvast et sa filiale AVG installées, vous devez les désactiver ou supprimer dès que possible, d’après TheHackerNews qui rapporte l’information.

4 extensions de navigateurs d\'Avast et AVG vous espionnent sur Chrome et Firefox

Ces 4 extensions pour navigateurs qui vous espionnent sont les suivantes :

  1. Avast Online Security
  2. AVG Online Security
  3. Avast SafePrice
  4. AVG SafePrice

antivirus Avast ou AVG sur leurs PC, le logiciel installe automatiquement ses add-ons respectifs sur les navigateurs des utilisateurs.

Quelles données d\’utilisateurs sont envoyées à Avast ?

  1. Un identifiant utilisateur unique (UID
  2. Titre de la page,
  3. URL référent,
  4. Une valeur qui indique si vous avez visité une page avant,
  5. Votre code du pays
  6. Nom du navigateur et son numéro de version exact,

Commentaire de Wladimir Palant :

L’onglet “Tracking” et la fenêtre “identificateurs” ainsi que vos actions permettent à Avast de créer une reconstruction presque précise de votre comportement de navigation :

– Quels sites Web avez-vous visité et quand,

– Combien de temps passez-vous à lire / regarder le contenu,

– Que cliquez-vous là-bas et quand passez-vous à un autre onglet.

permettant à Avast de vous reconnaître de manière fiable, même un identifiant utilisateur unique.

Au cours du week-end dernier, Palant a fait part de ses conclusions aux deux fabricants de navigateurs, Mozilla et . Mozilla a pris des mesures immédiates

Mozilla a déclaré :

“couverture médiatique considérable”.

4 extensions de navigateurs d\'Avast et AVG vous espionnent

Si votre navigateur Firefox ou ChromeAvast et sa filiale AVG installées, vous devez les désactiver ou supprimer dès que possible, d’après TheHackerNews qui rapporte l’information.

4 extensions de navigateurs d\'Avast et AVG vous espionnent sur Chrome et Firefox

Ces 4 extensions pour navigateurs qui vous espionnent sont les suivantes :

  1. Avast Online Security
  2. AVG Online Security
  3. Avast SafePrice
  4. AVG SafePrice

antivirus Avast ou AVG sur leurs PC, le logiciel installe automatiquement ses add-ons respectifs sur les navigateurs des utilisateurs.

Quelles données d\’utilisateurs sont envoyées à Avast ?

  1. Un identifiant utilisateur unique (UID
  2. Titre de la page,
  3. URL référent,
  4. Une valeur qui indique si vous avez visité une page avant,
  5. Votre code du pays
  6. Nom du navigateur et son numéro de version exact,

Commentaire de Wladimir Palant :

L’onglet “Tracking” et la fenêtre “identificateurs” ainsi que vos actions permettent à Avast de créer une reconstruction presque précise de votre comportement de navigation :

– Quels sites Web avez-vous visité et quand,

– Combien de temps passez-vous à lire / regarder le contenu,

– Que cliquez-vous là-bas et quand passez-vous à un autre onglet.

permettant à Avast de vous reconnaître de manière fiable, même un identifiant utilisateur unique.

Au cours du week-end dernier, Palant a fait part de ses conclusions aux deux fabricants de navigateurs, Mozilla et . Mozilla a pris des mesures immédiates

Mozilla a déclaré :

“couverture médiatique considérable”.

4 extensions de navigateurs d\'Avast et AVG vous espionnent

Si votre navigateur Firefox ou ChromeAvast et sa filiale AVG installées, vous devez les désactiver ou supprimer dès que possible, d’après TheHackerNews qui rapporte l’information.

4 extensions de navigateurs d\'Avast et AVG vous espionnent sur Chrome et Firefox

Ces 4 extensions pour navigateurs qui vous espionnent sont les suivantes :

  1. Avast Online Security
  2. AVG Online Security
  3. Avast SafePrice
  4. AVG SafePrice

antivirus Avast ou AVG sur leurs PC, le logiciel installe automatiquement ses add-ons respectifs sur les navigateurs des utilisateurs.

Quelles données d\’utilisateurs sont envoyées à Avast ?

  1. Un identifiant utilisateur unique (UID
  2. Titre de la page,
  3. URL référent,
  4. Une valeur qui indique si vous avez visité une page avant,
  5. Votre code du pays
  6. Nom du navigateur et son numéro de version exact,

Commentaire de Wladimir Palant :

L’onglet “Tracking” et la fenêtre “identificateurs” ainsi que vos actions permettent à Avast de créer une reconstruction presque précise de votre comportement de navigation :

– Quels sites Web avez-vous visité et quand,

– Combien de temps passez-vous à lire / regarder le contenu,

– Que cliquez-vous là-bas et quand passez-vous à un autre onglet.

permettant à Avast de vous reconnaître de manière fiable, même un identifiant utilisateur unique.

Au cours du week-end dernier, Palant a fait part de ses conclusions aux deux fabricants de navigateurs, Mozilla et . Mozilla a pris des mesures immédiates

Mozilla a déclaré :

“couverture médiatique considérable”.

Chrome et Firefox vous alertent sur les violations de données de vos comptes

Mozilla a lancé Firefox 70 pour Windows, Mac et Linux avec de nouvelles fonctionnalités telles que la protection du tracking social, un rapport sur les protections de la vie privée et un service de notification de violation de données native pour vos connexions enregistrées.

Chrome et Firefox vous alertent sur les violations de données de vos comptes

– qui a commencé à offrir un contrôle granulaire sur le suivi par des tiers en octobre dernier avec une protection de suivi améliorée – a maintenant ajouté des trackers de médias sociaux à la combinaison.

Cela bloquera tous les trackers associés à , Instagram, WhatsApp, , et YouTube.

nouveau rapport de protection de la vie privée qui agit comme un tableau de bord pratique des trackers que Firefox a bloqués, ventilé par type.

– Générez des mots de passe sécurisés avec Firefox Lockwise

– Consultez un rapport de chaque tracker que nous avons automatiquement bloqué pour vous

– Obtenez des notifications de Firefox Monitor pour les violations de données.

FireFox Lockwise” du navigateur a également été intégré à Firefox Monitor pour vous avertir si vos connexions enregistrées ont été compromises dans une violation de données.

Firefox n’est pas le seul à agir ainsi.

L’extension Chrome dans le Gestionnaire de mots de passe

Plus tôt ce mois-ci, a introduit son outil de vérification des mots de passe directement dans les contrôles de compte Google.

Avec Chrome 78, qui a été publié hier, Google apporte officiellement la fonctionnalité au navigateur.

Ainsi, vous pouvez afficher et gérer facilement les mots de passe que vous avez enregistrés dans Chrome ou .

Effectuez un Check-up des mots de passe pour renforcer la sécurité de votre compte. Ces mots de passe sont stockés de manière sécurisée dans votre compte Google et ils vous sont accessibles sur tous vos appareils.

Si l\’option n\’est pas encore activée par défaut, vous pouvez l\’activer en visitant : chrome://flags/#password-leak-detection.

Google vient de mettre à jour son extension de vérification de mot de passe directement dans le Gestionnaire de mot de passe du compte Google. Et il peut être consulté à l’adresse passwords.google.com.

Malheureusement, si vous n\’utilisez pas la solution de gestion de mot de passe de Google, il vaut mieux vous en tenir à l\’extension Chrome. Google le sait clairement, et donc, il l\’a ajoutée directement à Chrome.

Pour rappel, le nouveau contrôle de mot de passe est construit à partir de l’extension Chrome lancée plus tôt cette année, qui vous avertit si votre nom d\’utilisateur ou mot de passe a été compromis dans une violation de données de tiers.

Google dit que l\’extension a été téléchargée plus d\’1 million de fois, avec près de la moitié de ces utilisateurs recevant un avertissement pour un mot de passe compromis.

Et avec Chrome 78, il introduit la technologie de vérification des mots de passe directement dans Chrome pour tout le monde, de sorte que vous obtenez une protection en temps réel pendant que vous tapez votre mot de passe sans avoir besoin d\’installer une extension distincte.

Aujourd\’hui, nous lançons le contrôle des mots de passe, une nouvelle fonctionnalité intégrée à notre gestionnaire de mots de passe qui vérifie la force et la sécurité de tous vos mots de passe enregistrés, vous indique si nous constatons qu\’ils ont été compromis (par exemple, dans une brèche), et vous donnons des recommandations personnalisées et actionnables en cas de besoin. 

Il convient de souligner que les outils de notification de violation de Chrome et Firefox ne fonctionneront que si vous synchronisez vos mots de passe stockés avec les services respectifs.

Pourtant, l\’ajout est un signe que les fabricants de navigateurs prennent la sécurité plus au sérieux en répondant activement à la nécessité d\’alertes de violation compte tenu de la fréquence alarmante et l\’ampleur des violations de données.

Source

Les systèmes d’affiliation des éditeurs menacés par la limitation des cookies ?

Alors que le cookie

Les systèmes d’affiliation des éditeurs menacés par la limitation des cookies ?

Les éditeurs cherchent des moyens de commercialiser leurs données de première partie.

sans compter sur des cookies tiers, puis élargir la façon dont ces audiences peuvent être monétisées.

a déjà annoncé qu’il comptait limiter l’usage des cookies tiers de suivi (tracking) dans Chrome. Et ce n’est pas tout. Il a déjà appliqué cette limitation pour les utilisateurs de Chrome naviguant en mode Incognito.

affiliationqui permettent aux éditeurs de vendre des produits de milliers de détaillants différents moyennant une commission sur chaque vente– commencent à se sentir exposés, selon des sources d’éditeurs.

Les navigateurs bloquant les cookies tiers

à seulement 24 heures.

Digiday.com.

Selon Ferguson, Marie Claire Edit constate une croissance annuelle moyenne du trafic de 675 %.

a limité la fenêtre pour les cookies de première partie de 7 jours à 1 jour.

Une fenêtre de 24 heures ne suffit pas.

Ce dont nous avons besoin pour suivre ce parcours, ce sont beaucoup moins de données que les autres canaux.

Les affiliés sont intrinsèquement liés à des données légères et soucieuses de la vie privée afin que nous puissions créer des solutions qui ne soient pas piégées par la prévention des navigateurs Web.

Feedly déploie une mise à jour de sa Web App

FeedlyRSS actuellement, avec une prise en charge pour la synchronisation du cloud, des filtres, et bien plus encore.

Feedly déploie une mise à jour de sa Web App

que Chrome prend maintenant en charge, avec et Safari

Il y a quelques autres améliorations intéressantes aussi.

Le manque de prise en charge du clic droit dans la version précédente vient d’être corrigé, et est donc désormais disponible dans cette nouvelle version.

Les changements dans cette mise à jour de Feedly

  1. Bouton “Ajouter un contenu” plus visible :
    • Le profil et le l’ajout de contenu sont maintenant plus visibles dans la barre latérale de gauche. Les utilisateurs de votre Team pourront également ajouter plus facilement de nouveaux coéquipiers et partager des flux et des tableaux.
  2. Épingler ou dépingler :
    • Vous pouvez continuer à épingler (afficher) ou dépingler (cacher) la barre de navigation.
  3. Clic droit dans les Menus :
    • Vous pouvez effectuer un clic droit sur un flux, une source, un tableau de bord ou une priorité et utiliser le menu contextuel pour gérer rapidement vos ressources.
  4. Renommer facilement inline :
    • Il est beaucoup plus facile de renommer vos flux, sources, boards et priorités.
  5. Faire glisser et trier :
  6. Un nouveau thème sombre :

Feedly est disponible sur Play Store pour et sur App Store pour et bien entendu, sur le Web.

Chrome va bientôt supprimer la prise en charge des connexions FTP

Depuis pratiquement toujours, le Protocole de Transfert de Fichiers (FTP, pour faire court, en anglais) était un moyen populaire pour transférer et héberger des fichiers en ligne.

Chrome va bientôt supprimer la prise en charge des connexions FTP

Avant d’aller plus loin, voici la présentation du FTP :

File Transfer Protocol (protocole de transfert de fichier), ou FTP, est un protocole de communication destiné au partage de fichiers sur un réseau TCP/IP.

Il permet, depuis un ordinateur, de copier des fichiers vers un autre ordinateur du réseau, ou encore de supprimer ou de modifier des fichiers sur cet ordinateur. Ce mécanisme de copie est souvent utilisé pour alimenter un site web hébergé chez un tiers.
La variante de FTP protégée par les protocoles SSL ou TLS (SSL étant le prédécesseur de TLS

En pratique, le serveur est un ordinateur sur lequel fonctionne un logiciel lui-même appelé serveur FTP, qui rend publique une arborescence de fichiers similaire à un système de fichiers UNIX. Pour accéder à un serveur FTP, on utilise un logiciel client FTP (possédant une interface graphique ou en ligne de commande).

L’arrêt du support du FTP a débuté avec Chrome 59 qui a commencé à bloquer les pages d’intégrer du contenu à partir de serveurs FTP, et Chrome 72 a commencé à forcer tous les liens FTP à être téléchargés au lieu d’être vus dans le navigateur.

Selon l\’équipe de développement Chrome

FTPS), ni proxys.

des clients FTP plus performants sont disponibles sur toutes les plateformes concernées.

Chrome 72+ a supprimé la prise en charge des sous-ressources de documents sur FTP et le rendu des ressources FTP de haut niveau.

Actuellement,

La prise en charge par procuration de FTP a été supprimée entièrement dans 76.

Nous aimerions déprécier et supprimer cette fonctionnalité restante plutôt que de maintenir une implémentation FTP non sécurisée.

Mozilla a également des «plans vagues» pour supprimer le support FTP dans Firefox

dont les 10 logiciels clients ci-dessous qui vous aideront à transférer vos fichiers sur votre site Web :

  1. FileZilla
  2. Cyberduck
  3. Core FTP LE
  4. WinSCP
  5. SmartFTP
  6. FTP Voyager
  7. CoffeeCup Free FTP
  8. Transmit (Mac)
  9. Wise FTP
  10. Fresh FTP

Bref, avec tous les logiciels CMS pour la création de site Web que pratiquement tout les propriétaires de sites et blogs utilisent, nous arrivons à un moment où le FTP n’a vraiment plus d’utilité pour le webmaster lambda.

service Cloud ou tout simplement vers Drive.

Précisons tout de même que dans le cadre de Chrome, il s’agit des liens cliqués dans une page Web et qui ouvrent un document dans le navigateur via FTP. CQFD.

Comment retrouver l’ancien Twitter ?

Twitter

Vous n\'aimez pas le nouveau Twitter ? Retrouvez l\'ancien Twitter Web

Vous en avez probablement entendu parler : a relooké sa plate-forme sur le Web pour le rendre plus accrocheur et vous donner plus de thèmes de couleur.

C’est à nouveau le cas avec Twitter qui ne fait donc pas exception.

La récente refonte de Twitter pour ordinateur

Les changements sont évidents au moment où vous regardez la nouvelle interface utilisateur. Le menu de navigation modeste qui était auparavant en haut de la page a maintenant été déplacé vers la gauche de la Timeline avec un lettrage étonnamment grand.

La colonne montrant les “Tendances” qui était à gauche du fil d’actualités est maintenant sur la droite.

Alors que la boîte de petits profils sur le coin supérieur gauche qui affichait vos Tweets et les comptes suivis par vous est nulle part pour être vue. Pour obtenir ces données, vous devez maintenant visiter votre page de profil.

1. Essayez GoodTwitter, une extension Chrome et Firefox

Une extension appelée GoodTwitter, développée par Zusor, peut effectivement revenir au look antérieur de Twitter. Elle est disponible pour Chrome et .

à partir du Web Store de Chrome ou de Firefox Add-On Manager.

Si vous allez ensuite sur votre page profil Twitter et ne voyez aucun changement immédiat, essayez de vider votre cache et/ou de recharger la page. Et le tour est joué.

sur Reddit

2. Comment récupérer l’ancien Twitter via Twitter lui-même ?

ouvrir Twitter sur ordinateur, et de suivre cette procédure :

  1. Depuis la colonne de gauche du nouveau Twitter sur desktop, cliquez sur le lien “Plus”.
  2. Dans le nouveau menu qui s’affiche toujours dans la colonne de gauche, cliquez sur “Paramètres et confidentialité”.
  3. Dans la page centrale, allez à la section “Général”, et sélectionnez “A propos de Twitter”.
  4. Dans la section “Autres” (colonne à droite de l’écran), cliquez sur “Répertoire”.
  5. “Accueil”

Et puis, gardez à l’esprit que Twitter pourrait à tout moment bloquer cette possibilité de revenir à l’ancien Twitter. Alors, profitez-en pendant qu’il est encore temps.

Robots.txt : Google veut en faire un Standard officiel

Robots.txt est un fichier texte pour webmasters créé pour instruire les robots web (généralement les robots des moteurs de recherche) sur comment explorer les pages sur leur site Web.

Robots.txt :Google veut en faire un Standard officiel

Le fichier robots.txt fait partie du (REP = Robots Exclusion Protocol), un groupe de standards Web qui régulent la façon dont les robots crawlent le Web, accèdent et indexent le contenu, et servent ce contenu aux utilisateurs.

Le REP comprend également des directives comme les meta robots, ainsi que des instructions de page, sous-domaine (ou sous-répertoire« follow » pour suivre ou « nofollow » pour ne pas suivre).

Dans la pratique, les fichiers robots.txt indiquent si certains agents utilisateurs (“disallow”“allow”) du comportement de certains (ou tous) agents utilisateur.

Le format basique du fichier Robots.txt est le suivant :

User-agent: [nom user-agent]
Disallow: [Chaîne d’URL à ne pas crawler]

c.-à-d., disallows, allows, crawl-delays, etc.).

Dans un fichier robots.txt, chaque ensemble de directives user agent ou agent utilisateur apparaît comme un ensemble discret, séparés par une rupture de ligne :

(Cliquez sur les images pour les agrandir)

Dans un fichier robots.txt, chaque ensemble de directives user agent ou agent utilisateur apparaît comme un ensemble discret, séparés par une rupture de ligne
Source : Moz.com

et suivra les directives) au groupe le plus spécifique des instructions.

Si le fichier robots.txt contient une règle qui s\'applique à plus d\'un agent utilisateur, un robot fera attention (et suivra les directives) au groupe le plus spécifique d\'instructions.

Comment fonctionne le fichier robots.txt ?

Les moteurs de recherche ont deux tâches principales :

  1. Explorer le web pour découvrir le contenu;

Après être arrivé sur un site Web, mais avant de le parcourir, le crawler de recherche cherchera un fichier robots.txt.

C’est quoi l’user agent ou agent utilisateur ?

Selon la définition de Mozilla

En dehors des navigateurs, un agent utilisateur peut être un aspirateur de sites, un gestionnaire de téléchargements ou toute autre application accédant au Web.

Les spambots, gestionnaires de téléchargements et certains navigateurs envoient souvent des chaînes UA falsifiées pour se présenter eux-mêmes comme un client différent. Cette action est nommée user agent spoofing.

navigator.userAgent.

\ »Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:35.0) Gecko/20100101 /35.0\ »

Google veut normaliser le fichier Robots.txt

D’après , depuis 25 ans, le Protocole d\’exclusion des robots (REP) est l\’un des composants les plus fondamentaux et critiques du Web. Il permet aux propriétaires de sites Web d\’exclure les clients automatisés, par exemple les robots Web, d\’accéder à leurs sites – partiellement ou complètement.

Google dit avoir proposé un standard officiel sur Internet pour les règles incluses dans les fichiers robots.txt.

Ces règles, décrites dans le Protocole d\’Exclusion des Robots (REP), sont en effet une norme officieuse depuis 25 ans.

Bien que le Protocole d\’Exclusion des Robots a été adopté par les moteurs de recherche, il n\’est toujours pas officiel. Ce qui signifie qu\’il est ouvert à l\’interprétation par les développeurs. En outre, il n\’a jamais été mis à jour pour couvrir les cas d\’utilisation d\’aujourd\’hui.

Comme le dit Google, cela crée un défi pour les propriétaires de sites Web parce que la norme de facto rédigée de façon ambigüe rendait difficile l\’écriture correcte des règles.

Pour éliminer ce défi, Google a documenté la façon dont le REP (Protocole d\’Exclusion des Robots) est utilisé sur le Web moderne et l\’a soumis à l\’Internet Engineering Task Force (IETF) pour examen.

Google explique ce qui est inclus dans le projet:

Nous voulions aider les propriétaires et les développeurs de sites Web à créer des expériences incroyables sur Internet au lieu de nous soucier de la façon de contrôler les robots.

Avec l\’auteur original du Protocole, les webmasters, et d\’autres moteurs de recherche, nous avons documenté comment le Protocole d\’Exclusion des Robots est utilisé sur le web moderne, et l\’avons soumis à l\’IETF.

Le projet du REP proposé reflète plus de 20 ans d\’expérience dans le monde réel à s\’appuyer sur les règles de Robots.txt, utilisé à la fois par Googlebot et d\’autres robots majeurs, ainsi que par environ un demi-milliard de sites Web qui s\’appuient sur le Protocole d\’Exclusion des Robots.

Ces contrôles donnent à l\’éditeur le pouvoir de décider ce qu\’il aimerait voir explorer sur son site et potentiellement montrer aux utilisateurs intéressés.

Le projet ne change aucune des règles établies en 1994, il ne fait que mettre à jour le REP pour le Web moderne.

Voici quelques-unes des règles mises à jour :

  1. N\’importe quel protocole de transfert basé sur URI peut utiliser le fichier robots.txt. Il n\’est plus limité à HTTP. Peut être utilisé pour FTP ou CoAP aussi.
  2. Les développeurs doivent parser (faire une analyse syntaxique) d\’au moins les 500 premiers kibioctets (ou kilioctets) d\’un robots.txt.
  3. Un nouveau temps de mise en cache maximum de 24 heures ou une valeur de directive de cache si disponible. Ce qui donne aux propriétaires de sites Web la flexibilité de mettre à jour leurs robots.txt quand ils le veulent.
  4. Lorsqu\’un fichier robots.txt devient inaccessible en raison de le défaillances du serveur, les pages interdites connues ne sont pas explorées pendant une période assez longue.

Les différents Tweets de Google à propos de robots.txt

Le protocole robots.txt est très simple, mais incroyablement efficace : en spécifiant un user-agent et les règles pour lui, les webmasters ont un contrôle granulaire sur ce que les robots peuvent visiter.

Peu importe qu\’il s\’agit d\’une URL unique, d\’un certain type de fichier ou d\’un site entier, robots.txt fonctionne pour chacun.

Cela fait 25 ans, et le protocole d\’exclusion des robots n\’est jamais devenu un standard officiel. Bien qu\’il ait été adopté par tous les principaux moteurs de recherche, il ne couvrait pas tout : un code de statut 500 HTTP signifie-t-il que le robot peut explorer quoi que ce soit ou rien ?

Aujourd\’hui, nous annonçons qu\’après 25 ans à être un standard de facto, nous avons travaillé avec Martijn Koster (@makuk66), des webmasters, et d\’autres moteurs de recherche pour faire du Protocole d\’Exclusion des Robots un standard officiel !

En 25 ans, robots.txt a été largement adopté, en fait, plus de 500 millions de sites Web l\’utilisent !

Alors que user-agent (agent-utilisateur), allow (interdire), et disallow (autoriser) sont les lignes les plus populaires dans tous les fichiers robots.txt, nous avons également vu des règles qui ont permis à Googlebot d’ \ »Apprendre l\’émotion\ » ou \ »Assimiler le Pickled Pixie\ ».

Mais il y a aussi beaucoup de fautes de frappe dans les fichiers robots.txt.

La plupart des gens manquent des colonnes dans les règles, et certains les orthographient mal. Que devraient faire les robots avec une règle nommée « Dis Allow » ?

Pour aider les développeurs à créer des parsers qui reflètent les exigences du protocole d\’exclusion des robots, nous publions notre parser robots.txt en tant qu’open source !

Mis à jour pour couvrir tous les cas non prévus, l\’analyseur s\’assure que Googlebot n’explore que ce qu\’il est autorisé à explorer.

Google est entièrement ouvert aux commentaires sur le projet proposé et dit qu\’il s\’est engagé à bien faire les choses.