3 Outils de test de la Search Console améliorés pour plus de précision

Les outils de test publics de Search Console seront désormais alignés plus étroitement sur l’outil d’inspection d’URL, a annoncé Google. Continuer la lecture de « 3 Outils de test de la Search Console améliorés pour plus de précision »

Google déploie l’outil de test des données structurées sur Schema .org

Plusieurs mois après que a déclaré qu’il déprécierait son outil de test des données structurées, Schema.org a lancé son propre validateur de balisage de .

Google déploie l’outil de test des données structurées sur Schema.org

Schema.org a lancé son outil de validation de balisage Schema sur validator.schema.org.

Le validateur de balisage Schema vous aide à valider vos données structurées sur votre site qui sont utilisées à des fins générales, en dehors de l’outil de test de résultats enrichis de Google.

Ainsi, un remplacement de l’outil de test des données structurées de Google est maintenant disponible, près d’un an après l’obturation de l’original, sous l’appelation de “Validateur de balisage Schema” (Schema Markup Validator), et est disponible en version bêta ouverte.

Lancé comme un sous-ensemble sur le site officiel de Schema.org, le nouvel outil n’est pas une copie exacte 1:1 de l’outil de test de données structurés de Google, mais il est fonctionne de manière similaire.

Google a fermé l’outil d’origine en Juillet 2020, affirmant que toutes ses fonctionnalités ont été migrées vers l’outil de test des résultats enrichis

Ce n’était pas vrai à 100%, cependant, parce que le test des résultats enrichis se limite à tester le balisage de données structurées qui est officiellement pris en charge dans les résultats de recherche de Google.

Il existe de nombreux autres types de données structurées au-delà de ce que Google utilise pour rendre les résultats enrichis dans les pages de résultats, et l’outil de test des résultats enrichis n’offre pas la possibilité de tester pour ceux-ci.

Après avoir entendu les commentaires des SEOs qui se plaignaient de la perte de l’outil de test des données structurées, Google a décidé de le faire exister sur un nouveau domaine.

En Décembre 2020, Google avait en effet annoncé que son outil fermé passerait sur Schema.org en Avril 2021. Et c’est désormais chose faite.

Un outil de test des données structurées « recentré »

Google a fait prendre conscience aux utilisateurs que l’outil Schema.org serait une version recentrée de l’original.

Le validateur ded données Schema est recentré en ce sens qu’il teste strictement pour les propriétés de Schema.org. Voici ce qui est indiqué dans la documentation de l’outil :

L’outil est axé sur Schema.org. Dans le cas de JSON-LD, cela signifie qu’il n’entrera pas ou n’interprétera pas d\’autres contextes dans l\’URL.

Il est capable de tester pour toutes les propriétés Schéma, pas seulement celles prises en charge dans les résultats de recherche de Google.

Les propriétaires et les développeurs de site peuvent exécuter un test dans le validateur de Balisage Schema soit en soumettant une URL, soit en fournissant le code brut. Il teste les données structurées dans le HTML de la page, ainsi que le balisage injecté par JavaScript.

Les fonctionnalités du validateur de balisage Schema incluent :

  • Les extraits JSON-LD 1.0, RDFa 1.1, le balisage Microdata.
  • Affichage d\’un résumé du graphique de données structurées extrait.
  • Identification des erreurs de syntaxe dans le balisage.

Mis à part l’absence de la marque Google, l’utilisation du validateur se sent exactement comme l’utilisation de l’ancien outil de test des données structurées.

Après avoir migré vers le validateur de balisage Schema, les utilisateurs sont accueillis avec une invite familière pour entrer une URL ou un extrait de code.

 
Après avoir migré vers le validateur de balisage Schema, les utilisateurs sont accueillis avec une invite familière pour entrer une URL ou un extrait de code.

Les résultats sont livrés quelques secondes après avoir cliqué sur le bouton vert “Tester”. Voici un exemple d’un test d’une page d’Arobasenet.com :

Les résultats sont livrés quelques secondes après avoir cliqué sur le bouton vert “Tester”. Voici un exemple d’un test d’une page d’Arobasenet.com

D’après la documentation de référence de Schema, le Validateur du Balisage Schema est confirmé pour être le remplaçant de l’outil de test de Google :

Il est basé sur l’outil précédemment connu sous le nom de l’outil de test des données structurées de Google et est fourni par Google comme un service pour la communauté Schema.org.

Ceux qui utilisent l’outil dans le cadre de leur travail au quotidien doivent garder à l’esprit qu’il s’agit d’une bêta et des erreurs inattendues peuvent se produire.

Cela nous donne tout de même un autre outil que nous pouvons utiliser pour valider les données structurées que nous ajoutons à nos sites.

Il devrait vous donner plus d’outils dans votre ensemble d’outils pour soutenir votre site et débuguer des problèmes sur vos sites Web.

Source : Searchengineland

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

SEMrush s’apprête à entrer en Bourse

SEMrush, le fournisseur d’outils a annoncé qu’il entrera en bourse et que le titre sera coté à la Bourse de New York sous le ticker SEMR.

SEMrush s\'apprête à entrer en Bourse après avoir affiché une forte croissance

Mais SEMrush affirme que les changements à venir dans l’accès aux données et aux cookies tiers pourraient vraiment perturber ses activités.

SEMrush a donc annoncé lundi qu’il envisageait d’entrer en bourse dans le cadre d’un premier appel public à l’épargne de ses actions ordinaires de catégorie A. La société sera cotée à la Bourse de New York sous le symbole « SEMR ».

 

Les chiffres de SEMrush

 

La déclaration du Formulaire S-1 montre les derrière la plate-forme d’.

En 2020, les revenus de l’entreprise se sont élevés à un peu moins de 125 millions de dollars, en hausse par rapport aux 92 millions de dollars de 2019.

La marge brute était d’un peu moins de 95 millions de dollars en 2020, comparativement à un peu moins de 70 millions de dollars en 2019.

SEMrush dépense beaucoup d’argent en marketing, dépensant 54,5 millions de dollars en 2020 contre 41,7 millions de dollars en 2019. Cela a mené à une perte nette de 7 millions de dollars en 2020 et à une perte nette de 10 millions de dollars en 2019.

Environ la moitié de son chiffre d’affaires provient de clients américains.

L’entreprise a reçu un financement de 40 Millions de dollars en 2018.

En 2020, les revenus de SEMrush se sont élevés à un peu moins de 125 millions de dollars, en hausse par rapport aux 92 millions de dollars de 2019.

Les clients de SEMrush

 

SEMrush a déclaré qu’il avait 67.000 clients payants en 2020, contre plus de 54.000 en 2019.

N’oubliez pas qu’en 2010, l’entreprise venait de dépasser les 1.000 clients et qu’en 2015 elle avait franchi la barre des 15.000 clients.

D’autre part, la société a déclaré qu’elle avait 404.312 clients gratuits actifs en 2020.

La société a également déclaré qu’elle a servi plus de 300.000 étudiants et a délivré plus de 130.000 certificats de tous les temps par l’intermédiaire de son Académie SEMrush, une plate-forme d’apprentissage en ligne.

Voici un tableau dans les dépôts qui montre les revenus annuels d’abonnement par cohorte :

 

Voici un tableau dans les dépôts qui montre les revenus annuels d’abonnement par cohorte

Les préoccupations

 

SEMrush a énuméré ses facteurs de risques, voici quelques-uns de ce qu’ils ont énuméré :

  • Nos résultats d’affaires et d’exploitation seront lésés si nos clients payants ne surclassent pas leurs abonnements premium ou s’ils n’achètent pas de produits supplémentaires.
  • Si nous n’attirons pas de nouveaux clients potentiels grâce à des efforts de marketing non rémunérés et rémunérés, si nous ne les inscrivons pas aux essais gratuits et si nous ne les convertissons pas en clients payants, nos résultats d’exploitation seront lésés.
  • Le marché dans lequel nous opérons est extrêmement concurrentiel, et si nous ne sommes pas concurrentiels efficacement, notre capacité d’attirer et de retenir des clients gratuits et payants pourrait être affectée, ce qui aurait un impact négatif sur nos activités et nos résultats d’exploitation.
  • Nos produits dépendent de sources de données tierces accessibles au public et payantes, et si nous perdons l’accès aux données fournies par ces sources de données ou aux conditions auxquelles nous obtenons un tel accès deviennent moins favorables, notre entreprise pourrait en souffrir.
  • Les changements apportés par les moteurs de recherche, les sites de réseautage social et d’autres services tiers à leurs configurations ou politiques technologiques sous-jacentes concernant l’utilisation de leurs plateformes et/ou technologies à des fins commerciales, y compris les politiques anti-spam peuvent limiter l’efficacité de certains de nos produits, outils et modules supplémentaires et, par conséquent, notre entreprise peut en souffrir.

Autres produits

 

SEMrush a déclaré qu’il a plus de 50 outils dans son écosystème et qu’il a l’intention de continuer à ajouter à son portefeuille par le biais d’acquisitions. La société a récemment acheté Prowly, un service de relations publiques, en Septembre dernier.

Aperçu concurrentiel.

Rand Fishkin, le fondateur de Moz et ancien PDG qui a quitté l’entreprise en 2018, a partagé ses réflexions sur cette nouvelle. Rares sont ceux qui connaissent l’espace comme lui. Il a dit que c’est “vraiment impressionnant ce qu’ils ont fait au cours des 6 dernières années”.

SEMrush est passé de la 3ème/4ème place dans le logiciel SEO à la 1ère place du chiffre d’affaires et du taux de croissance.

Ahrefs est #2 à ~$55-75M, avec Moz en 3ème (~$45M) à un taux de croissance plus lent (après avoir mené pendant des années avant).

Il a noté que ce sont des suppositions aux autres chiffres de l’entreprise, mais ses suppositions seraient meilleures que la plupart.

Si vous êtes un spécialiste du marketing utilisant ses outils gratuits, cela montre également combien il est important pour SEMrush de vous convertir en un abonné payant.

Enfin, la croissance en 2020 est également un indicateur de la mesure dans laquelle les spécialistes du marketing ont adopté le marketing de recherche pendant la pandémie covid-19.

Source : Searchengineland

Google dit classer les pages Web, pas les sites Web

C’est une phrase simple qui répond à tant de questions sur le référencement Web, mais suscite beaucoup de discussions et de débats : classe les pages Web, pas les sites Web.

Google classe les pages Web, pas les sites Web

Eh bien, c’est une discussion complètement différente, mais heureusement, il y en a eu beaucoup, beaucoup, beaucoup d’autres qui ont dit la même chose : Google classe les pages Web, pas les sites Web.

Une fois que vous considérez la puissance de cette déclaration apparemment modeste, vous verrez comment la garder à l’esprit pendant pendant que vous développez votre stratégie de recherche organique peut simplifier bon nombre de vos décisions.

Qu’est-ce que cela signifie vraiment ?

Ecoutez, nous n’avons pas besoin de trop compliquer cela ici, mais allons dans la façon dont cette phrase secoue les choses et peut parfois bouleverser vraiment certains collègues pros du référencement.

Fondamentalement, « Google classe les pages Web, pas les sites Web », signifie que Google traite chaque page Web que ses robots explorent et indexent comme son propre petit monde autonome de contenu, de code et de liens.

Alors que d’autres pages Web influencent ce monde, où ce monde réside dans la grande galaxie n’a pas d’importance pour Google.

Par conséquent, autant que le ranking et l’indexation avance, cette page Web pourrait vivre sur n’importe quel domaine qu’elle préfère, et Google la traiterait de la même manière.

Pourquoi certains pros du détestent cette phrase apparemment innocente ?

Tout simplement parce que son existence pourrait briser de nombreux concepts qui leur sont chers – et parce que leur entreprise ou agence dépend des gens qui croient que leurs concepts existent.

Ne nous concentrons pas trop sur ce côté des choses.

Au lieu de cela, nous allons regarder comment cette idée explique tant de choses sur la façon dont nous savons que fonctionne le classement sur Google.

Nous allons décomposer tout cela en trois domaines qu’on pourrait utiliser les audits SEO (et bien plus encore) : Contenu, Conception des pages Web, et Autorité (backlinks).

Contenu

Dès lors qu’il s’agit de la zone de contenu du SEO, on peut se poser la question de savoir : « Les blogs sur différents sujets dans le même blog nuisent-ils à mon classement ? »

Chaque jour, vous lisez probablement quelques-uns des meilleurs exemples sur pourquoi les blogs (ou toute autre écriture pour publication sur le web

Des dizaines de sujets, vivant en harmonie sur le même domaine, sans se faire un peu de mal les uns aux autres. Pourquoi ?

Tout simplement parce que Google classe les pages Web, pas les sites Web.

Si vous y pensez, nous ne voudrions pas vivre dans un monde où Google classe les pages Web basées sur un seul thème de l’ensemble du site. C’est d’ailleurs ce que Google vient officiellement de mettre en place avec “Passage Indexing”.

Comme Joshua Hardwick d’Ahrefs l’a expliqué un jour :

Ce n’est pas parce que votre entreprise fabrique des vitraux que chaque page de votre site doit se classer pour la requête « vitraux ».

Design des pages Web

Si vous avez été dans le jeu de l’ pour les moteurs de recherche pendant une durée quelconque, vous avez probablement entendu au moins une fois le débat sur « sous-domaine ou sous-répertoire ».

C’est une discussion qui revient au moins une fois tous les deux ans.

Chaque année, Google clarifie. Peu importe. Pourquoi ça n’a pas d’importance ?

Parce que Google classe les pages Web et non les sites Web : par conséquent, ces pages Web peuvent vivre soit dans un sous-domaine, soit dans un sous-répertoire, et Google les traiterait de la même manière.

Encore une fois, nous ne voulons pas vivre dans un monde où les erreurs d’une page sur votre site web ont un impact sur l’ensemble du site Web.

Par exemple, vous avez probablement rencontré des cas où l’une de vos pages Web est plus lente que toutes les autres pages. Cette seule page ne fait pas chuter le ranking de tout votre site Web, mais juste cette page. Et c’est bien cela le principe inclut dans les Core Web Vitals.

Pour sa part, Barry Schwartz déclare à ce propos :

Regardons peut-être la vitesse de chargement de la page, Google pourrait avoir des mesures sur la page Web A sur votre site, car il a suffisamment de données de ses différentes sources pour attribuer un score individuel à cette URL à des fins de classement.

Mais ensuite, vous publiez une nouvelle page et cette page n’a pas assez de mesures pour Google pour noter la page en termes de vitesse de chargement de la page. Ainsi Google regarde le score global de l’ensemble du site en termes de vitesse de page et peut-être qu’il attribue ce score global du site à cette nouvelle URL individuelle. C’est un exemple.

Mais il existe d’autres exemples où chaque URL d’un site peut se voir attribuer des scores ou des mesures au niveau global du site. Je veux dire, nous le voyons tout le temps avec les Core Updates, où un déploiement de impacte pratiquement d’une manière négative ou positive l’ensemble du site, chaque page Web à travers l’ensemble du site.

Il est évident pour tous ceux qui ont été touchés par une mise à jour du coeur de l’algo (Core Update) que Google ne classe pas les pages Web en fonction des mesures globales du site. Mais je crois que la métrique globale du site est attribuée sur une URL par URL, une page par page, sur la base d’un site.

Mais avec quelques mesures de qualité, comme les Core Updates ce sont des signaux de classement ou des scores si pondérés que l’ensemble du site, chaque page de ce site, est touché.

 

Le débat est donc lancé…

 

Autorité

Commençons par cet échange par Tweets interposés entre John Mueller et des SEOs :

Alors, comment pouvons-nous mettre de côté ce va-et-vient répétitif ? Bien sûr, Google regarde les choses à un niveau plus large que les URL, mais nous n’utilisons certainement pas l’Autorité de domaine (DA). Pourquoi est-ce si controversé ?

Bien sûr, nous classons la page, c’est là que le contenu se trouve.

Nous avons aussi d’autres signaux qui sont à un niveau plus large – il n’y a pas de complot. Panda, Penguin, même des choses de base comme le géociblage, la recherche en toute sécurité, les paramètres de la Search Console, etc.

Bref, l’une des stratégies de référencement les plus populaires et les plus efficaces de nos jours est le siloing ou le contenu en silo.

Le processus, également connu sous le nom de modèle pilier-cluster, est basé sur l’idée de créer un thème « hub » ou « pilier » qui pointent des liens vers d’autres sous-pages ou « clusters » de sous-topiques qui fournissent plus de détails sur le contenu du concentrateur / pilier.

Une des raisons pour lesquelles cette stratégie fonctionne si bien, c’est parce qu’elle permet une méthode facile pour transmettre l’autorité acquise à partir des liens entrants vers vos hubs thématiques principaux qui les retransmettent aux sous-topiques (ou vice versa).

Pourquoi cela fonctionne-t-il si bien ?

Bien que ces liens qui sont internes peuvent ne pas être aussi puissants que les liens externes (backlinks), ils possèdent encore beaucoup de pouvoir parce que Google les voit tous comme des pages individuelles avec leur propre autorité.

Parfois, je vais voir quelqu’un prétendre que cette stratégie de contenu contribue également à créer une « autorité d’actualité » globale pour l’ensemble de votre site Web, mais étant donné l’assertion « page Web, pas site Web », règle confirmée par Google, nous savons que ce n’est pas vrai.

Cela nous amène au concept d’une autorité globale pour l’ensemble de votre site Web, ou l\’autorité de domaine si vous voulez.

Alors que certaines entreprises d’outils SEO ont créé un nom pour eux-mêmes, poussant ce concept, Google sera le premier à vous dire qu’il n’existe tout simplement pas.

Maintenant, vous pouvez demander : si cette mesure d’autorité à l’échelle du site n’existe pas, pourquoi les stratégies de création de liens spammy fonctionnent si bien ?

Parce que ça ne marche pas.

En effet, la seule mesure qui montre que ce « hack » est efficace est une mesure d’autorité de niveau de domaine influencée par d’autres domaines avec une mesure de niveau de domaine élevé, pas les changements de classement réels.

« Pages Web, pas des sites Web » révèle toute une sous-économie du commerce SEO basé sur un concept totalement faux.

Ne gaspillez pas votre argent en essayant de changer une mesure qui n’a de valeur que pour les personnes qui essaient de vendre cette mesure à d’autres.

Donc oui, Google classe les pages Web individuelles, mais les classements de ces pages Web dans Google peuvent être grandement influencés d’une manière énorme par les facteurs globaux du site et la qualité du site.

Dixit Barry Schwartz…

Source : Searchenginejournal

Microsoft intègre Microsoft Clarity à Bing Webmaster Tools

Microsoft a annoncé que vous pouvez désormais accéder à Clarity, le nouvel outil Web analytics gratuit de Microsoft, au sein de Webmaster Tools. 

Microsoft intègre Microsoft Clarity à Bing Webmaster Tools

Pour la petite histoire, c’est l’équivalent de Google Analytics avec de nombreuses fonctionnalités très intuitives et intéressantes.

Il y a donc une nouvelle section dans Bing Webmaster Tools baptisée « Microsoft Clarity Beta » tout en bas de la colonne de navigation gauche. Et à partir de là, vous pouvez rapidement passer par les étapes pour configurer Microsoft Clarity pour votre site Web.

Microsoft présente ainsi son service Microsoft Clarity :

Microsoft Clarity est un produit analytics gratuit conçu pour aider les gestionnaires de sites Web à améliorer leurs expériences de site Web en comprenant mieux le comportement des visiteurs du site.

Avec Clarity, nous avons construit un ensemble d’outils qui aident les personnes qui gèrent des sites Web à prendre des décisions plus éclairées sur les modifications qu’ils devraient apporter à leurs sites. Clarity vous montre quelles parties de votre site web obtiennent le plus et le moins d’engagement et il fournit une interface inestimable pour le débogage.

Clarity vous fournit les outils SEO nécessaires pour prendre des décisions éclairées au sujet des modifications apportées à votre site Web à l’aide de preuves réelles, ce qui vous permet de le faire d’une manière qui contribue au respect de la vie privée et de la sécurité des données de vos utilisateurs.

Alors quoi de neuf dans Microsoft Clarity ?

Bing Webmaster Tools a donc ajouté une section pour ajouter ou accéder rapidement à Microsoft Clarity dans le portail.

Si vous n’avez pas ajouté votre site à Clarity, vous pouvez le faire directement depuis Bing Webmaster Tools ici.

Ce que l’on sait de cet outil , c’est que Microsoft Clarity est conçu de sorte que toute personne qui essaie d’améliorer son expérience de site Web peut l’utiliser. Microsoft l’a conçu pour être simple à utiliser pour les développeurs et les non-développeurs.

Si vous voulez comprendre vos utilisateurs sans avoir à analyser l’océan de données qui peuvent être dérivées de l’exploitation d’un site Web, Clarity est votre outil, dixit Microsoft.

Microsoft Clarity est conçu pour avoir un impact très faible sur les temps de chargement des pages, de sorte que vous pouvez vous assurer que les utilisateurs naviguant vers votre site n’auront pas à attendre que les pages se chargent.

En outre, Microsoft n’a pas placé de limite sur votre trafic, donc si vous obtenez 10 visiteurs par jour ou 1.000.000 par jour, Clarity sera en mesure de gérer votre trafic sans frais supplémentaires pour vous.

Aujourd’hui, Microsoft Clarity fournit plusieurs fonctionnalités clés, y compris les heatmaps et le détail des sessions, ainsi qu’un tableau de bord des insights.

  1. Voir quels clics avec vos utilisateurs à l’aide de Heatmaps : Les Heatmaps fournissent un moyen visuel d’examiner un grand nombre d’interactions utilisateur et ils se présentent sous deux formes: clickmaps et scrollmaps. Ces deux vues emballent tout un tas de données dans un rapport actionnable et facile à comprendre.Les Clickmaps vous indiquent quel contenu sur votre page est important pour vos utilisateurs, tandis que les Scrollmaps montrent si vos utilisateurs voient ce qui est important.

    Les Clickmaps vous indiquent quel contenu sur votre page est important pour vos utilisateurs, tandis que les Scrollmaps montrent si vos utilisateurs voient ce qui est important.

    Les Clickmaps vous indiquent quel contenu de page web les utilisateurs interagissent le plus avec. Les zones marquées en rouge ont la fréquence la plus élevée de clics et sont généralement centrées autour des points focaux.

    Ceux-ci devraient s’aligner sur les parties de votre site sur lesquelles vous souhaitez que les utilisateurs cliquent et, s’ils ne le font pas, vous devriez envisager de modifier votre page pour les aligner.

  2. Alignez vos attentes sur les observations avec la lecture de session : Tout le monde a une opinion sur la façon dont les gens utilisent leur site Web, mais Clarity vous donne les outils pour prendre des décisions axées sur les données à la lumière de ce qui se passe réellement sur votre site. Avec Clarity, vous prendrez des décisions optimales sur les nouvelles fonctionnalités du site.

    fonctionnalités du site.

    Le mécanisme de filtrage que vous pouvez utiliser pour faire des groupes d’enregistrements vous permet d’obtenir de la précision sur les enregistrements à sélectionner.

    Microsoft a également utilisé l’apprentissage automatique pour découvrir de nouveaux modèles dans les enregistrements de session tels que les « Rage Clicks », « Dead clicks » et « défilement excessif », et vous pouvez également utiliser ces classifications pour filtrer vos sessions.

    Microsoft a également utilisé l’apprentissage automatique pour découvrir de nouveaux modèles dans les enregistrements de session tels que les « Rage Clicks », « Dead clicks » et « défilement excessif », et vous pouvez également utiliser ces classifications pour filtrer vos sessions.

    Les « Rage Clicks » sont un modèle comportemental où un utilisateur clique plusieurs fois sur une partie de votre page qu’il pense devrait avoir un hyperlien quelque part, mais ne l’a pas.

    Ces clics répétés peuvent être un bon indicateur des parties non intuitives de votre page ou vous aider à identifier les composants d’interface utilisateur qui ne fonctionnent pas comme ils le devraient.

  3. Utilisez le tableau de bord Insights pour afficher les performances de votre site Web : Microsoft dit fournir un tableau de bord des statistiques globales pour vous aider à obtenir une compréhension globale du trafic sur votre site.En un coup d’œil, vous serez en mesure de voir combien d’utilisateurs ont cliqué sur des liens inexistants ou combien de personnes ont fait défiler de haut en bas d’une page à la recherche de quelque chose qu’ils ne pouvaient pas facilement trouver.

    Vous pouvez également voir des choses comme le nombre d’erreurs javascript simultanées qui se produisent à travers vos clients ou combien de temps l’utilisateur moyen passe à naviguer sur votre site.

    Microsoft dit fournir un tableau de bord des statistiques globales pour vous aider à obtenir une compréhension globale du trafic sur votre site.

Bref, plus de données, plus d’analyses, plus d’intégration entre ces plateformes de données est une victoire pour les spécialistes du marketing et du référencement Web.

Visitez Microsoft Clarifty et ajoutez votre site pour l’essayer.

Source : Microsoft

Google Search déploiera l’Expérience de page en Mai 2021

En mai dernier, a annoncé que les signaux d’expérience de page seraient inclus dans le classement de recherche Google.

Google Search déploiera l’Expérience de page en Mai 2021

Ces signaux web essentiels mesurent la façon dont les utilisateurs perçoivent l’expérience d’interagir avec une page Web et contribuent à son travail continu pour s’assurer que les gens obtiennent les expériences les plus utiles et agréables du Web.

Au cours des derniers mois, dit avoir constaté une augmentation médiane de 70% du nombre d’utilisateurs qui engagent avec les données de Lighthouse et Page Speed Insights, et de nombreux propriétaires de sites utilisant le rapport “Signaux Web Essentiels” () de la Search Console pour identifier les possibilités d’amélioration.

Aujourd’hui, il annonce que les signaux d’expérience de page dans le classement se déploieront finalement en Mai 2021.

Rappelons que lorsque Google a évoqué les signaux web essentiels Mai 2020, il a aussi déclaré que les changements annoncés ne se produiront pas avant l’année prochaine (2021), et Google offrira un préavis d’au moins 6 mois avant qu’ils ne soient mis en œuvre.

Et donc, les 6 mois de préavis pour se préparer commencent maintenant jusqu’en Mai 2021, .

Les nouveaux signaux d’expérience de page combinent les Core Web Vitals avec ses signaux de recherche existants, y compris la compatibilité avec le mobile, Safe-Browsing, la sécurité HTTPS et les consignes sur les publicités interstitielles intrusives

Nous annonçons que les signaux de classement de l’expérience de page pour Google Search seront lancés en Mai 2021.

Cela combinera les Signaux Web Essentiels et les signaux antérieurs liés à l’UX (Expérience utilisateur).

Le changement pour que le contenu non-AMP puisse apparaître dans la fonctionnalité mobile “A la une” (Top Stories) mobile dans Search sera également déployée en Mai 2021. 

Toute page (y compris articles de blogs, NDLR) qui répond aux stratégies de contenu sera éligible et Google va prioriser les pages avec une grande expérience de page, qu’elle soit implémentée à l’aide de l’AMP ou de toute autre technologie Web, lors du classement des résultats.

En plus des mises à jour de synchronisation décrites ci-dessus, Google Search prévoit de tester un indicateur visuel qui met en évidence les pages dans les résultats de recherche qui ont une grande expérience de page.

Une nouvelle façon de mettre en évidence de grandes expériences dans Google Search

Google dit croire que fournir des informations sur la qualité de l’expérience d’une page Web peut être utile pour les utilisateurs dans le choix du résultat de recherche qu’ils veulent visiter.

Sur les résultats, l’extrait ou l’aperçu d’image permet aux utilisateurs de connaître les informations qu’une page peut fournir. Les indicateurs visuels sur les résultats sont une autre façon de faire de même, et nous travaillons sur un qui identifie les pages qui ont satisfait à tous les critères d’expérience de page.

Google prévoit de tester cela bientôt et si les tests sont couronnés de succès, les indicateurs visuels seront aussi déployés en Mai 2021 et il va partager plus de détails sur les progrès de cela dans les prochains mois.

Les outils dont les éditeurs ont besoin pour améliorer l’expérience de page

Pour se préparer à ces changements, Google a publié une variété d’outils SEO que les éditeurs peuvent utiliser pour commencer à améliorer leur expérience de page.

La première étape consiste à faire une vérification à l’échelle du site de vos pages pour voir où il y a place à l’amélioration. Le rapport de la Search Console pour les signaux web essentiels vous donne un aperçu de la façon dont votre site se porte et un profond aperçu des problèmes.

Une fois que vous avez identifié des opportunités, Page Speed Insights et Lighthouse peuvent vous aider à résoudre tous les problèmes que vous avez découverts.

En outre, AMP est l’un des moyens les plus faciles et rentables pour les éditeurs qui cherchent à atteindre de grands résultats d’expérience de page. D’après l’étude effectuée par l’équipe de l’AMP, la majorité des pages de l’AMP réalisent d’excellentes expériences de page.

Si vous êtes éditeur d’AMP, consultez le Guide de l’expérience de page AMP récemment lancé, un outil de diagnostic qui fournit aux développeurs des conseils exploitables.

Pour sa part, Google assure qu’il continue à prendre en charge le contenu AMP dans Google Search. Si vous publiez une version AMP de votre contenu, Google Search sera lié à cette version AMP optimisée par le cache pour améliorer la livraison aux utilisateurs, tout comme c’est le cas aujourd’hui.

Conclusion

Comme il le dit lui-même, la mission de Google Search est d’aider les utilisateurs à trouver les sites les plus pertinents et de qualité sur le Web.

L’objectif de ces mises à jour est donc de mettre en évidence les meilleures expériences et de s’assurer que les utilisateurs peuvent trouver les informations qu’ils recherchent.

Nos travaux sont en cours, c’est pourquoi nous prévoyons d’incorporer plus de signaux d’expérience de page à l’avenir et de les mettre à jour sur une base annuelle.

Google espère que les outils et les ressources qu’il a fournis vous facilitent la création de grands sites Web et créeront ainsi un écosystème Web que les utilisateurs adorent.

Source : Google

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

.tb_button {padding:1px;cursor:pointer;border-right: 1px solid #8b8b8b;border-left: 1px solid #FFF;border-bottom: 1px solid #fff;}.tb_button.hover {borer:2px outset #def; background-color: #f8f8f8 !important;}.ws_toolbar {z-index:100000} .ws_toolbar .ws_tb_btn {cursor:pointer;border:1px solid #555;padding:3px} .tb_highlight{background-color:yellow} .tb_hide {visibility:hidden} .ws_toolbar img {padding:2px;margin:0px}

Microsoft Bing lance Site Explorer pour vérifier le SEO du site

Site Explorer ou l’Explorateur de site de Bing Webmaster Tools offre une vue unique de la façon dont voit votre site.

Microsoft Bing lance Site Explorer pour vérifier le SEO du site

Cet outil SEO reflète la plupart des URL que Microsoft Bing a vu sur le web, y compris les redirections, les liens brisés, ou ceux bloqués par robots.txt, organisés d’une manière Explorer-like.

Ainsi, en vous donnant la flexibilité de naviguer dans chaque dossier et les URL contenues à l’intérieur d’eux pour comprendre, déboguer et modifier votre structure de site au besoin.

Nous avons publié Site Explorer aujourd’hui ! Utilisation étonnante depuis notre release. Alors, avez-vous exploré le SEO de votre site ? Observez à quelle vitesse cela inclut les grands sites par rapport à l’expérience précédente et plus utile.

Explorez dans une expérience d’éclairage rapide, chaque dossier et URL, à l’intérieur de la structure de votre site et accédez aux informations de crawl pertinentes à partir des analyses récentes de votre site avec des clics, des impressions et des nombres de backlinks :

Explorez dans une expérience d’éclairage rapide, chaque dossier et URL, à l’intérieur de la structure de votre site et accédez aux informations de crawl pertinentes à partir des analyses récentes de votre site avec des clics, des impressions et des nombres de backlinks
  1. Indexées : Nombre d’URL qui ont été indexées avec succès à l’intérieur de ce dossier.
  2. Erreur : Les erreurs d’exploration critiques qui ont conduit à ne pas indexer les URL.
  3. Avertissement : Il peut s’agir d’URL ayant des problèmes de lignes directrices, de problèmes de crawl temporaire ou de blocage de robots.txt, etc. Les webmasters doivent vérifier périodiquement une augmentation/diminution de ces nombres.
  4. Exclues :
    Exclues : Les URL avec des violations de spam, classement bas, etc.

La fonctionnalité donne également aux webmasters des options pour inspecter n’importe quelle URL via l’outil d’inspection d’URL Microsoft Bing, pour demander l’indexation pour n’importe quelle URL spécifique, et pour tester n’importe quelle URL à l’intérieur de son outil Testeur de robots.txt.

Rappelons à ce stade que Bing Webmaster Tools offre déjà Site Scan qui permet de faire un audit SEO du Site.

Bref, pour offrir plus de flexibilité et de navigation facile, les webmasters peuvent trier leurs dossiers et URL par ordre alphabétique ou par clics (par défaut) ou par impressions.

Microsoft Bing dit espérer que cet outil puissant permettra aux webmasters et aux experts SEO de scruter leurs URL en fonction de diverses fonctionnalités et de déboguer ou d’y répondre en fonction de la nécessité d’améliorer leur classement sur les résultats de recherche.

Source : Microsoft Bing

L’outil d’inspection d’URL de Bing aide à résoudre les problèmes SEO

Au fil du temps, Webmaster Tools tente de se mettre au niveau de Search Console. Ainsi, après son outil de test du fichier robots.txt

L’outil d\'inspection d\'URL de Bing aide à résoudre les problèmes SEO

L’outil d’inspection d’URL de Bing Webmaster Tools est un outil puissant qui vous permet de vérifier et de prendre les actions nécessaires sur les URL sous le domaine sélectionné.

Non seulement cet outil affichera en détail les problèmes de crawling, l’état de l’indexation, les erreurs de référencement et les informations de balisage aux webmasters, mais il inclura également les messages appropriés au cas où l’URL n’est pas affichée ou ne peut pas être affichée dans les résultats de recherche Bing et des suggestions sur les actions requises pour résoudre la même chose.

L’outil d\’inspection d’URL de Bing Webmaster Tools est un nouvel outil puissant qui permet aux webmasters de vérifier et de prendre les mesures nécessaires sur leurs URL pour l’analyse, l’indexation, les détails SEO et le balisage et d’autres erreurs.

Fournir des réponses aux problèmes de référencement courants

Le nouvel outil de Bing fournit des réponses directes et des données qui non seulement aident à diagnostiquer les problèmes d’indexation, mais fournissent également des données pour résoudre les problèmes.

Ce qui est remarquable à propos de l’outil, c’est qu’il est véritablement conçu pour résoudre les problèmes liés au SEOSEO).

En outre, l’outil peut inspecter une URL et donner des commentaires sur elle pour l’indexation, le SEO et les questions liées au balisage tout en ne l’indexant pas.

Cela signifie que, tant que l’URL peut être explorée, une URL peut être dans un environnement de mise en scène et soumise pour des tests sans l’avoir indexée.

Analyse, indexation, problèmes de référencement

  • Les problèmes d’exploration (crawling)
  • L’état de l’indexation
  • Les erreurs SEO
  • Des informations sur le balisage de

Pour commencer, entrez simplement une URL pour l’inspection.

Les systèmes Bing Webmaster Tools analyseront et inspecteront la page pour fournir divers détails ainsi que des messages appropriés et des éléments d’action pour l’amélioration potentielle de la page.

Les principales fonctionnalités fournies sont les suivantes :

  1. Détails de l’indexation : Cette carte affiche l’état de l’indexation et les détails de l’URL. Il comprend des détails sur chaque étape, c’est-à-dire quand et où l’URL a été découverte, crawlée et indexée avec l’option de voir un format HTML et les détails de réponse HTTP de la même.
  2. Détails SEO : Cette section fournit des détails aux webmasters sur les erreurs et les avertissements basés sur le SEO sur leur page Web.Avec environ 15 meilleures pratiques SEO en place, l’outil fournit une analyse détaillée des erreurs et met en évidence le code HTML correspondant et des étapes sur la façon de les corriger.

    On peut également trouver les erreurs mises en évidence sur la page Bing numérisée comme elle apparaîtrait sur le web.

  3. Détails du balisage de données : Vérifie la disponibilité et la mise en œuvre de certains langages de balisage de données structurées d’une manière qui permet à Bing de lire correctement les informations du site.
  4. Vérification en direct :particulièrement utile dans l’étude du contenu lorsque leur site peut avoir été compromis et envoie par exemple un HTML différent aux crawlers du moteur de recherche par rapport aux utilisateurs.

Bing fournit des outils SEO utiles

 

L’outil d’inspection de l’URL de Bing Webmaster Tools aide à résoudre de nombreux problèmes SEO et techniques.

Il rejoint une famille croissante d’outils utiles liés au SEO qui sont explicitement conçus pour aider les pages à mieux se classer. Il est prometteur de voir comment Bing embrasse la communauté du marketing en ligne en fournissant ces outils utiles.

La recherche ne se fait pas isolément. Il s’agit d’un partenariat entre les moteurs de recherche et les sites qu’ils classent dans les résultats de recherche.

Des outils comme celui-ci démontrent l’engagement de Bing envers l’écosystème de la recherche en ligne.

Bing Webmaster Tools lance un nouveau Testeur de robots.txt

a annoncé un testeur amélioré du fichier robots.txt avec de nouvelles fonctionnalités qui améliorent les tests et le diagnostic du fichier robots.txt.

Bing Webmaster Tools lance un Testeur de fichier robots.txt amélioré

 

Le testeur de fichier Robots.txt de Webmaster Tools répond à un besoin important parce que se tromper sur un robots.txt peut entraîner des résultats inattendus. La production d’un fichier robot.txt parfait est essentielle et une priorité absolue pour le référencement.

Un fichier robots.txt est l’une des rares façons dont un éditeur dispose pour exercer un contrôle sur les moteurs de recherche.

Comme le dit Microsoft Bing, depuis l’aube de l’ère du moteur de recherche, les webmasters ont été à la recherche d’un outil fiable et efficace pour favoriser et contrôler leur relation avec les robots web/crawlers /spiders.

Alors que le protocole d’exclusion des robots donne le pouvoir d’informer les robots web et les crawlers quelles sections d’un site Web ne doivent pas être traitées ou scannées, le nombre croissant de moteurs de recherche et de paramètres ont forcé les webmasters à rechercher leur fichier robots.txt parmi les millions de dossiers sur leurs serveurs d’hébergement, les éditant sans conseils et enfin supprimant les Heads alors que le problème de ces crawler indésirables persiste encore.

C’est pourquoi Bing déclare dans son communiqué :

Chez Bing, nous comprenons cette frustration de nos utilisateurs et nous avons donc mis à jour notre nouvel outil Testeur de robots.txt amélioré.

Le testeur de robots.txt aide les webmasters non seulement à analyser leur fichier robots.txt et à mettre en évidence les problèmes qui les empêcheraient d’être crawlés de manière optimale par Bing et d’autres robots; mais, les guide également étape par étape de la récupération du dernier fichier au téléchargement du même fichier à l’adresse appropriée.

Les webmasters peuvent soumettre une URL à l’outil de test de robots.txt et il fonctionne comme Bingbot et BingAdsBot, pour vérifier le fichier robots.txt et vérifier si l’URL a été autorisée ou bloquée en conséquence.

Les webmasters peuvent soumettre une URL à l’outil de test de robots.txt et il fonctionne comme Bingbot et BingAdsBot, pour vérifier le fichier robots.txt et vérifier si l’URL a été autorisée ou bloquée en conséquence.

Non seulement cela, mais la fonctionnalité de test vérifie l’URL que nous avons soumis par rapport au contenu de l’éditeur et donc, une fois que les modifications sont apportées dans l’éditeur, vous pouvez facilement et instantanément retester l’URL pour vérifier les erreurs.

Le système vérifie les instructions autoriser/bloquer pour les agents utilisateurs respectifs et affiche le fichier robots.txt dans l’éditeur avec 4 variantes, c’est-à-dire :

Le webmaster peut modifier le fichier txt et/ou télécharger le même pour être mis à jour hors connexion. S’il y a eu des modifications au fichier robots ailleurs et mis à jour, le webmaster peut utiliser la dernière option Fetch pour obtenir le dernier fichier robots de la propriété.

Le webmaster peut modifier le fichier txt et/ou télécharger le même pour être mis à jour hors connexion.

L’option de téléchargement fournit un processus étape par étape de mise à jour du fichier qui comprend le téléchargement du fichier modifié, le téléchargement du même sur la racine des domaines qui peut être vérifié pour une version en direct et enfin demander à Bing de mettre à jour le même.

Source : Microsoft Bing

10 Alternatives à Google Analytics

Vous cherchez une alternative (ou un ajout) à Google Analytics ? Peut-être que vous êtes préoccupés par la vie privée. Peut-être aussi que vous êtes submergés par la façon d’utiliser Google Analytics. Peut-être que vous aimez juste essayer de nouveaux .

10 Alternatives à Google Analytics

Dans tous les cas, lisez la suite pour voir si quelque chose d’autre convient à vos besoins, en gardant bien en tête que est toujours gratuit.

Aussi, ces outils Analytics peuvent ne pas être en mesure d’offrir toutes les fonctionnalités de Google Analytics, mais bon, peut-être que vous n’avez de toute façon pas besoin de tout ce que Google offre dans son outil Analytics.

Tous outils analytics offrent également un essai gratuit ou un forfait gratuit.

1. Matomo

Matomo, anciennement Piwik, vous permet d’importer des données historiques de Google Analytics et sert d’outil de service analytics web complet.

Il vous fournit des cartes heatmaps des tests A/B, des entonnoirs et des objectifs, et de nombreuses autres fonctionnalités d’ des conversions.

Leur slogan est « Ethical Analytics, Powerful Insights » et ils promettent la propriété à 100% des données et la protection de la vie privée des utilisateurs. Matomo déclare sur son site :

Vous pourriez perdre la confiance de vos clients et risquer de nuire à votre réputation si les gens apprennent que leurs données sont utilisées à des « fins propres » à Google.

En choisissant l’alternative éthique, Matomo, vous ne ferez pas de sacrifices en matière de confidentialité ou ne compromettez pas votre site. Vous pouvez même utiliser Matomo sans avoir besoin de demander le consentement.

Il y a la possibilité d’héberger Matomo sur vos propres serveurs (notamment WordPress) si vous êtes préoccupés par les données sensibles, mais ils offrent également l’hébergement basé sur le cloud sur les serveurs situés en France.

Bien qu’il ne soit pas encore disponible au moment de cette rédaction, il y a des intégrations prévues avec Google Ads, Bing Ads, et Facebook Ads. Il n’y a pas non plus de limites de données avec Matomo.

Il y a un essai gratuit et des prix pour le produit à partir de 19 euros par mois pour l’utilisation Lite (Cloud Essential

2. Woopra

Woopra est un outil analytics qui fournit des informations pour les équipes de produits, de marketing, de ventes et de support car il suit les utilisateurs tout au long de leur expérience sur le site.

Il dispose de fonctionnalités de suivi personnalisées et de plus de 50 intégrations avec des produits tels que Salesforce, Google Ads, Google Drive, Hubspot et Campaign Monitor.

Il peut également fonctionner en temps réel, à la volée des choses telles que l’envoi d’un message à un canal de vente juste quand un nouvel utilisateur s’inscrit.

Il y a un essai gratuit et un plan gratuit (appelé Core) avec des plans plus robustes à partir de 999 $ par mois.

3. GoSquared

GoSquared fournit des analyses et un chat en direct pour aider à stimuler les ventes. Vous pouvez vérifier l’activité de navigation qui a conduit un utilisateur à votre site, et, s’il vous donne son adresse e-mail, voir plus de leur activité sociale.

Vous pouvez acheter uniquement l’Analytics ou Live Chat ou les combiner dans leur forfait Suite, avec des prix à partir de 79 $ par mois pour la Suite.

GoSquared offre également un hub de données clients et de l’automatisation pour les entreprises SaaS. Pour utiliser le logiciel, vous devez installer le code Javascript sur votre site.

GoSquared a des intégrations avec Salesforce, Slack, Zapier, Twitter, Drip, et plus encore.

Les modules Analytics et Live Chat ont tous deux un petit forfait gratuit.

4. FoxMetrics

FoxMetrics stocke vos données brutes dans un « data warehouse » auquel vous avez accès, avec la possibilité de générer des rapports via SQL.

Avec la possibilité d’utiliser SQL pour accéder à vos données, vous pouvez créer des requêtes spécifiques pour vous donner les informations exactes que vous souhaitez dans différents scénarios et ne pas être lié aux rapports habituels offerts.

Vous pouvez utiliser la bibliothèque Javascript de FoxMetrics ou utiliser un produit appelé Segment pour saisir les données dont vous avez besoin.

Ce produit “Segment” permet aux entreprises de faire tout l’habitude (suivi et segment clients, analyse de l’abandon de panier, etc) mais il aide également à optimiser les popups et les enquêtes sur les sites clients.

Ils offrent un essai gratuit de deux semaines avec un service mensuel à partir de 450 $.

5. Mixpanel

Mixpanel vous permet de plonger profondément dans le comportement de l’utilisateur.

Vous pouvez:

  • « Contacter » des utilisateurs avec des messages basés sur des comportements en temps réel.
  • Analyser les modèles de données prédictives pour voir quels utilisateurs sont les plus susceptibles de convertir.
  • Recevoir une notification lorsque des mesures spécifiques changent parallèlement aux informations sur les utilisateurs à l’origine de ces modifications.

Il y a un forfait gratuit avec le forfait de niveau suivant à partir de 199 $ par mois.

6. Heap

Heap est un outil qui peut être mieux résumé à partir d’une citation sur son site de l’un de leurs utilisateurs :

Pour moi, Heap est aux Responsables de produit ce que Google Analytics est pour les spécialistes du marketing.

En tant qu’outil d’analyse de produits, Heap est conçu pour fournir des données sur les produits et la façon dont les clients interagissent avec eux.

Il y a un essai gratuit et un plan d’utilisation limitée gratuit avec tous les autres plans nécessitant un devis personnalisé.

7. StatCounter

StatCounter est un outil analytics Web qui peut également détecter la fraude aux clics pour les annonces payantes. Il vous avertit également lorsqu’un visiteur critique retourne sur le site.

Avec cet outil, vous pouvez observer l’ensemble du parcours de l’utilisateur et identifier les problèmes possibles avec la navigation, la structure du site et le flux.

Vous pouvez également examiner comment les utilisateurs interagissent avec votre contenu.

Ils offrent un essai gratuit de 30 jours.

8. Chartbeat

Chartbeat est une « plate-forme d’intelligence du contenu » visant à aider les grands sites qui ont tendance à obtenir plus de 5 millions de pages vues mensuelles en identifiant leurs meilleurs lecteurs et en comprenant comment ils interagissent avec votre contenu.

Il s’intègre à et offre un suivi social hors site via CrowdTangle de Facebook.

Il dispose d’un tableau de bord vidéo aussi, qui vous permet quelque chose comme la publicité drop-off, engagement, playrate, etc.

Les prix commencent à 7 000 $ par année et ils offrent un essai gratuit de 14 jours. C’est vrai, ce n’est pas pour tout le monde… contrairement à cet autre outil analytics qui suit.

9. Clicky

Clicky est une plate-forme analytics web gratuite qui offre également une version Pro, avec des prix à partir de 9,99 $ par mois.

A ce jour, 1.276.004 sites Web dépendent de Clicky pour surveiller, analyser et réagir à leur trafic en temps réel.

Ils disent que leur détection de bots est le meilleur dans le business et aide à éliminer tous les spams référents qui peuvent obstruer les données.

Clicky surveille également votre site et vous alertent s’il est en panne. Si vous aimez les outils de la vieille école, cela pourrait être un gagnant pour vous.

Certaines fonctionnalités (cartes thermiques (heatmaps) et surveillance des disponibilités) ne sont pas disponibles pour les plans de niveau inférieur. Clicky propose également des analytics en marque blanche.

10. Leadfeeder

Leadfeeder intègre vos données marketing et de vente, vous indique les pages que les entreprises recherchent, a un CRM et peut même vous envoyer un courriel lorsque votre entreprise de rêve visite votre site.

Il ressemble à un excellent outil pour aider à générer des prospects. Ils ont des webinaires en direct et beaucoup de guides / ebooks téléchargeables qui vous disent comment maximiser l’utilisation de leur produit.

Leadfeeder propose un essai gratuit et même un plan de base gratuit, avec des prix pour les grands plans à partir de 55 $ par mois.

Remarque : ce produit s’intègre à Google Analytics et utilise ses données pour qu’il ne s’agisse pas d’un remplacement, mais plutôt d’une amélioration qui peut vous aider à affiner les données souhaitées dont vous avez besoin.

D’autres intégrations incluent Sales Navigator, Pipedrive, MailChimp, SalesForce, Zoho, Google Data Studio, Slack, Zapier, et bien d’autres.

Bref, avec un essai gratuit, vous n’avez rien à perdre en essayant un (ou plusieurs) de ces alternatives à Google Analytics.

Bien que vous puissiez toujours compter sur Google Analytics, vous trouverez peut-être quelque chose qui facilite l’accès rapide aux données exactes que vous souhaitez.

Source : Searchenginejournal