Facebook introduit le Prefetching pour télécharger d\'avance les contenus mobiles

Le temps que prend votre page mobile pour se charger sur mobile va bientôt impacter la visibilité de vos annonces sur . Mais, pas que. Au regard de ce que Facebook s’apprête à faire avec vos contenus mobiles jugés ou pas trop lents.

Facebook introduit le Prefetching pour télécharger d\'avance les contenus mobiles


Selon Facebook, l’enjeu est crucial, car près de 40% des utilisateurs abandonnent une page mobile si le temps de chargement dépasse les 3 secondes.

Et Facebook de préciser :

Dans les tout prochains mois, nous allons travailler pour améliorer l’expérience utilisateur avec les annonces, en tenant compte des performances du site Web et de la connexion du réseau de la personne dans nos options d’enchères et notre système de diffusion des annonces.

De cette façon, nous pouvons mieux faire correspondre vos annonces avec les moments opportuns où les gens peuvent mieux engager avec le contenu.

Cela signifierait-il que les annonceurs paieront plus si leurs sites Web mettent du temps pour se charger sur mobile ? Tout porte à le croire. Mais, l’avenir nous situera….

Toujours est-il que, pour aider les annonceurs à fournir des expériences rapides sur mobile, Facebook vient d’introduire le “prefetching” ou la prérécupération des contenus mobiles.

Qu’est-ce que la prérécupération ?

Selon Facebook, la prérécupération permet à Facebook de télécharger des contenus mobiles à l’avance. Par exemple, supposons que vous avez créé une publicité mobile qui comprend un lien ou un appel à l’action redirigeant les personnes vers votre site web mobile.

Lorsque quelqu’un clique sur le lien ou l’appel à l’action de votre publicité, une partie du contenu à laquelle elle est liée a peut-être déjà été prérécupérée et apparaîtra plus rapidement.

Facebook prérécupère une partie du contenu organique et publicitaire. La prérécupération est utile pour les personnes utilisant Facebook sur des connexions réseau lentes ou faibles. Pour les personnes actives sur Facebook, la prérécupération permet un chargement plus rapide des contenus des sites mobiles, ce qui améliore l’expérience de navigation sur l’application Facebook depuis les appareils et les iPhones.

La prérécupération présente de nombreux avantages pour les annonceurs, notamment :

  • La réduction du temps de chargement du site mobile d’un annonceur, ce qui devrait normalement améliorer la performance de leur publicité ainsi que le nombre d’interactions.
  • La réduction de l’abandon causé par le délai survenant entre le clic d’une personne sur une publicité et le chargement complet du site mobile d’un annonceur.

Comment fonctionne la prérécupération

Pour chaque publicité mobile dans le fil d’actualité, Facebook tente de prévoir la probabilité qu’une personne clique sur une publicité. Si le score prévisionnel satisfait aux exigences, il prérécupére (il stocke d’avance, comme le fait Google avec les pages AMP) la page HTML initiale sur laquelle l’actualité est apparue pour la première fois sur l’écran d’une personne.

Ce contenu est mis en cache dans l’appareil de la personne pour une courte période. Si la personne clique sur la publicité, Facebook charge la page initiale à partir du cache. La page initiale envoie ensuite des demandes web au serveur de l’éditeur pour charger le reste de la page.

Pour le moment, seule la page HTML initiale est mise en cache. Gardez à l’esprit que les CSS, Javascript ou les images du site web ne sont pas mis en cache.

Toujours selon Facebook, la prérécupération peut provoquer une augmentation visible du trafic pour les éditeurs et une augmentation du nombre de clics pour les sociétés de mesure tierces basées sur les balises.

Taboola s\'allie à Disqus pour contrer la recommandation de contenu de Google

La bataille de la recommandation de contenu est bel et bien engagée depuis que les géants du Net ont commencé à s’y intéresser de plus près.

Taboola s\'allie à Disqus

Jadis dominée par Taboola, Outbrain et autres Ligatus, ces plateformes de recommandation de contenu sont maintenant en train d’être concurrencées par avec sa fonctionnalité Adsense dénommée “Contenu correspondant” et par qui permet maintenant aux Pages Facebook vérifiées des influenceurs et des marques de recommander du contenu sponsorisé à leurs fans.

Ce qui laisse à penser que, dans les temps à venir, nous allons assister à une redistribution des cartes qui va engendrer une restructuration de ce segment publicitaire.

C’est ce que semble avoir compris Taboola, leader de la recommandation de contenu, qui fournit des liens et des images de contenus similaires via des sites tiers populaires soigneusement sélectionnés.

Alors, face à la concurrence qui débarque, Taboola a décidé de passer la vitesse supérieure afin de proposer ses contenus recommandés au delà de ses milliers de sites partenaires actuels afin qu’ils soient visibles sur des millions de sites tiers. Alors, finie la sélection des sites ?

Ainsi, Taboola, la plateforme de découverte de contenu, qui fournit des liens de contenus tiers au bas des articles sur de nombreux sites populaires, a annoncé cette semaine avoir signé un accord de partenariat global avec la plateforme de commentaires Disqus.

Ce partenariat avec Disqus va permettre à Taboola d’atteindre un très grand nombre de sites qui, jusqu’ici, ne pouvaient répondre à ses critères de sélection. Notons que le système de commentaires Disqus est utilisé par plus de 3,5 millions de sites dans le monde dans plus de 190 pays.

Ce qui représenterait plus de 15 milliards de pages vues chaque mois dans 40 langues différentes.

La recommandation de contenu de Taboola va s’afficher par défaut avant ou après les commentaires de Disqus. Toutefois, les sites qui n’en veulent pas pourront désactiver cette fonctionnalité de .

Vous pouvez déjà voir un exemple de ce partenariat sur le site de Variance Magazine.

Google : Doit-on désavouer les backlinks provenant d\'un site piraté ?


A partir des résultats de recherche de Google ou via un logiciel anti-virus, l’utilisateur peut voir s’afficher une alerte lui signifiant que le site qu’il s’apprête à visiter est dangereux.

Google : Doit-on désavouer les backlinks provenant d\'un site piraté ?

Toutefois, tous les propriétaires de sites qui ont reçu des liens entrants de ces sites déclarés dangereux ou piratés ne savent pas que certains de leurs backlinks proviennent de sites piratés.

“Si un site identifié comme piraté par s’affiche comme étant un lien (domaine.com, par exemple) dans , devons-nous ou pas le désavouer ? Ou bien Google n’en prend pas automatiquement compte ? Si nous devons le faire, comment pouvons-nous les identifier tous ?”

Voici la réponse de John Mueller (vidéo 17:39) :

–>

Pour ma part, car c’est souvent le cas, si le webmaster du site ne visite pas souvent ses notifications dans sa Search Console, il faut le prévenir qu’il a été piraté afin qu’il puisse faire le nécessaire. Ainsi, si vous avez reçu un backlink de lui, vous n’aurez pas à le désavouer.

Je pense qu’il faut agir ainsi, surtout si ce lien entrant a été envoyé par un site d’autorité avant qu’il ne soit piraté à son insu. Et ça peut arriver à n’importe quel site, petit ou grand. Alors vaut mieux sauver, si possible, votre lien entrant que de le voir disparaître.

Une autre question a été posée à John Mueller, pour cette fois savoir ce qu’il faut faire pour un site piraté avec une injection de virus.

Réponse de John Mueller :

John Mueller poursuit sa réponse en expliquant que cela ne fait pas sens que de vouloir supprimer ou désavouer un backlink parce qu’un site de bonne réputation se retrouve infecté par des logiciels malveillants à son insu.

Certes, dit-il, c’est logique d’un point de vue de la facilité d’utilisation, mais ce n’est pas un problème pour lequel Google dira que c’est un facteur de qualité de la recherche pour juger votre site en fonction des sites dont vous recevez des liens. Alors, il fait quoi le Penguin ?

Ainsi, selon John Mueller, Google ne tient pas compte des liens des sites piratés avec des logiciels malveillants. Croisons les doigts…

Google : Que reste-t-il de l\'autorité des liens lors de la migration du site vers le HTTPS ?

encourage depuis un certain temps les propriétaires de sites web à migrer vers l’hébergement sécurisé avec un certificat SSL valide.

Google : Les liens peuvent-ils perdre leur autorité lors d’une migration vers le HTTPS ?

Ainsi, après avoir officiellement déclaré l’hébergement HTTPS comme un critère de référencement, mais avec un tout petit “boost”, Google a créé un label https pour indiquer dans ses pages de résultats quels sites web sont sécurisés.

Et tout récemment, toujours pour rassurer les webmasters et leur donner plus de gages en cas de migration du HTTP vers le HTTPS, Google a annoncé des critères d’indexation du HTTPS par défaut.

Il s’agit ici d’une mesure qui va consister à prioriser l’indexation des pages sécurisées HTTPS par rapport aux pages HTTP normales.

L’une des inquiétudes manifestées par certains webmasters qui l’ont exprimée en commentaires dans un post de John Mueller, Webmaster Trends Analyst chez Google, était d’en savoir plus de ce qu’il advenait des backlinks reçus par un ayant migré du HTTP vers le l’hébergement sécurisé HTTPS.

En d’autres termes, est-ce que les liens précédemment obtenus avant la migration HTTPS ne perdaient pas de leur autorité (et donc leur jus et leur trafic) du fait que les pages en question sont désormais en HTTPS ?

Comme le montre la capture d’écran ci-dessous, John Mueller va confirmer qu’il n’y aura aucune perte d’autorité des backlinks lors de la migration du HTTP vers le HTTPS. Plus précisément, voici ce qu’il dit :

C\’est comme avec l’URL avec www et sans-www, vous ne perdez pas les liens qui pointent vers la version alternative, même si vous ne définissez pas de redirection.”

Ainsi, ce n’est pas parce que les pages HTTP ne comptent plus que les liens qu’elles ont reçus sont pour autant perdus et que votre trafic web pourra en être affecté. Ils sont transférés avec tous leurs signaux vers la nouvelle version HTTPS du site.

C’est ce qu’a d’ailleurs à nouveau confirmé Gary Illyes de chez Google dans le Tweet ci-dessous :

Selon Gary Illyes, Google prendra en compte les signaux collectifs des liens entrants à la fois vers la version HTTP et la version tHTTPS d’une même page. En outre, cela se fera automatiquement, donc il n\’y a aucun besoin de s\’inquiéter du défaut de redirections.

Google envisage d\'utiliser son navigateur Chrome pour noter et classer les sites

Google Chrome afin de mesurer et noter l’engagement des utilisateurs sur chaque site qu’ils visitent.

Google veut se servir de son navigateur Chrome pour noter et classer les sites

Le navigateur utiliserait ensuite le score établi pour allouer des ressources, y compris l\’utilisation de la batterie et de l\’espace, à tous les sites en cours d\’accès sur l’ordinateur (fenêtres ouvertes).

Il s’agit d’une information postée par +François Beaufort, développeur Chromium chez Google, qui la présente comme une modification probable à venir.

Et cette fonctionnalité annoncée est actuellement en version bêta. Vous pouvez l’activer depuis la dernière version de Chrome dont vous disposez.

Ce qu’il faut comprendre dans ce projet de Google via son navigateur Chrome, c’est qu’il s’apprête à tenir réellement compte de l\’expérience utilisateur (interaction et engagement) des utilisateurs sur un site visité.

Ainsi, je présume, le temps passé sur un contenu, sur l\’ensemble du site, le nombre de pages visitées, les visites régulières de l\’utilisateur, le clic sur un bouton de partage social sur un contenu, la rédaction d’un commentaire dans un contenu, etc, tous ces comportements permettront à Google via Chrome de noter le site et déterminer, sans doute, son autorité.

Et le score obtenu par visite (anonyme, je pense) pourrait aussi être utilisé pour rentrer en ligne de compte dans la détermination de son classement (en plus des autres facteurs ) dans les pages de résultats de Google.

Et de ce point de vue, tenir compte de l’expérience utilisateur, car c’est de cela qu’il s’agit, via son outil de navigation Chrome, est très judicieux pour donner la main à l’humain pour évaluer les sites à l’insu des visiteurs eux-mêmes.

Pour vous prêter à cette expérience, visitez la page chrome://flags/ dans votre Google Canary et allez à la section “Activer le service d\’interaction avec les sites” pour la mettre sur “Activée”, avant de cliquez sur le bouton “Relancer maintenant” qui se trouve en bas de la page.

Attention, une fois que vous aurez cliqué sur ce bouton, toutes vos fenêtres ouvertes se refermeront avant de s’ouvrir à nouveau sur votre page d\’accueil.

Que penser de ce projet de Google avec Chrome

Même si +François Beaufort dit dans son post que le score de l’engagement des utilisateurs sur un site visité ne servira qu’à la répartition des ressources de l’ordinateur, un mauvais score obtenu par un site pourrait impacter son score de qualité général. L’expérience utilisateur étant une notion qui monte en puissance dès lors qu’on parle désormais de référencement.

Alors, pourquoi donner un score via un navigateur à un site alors que tous les ordinateurs n’ont ni la même puissance RAM, ni les mêmes ressources CPU ? Si ce n’est pour s’en servir pour impacter négativement ou positivement chaque site visité par un humain.

D’ailleurs, à moins de mieux expliquer ce projet, François Beaufort parle bien de “score de comportement sur un site”. Donc, c’est l’expérience utilisateur qui est notée par rapport à chaque visite sur un site donné. Et non l’utilisateur lui-même, ni son ordinateur.

Et ce n\’est pas non plus le comportement de l’utilisateur qui impacte sur le score de qualité du site, mais c’est la qualité du site qui entraîne une bonne ou une mauvaise expérience qui sera matérialisée par un score qui pourrait déterminer son classement dans les pages de résultats de Google.

Je pense que ce projet mérite un peu plus d’explication que le post ci-dessus mentionné. Car, selon moi, qui dit score de qualité du site, quel qu’il soit, dit classement de site.

Comme dirait l\’autre, \ »on ne nous dit pas tout\ ».

Google confirme qu\'il utilisera l\'Authorship si beaucoup de gens l\'implémentent

Ils sont nombreux les marketeurs et autres qui ont appris que , par la voix de son Googler Gary Illyes, recommandait de ne pas définitivement abandonner l’Authorship.

Google confirme qu\'il utilisera l\'Authorship si beaucoup de gens l\'implémentent

En d’autres termes, soit il fallait le remettre dans le code source, soit il fallait continuer à le garder s’il n’avait pas encore été supprimé de votre site.

Il est vrai que jusqu’à maintenant, ça paraît quand même assez curieux cette proposition presqu’indécente de Google, après nous avoir déclaré qu’il ne tenait plus compte de l’Authosrhip et qu’on pouvait le supprimer.

Pour ma part, j’ai donné mon point de vue sur ce retour hypothétique de l’authorship ici.

Mais, voilà que le même Gary Illyes en remet une couche, comme nous le rapporte Barry Schwartz.

Dans le Tweet ci-dessous, c’est Mark Traphagen qui commente l’annonce de Gary Illyes en disant que ce n’est pas une promesse. Mais, c’est juste Gary Illyes qui donne son opinion en disant que cela fait sens de ne pas le supprimer.

Gary Illyes répond donc à ce Tweet en disant (voir ci-dessus) : “En général, si nous voyons que des gens utilisent toujours quelque chose, nous allons alors essayer d\’en faire usage”.

C’est alors que Mark Traphagen revient à la charge pour réclamer une réponse plus précise en disant : “Si beaucoup de gens se mettaient à utiliser “rel=author” (le tag de l’authorship, NDLR), vous pourriez l\’utiliser à nouveau ?

Ce à quoi répond sans détours Gary Illyes (voir ci-dessus) : “Ce serait honnête de dire Oui.

A mon avis, Google sait (en fonction du signal émis) que la grande majorité des webmasters qui avaient mis en place le code HTML “rel=author” ne l’ont toujours pas retiré. Par conséquent, et peut-être qu’il le faisait déjà sans l’annoncer, il pourrait dans les temps à venir s’en servir … à nouveau.

Google demande de ne pas bloquer l\'accès de Googlebot aux fichiers

a commencé à envoyer à de nombreux webmasters des messages d’alerte par email les notifiant de l’impossibilité pour Googlebot, le robot d’indexation de , d’explorer librement certains fichiers. 

Ce qui pourrait impacter le référencement de leurs sites web.

Google envoie des notifications aux sites bloquant l’accès aux fichiers CSS et JavaScript

Ces fichiers généralement mentionnés par Google concernent les CSS et autres JavaScripts qui n’autorisent pas l’accès à leurs données.

Voici un exemple de message reçu par certains webmasters :

Plus particulièrement, Googlebot ne peut accéder à vos fichiers JavaScript ou CSS à cause de restrictions dans votre fichier robots.txt. Ces fichiers nous permettent de comprendre que votre site Web fonctionne correctement. En bloquant l\’accès à ces éléments, il est donc possible que le classement du site ne soit pas optimal.

Le message d’alerte indique également avec insistance que le blocage des fichiers Javascript et/ou CSS “peut entraîner des classements qui ne soient pas optimaux”.

Alors que Google a fait savoir, après un changement de ses consignes aux webmasters, de ne plus jamais bloquer Googlebot lors de ses visites d’exploration et d’indexation. Notamment via le fichier robots.txt.

Voici d’ailleurs ce qu’il dit dans ses consignes :

Pour nous aider à comprendre le contenu de votre site de manière exhaustive, autorisez l\’exploration de tous les éléments de votre site, tels que les fichiers CSS et JavaScript. Notre système d\’indexation affiche des pages Web à l\’aide du code HTML de la page, ainsi que d\’éléments tels que les fichiers images, CSS et JavaScript.

Pour voir les éléments de page qui ne peuvent pas être explorés par Googlebot et pour résoudre les problèmes relatifs aux instructions dans votre fichier robots.txt, utilisez la fonctionnalité Explorer comme Google et l\’outil de test du fichier robots.txt dans les outils pour les webmasters.

Comment découvrir les ressources bloquées par robots.txt

Les ressources bloquées sont aussi mises en évidence dans la section “Index Google” -> “Ressources bloquées” dans votre Console.

Le message d’alerte dans Google Search Console fournit aussi les détails sur la façon de résoudre le problème en proposant toutefois de mettre à jour la règle du fichier robots.txt pour débloquer la ressource.

Il semble que depuis quelques jours, Google a augmenté le nombre de messages qu\’il envoie aux webmasters sur les blocages de GoogleBot.

Et ils sont aussi nombreux, les webmasters qui utilisent , qui ont reçu des avertissements pour avoir utilisé “abusivement” l’instruction “Disallow: /wp-content/plugins” dans leur fichier robots.txt.

Voici les différents types d’instructions qui peuvent générer un message d’alerte dans Google Search Console et par email :

Disallow: /.js$*

Disallow: /.inc$*

Disallow: /.css$*

Disallow: /.php$*

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /cgi-bin/

Disallow: /wp-content/uploads/

Disallow: /wp-includes/css/

Disallow: /wp-includes/js/

Disallow: /wp-includes/images/

Ce que demande donc Google dorénavant, c’est qu’il n’y ait plus dans aucun fichier robots.txt d’instructions du type “Disallow: /nomdufichier” ou “Disallow: /nomdurepertoire/”.

Si vous en avez dans votre fichier robots.txt, supprimez-les immédiatement, remplacez-les par \ »Allow: /\ » et le problème sera résolu. Sinon, votre référencement pourrait en souffrir comme Google le mentionne dans ses notifications.

Car, Google déconseille de restreindre l\’accès à tous les fichiers existant dans votre site afin d\’améliorer leur indexation, notamment pour le mobile, et donc probablement votre classement sur Google.

Testez votre fichier robots.txt

L\’outil de test du fichier robots.txt vous indique si votre fichier robots.txt empêche nos robots d\’explorer des URL spécifiques sur votre site.

  1. Depuis la page d\’accueil de la Search Console, sélectionnez le site dont vous souhaitez tester le fichier robots.txt.
  2. Sous l\’en-tête \ »Exploration\ » du tableau de bord de gauche, sélectionnez l\’Outil de test du fichier robots.txt.
  3. Apportez des modifications à votre fichier robots.txt en ligne dans l\’éditeur de texte.
  4. Faites défiler le code du fichier robots.txt pour localiser les avertissements relatifs à la syntaxe et les erreurs de logique signalés. Le nombre d\’avertissements relatifs à la syntaxe et d\’erreurs de logique s\’affiche immédiatement sous l\’éditeur.
  5. Saisissez une extension de l\’URL ou un chemin d\’accès dans la zone de texte en bas de la page.
  6. Dans la liste déroulante à droite de la zone de texte, sélectionnez le user-agent que vous souhaitez simuler.
  7. Cliquez sur le bouton TEST après avoir choisi le robot pour lancer la simulation.
  8. Vérifiez si le bouton TEST indique Acceptée ou Bloquée pour savoir si nos robots d\’exploration peuvent ou non explorer cette URL.

Google+ n\'est pas mort, même sans Photos !

Après l’annonce du lancement officiel de Google Photos, désormais séparée de +, on s’attendait à ce que, dans la foulée, il y ait une autre annonce concernant la plateforme sociale Google Plus qui va fêter ses 4 années d’existence fin Juin.

Google+ reste Google Plus, même sans Photos !

Evidemment, dans ce genre de “grande messe” médiatique, on ne va pas pour y parler de sujets qui fâchent. Mais, plutôt des innovations qui vont enthousiasmer l’assistance.

Même si on devine aisément, qu’après une amputation d’une telle fonctionnalité plébiscitée par les utilisateurs de Google+, le réseau social de Google va devoir s’orienter autrement pour être davantage attractif. Il y a donc certainement une refondation prévue qui devrait beaucoup plus centrée Google+ vers les centres d’intérêt.

Bref, heureusement qu’il y avait le site Backchanel pour interviewer +Bradley Horowitz, co-fondateur de Google+, au même titre que Vic Gundotra. Voici donc les questions-réponses de cette interview concernant Google+.

Parlons de Google+ dans lequel vous êtes impliqué depuis ses débuts. Où en est-il aujourd’hui ?

Bradley Horowitz : Près de 4 ans après le lancement de cette aventure, nous écoutons les utilisateurs qui nous disent ce pour quoi Google+ est utile, et alors nous allons nous concentrer sur ces utilisations pointées du doigt.

Cette fonctionnalité est la première d’une série de nouveautés. Nous allons également faire bouger les choses dans le sens des produits autonomes, comme Photos, ou supprimer des choses que nous pensons qu’elles ne marchent pas.

Quelles sont les choses qui pourraient être supprimées ?

Je ne vais pas divulguer ici les plans du produit (Google+). Vous pouvez vous-même vous connecter sur Google+ et vous comprendrez ce qui marche et ce qui ne marche pas.

Revenons à Collections. Pouvez-vous décrire cette fonctionnalité ?

C’est en gros la possibilité de publier des posts par sujets. L’un des problèmes que résoud aujourd’hui Collections est du type : “Je vous aime bien mais je n’aime pas vos photos de chats”.

Ainsi, grâce à Collections, je peux vous suivre en tant que personne, mais je peux me désabonner de votre collection de photos de chats. Ou je peux m’abonner uniquement à vos publications de photos de chats, sans pourtant vous suivre personnellement.

Est-il juste de dire que Google lui-même prend ses distances avec le concept original de Google Plus ?

des réseaux sociaux, NDLR) et nous allons nous concentrer là-dessus.

N’avez-vous jamais eu envie de laisser tomber Google+ ?

Nous allons nous efforcer de faire en sorte qu’à l’avenir cela devienne comme une évidence pour les utilisateurs : quoi, quand et pourquoi utiliser ce produit.

Où se situe Google en tant que produit social ?

Non,

Snapchat va bientôt s\'ouvrir davantage aux marques

Snapchat, l’application mobile de messagerie instantanée, n’offre pas la possibilité aux marques et entreprises la possibilité de s’inscrire en tant que telles sur le service.

Mais, compte tenu de sa montée en puissance et de son intérêt sans cesse grandissant pour le public jeune, certaines marques rusent pour y être présentes.

Snapchat

Ce que désapprouve le PDG de , Evan Spiegel, qui serait tout de même tenté de leur ouvrir un tant soit peu la porte.

Auparavant, Snapchat avait proposé aux marques qui souhaitaient une présence sur la plateforme de payer des publicités sur des messages diffusés dans sa fonctionnalité Snapchat Discover pour un prix fixé à 750.000 dollars par jour.

Evan Spiegel a donc réaffirmé lors d’une récente conférence

Il a cependant indiquer qu’aider les marques en acceptant leurs posts organiques dans ses flux n’était pas un priorité, mais qu’éventuellement, Snapchat allait bientôt lancer une plateforme publicitaire intégrée et en libre-service pour permettre aux marketeurs de faire ce qu’ils savent faire.

Comme il le dit : “nous allons aider les marques à être des marques sur Snapchat et l’outil publicitaire intégré et en libre-service fera partie de cette aide”.

Et pour une fois, le PDG de Snapchat a indiqué que son service avait désormais 100 millions d’utilisateurs actifs par jour dans les “marchés développés” (Occident ?) et que 65% de ces utilisateurs créaient du contenu au quotidien.

Facebook demande aux PME de s’adapter à ses changements d\'algorithme

On sait que a une relation assez compliquée avec les petites et moyennes entreprises. Notamment depuis ses derniers changements d’algorithme.

Il faut dire que depuis 2007, beaucoup de PME ont été attirées par Facebook qu’elles voyaient comme une plateforme qui leur offrait l’opportunité de promouvoir gratuitement leurs activités tout en étant en contact direct avec leur audience-cible.

Facebook demande aux PME de s’adapter à ses changements

Alors, dès que Facebook a décidé de changer son algorithme pour réduire la portée des posts des Pages pros (reach organique) dans les fils d’actualité, le mécontentement s’est installé et les rapports se sont tendus.

Et ils se sont tendus davantage lorsque Facebook a invité les administrateurs de pages à payer des publicités pour atteindre les clients potentiels sur Facebook.

Il y a pour les PME présentes sur Facebook comme une trahison qui ne dit pas son nom. Payer pour communiquer ou atteindre une communauté qu’on a soi-même créée et développée ? Difficile de l’admettre !

Une interrogation que comprend Jonathan Czaja, Directeur de Facebook en charge des PME d’Amérique du Nord, lors d’une interview réalisée par le site StreetFightMag.com, tout en invitant les marketeurs et les PME à ajuster leurs stratégies en fonction de l’évolution de l’algorithme de Facebook.

Avant d’ajouter :

La réalité est que Facebook est une plateforme publicitaire en constante évolution. Nous avons commencé avec des annonces basées sur les mesures sociales, et ce que nous avons fait maintenant, c\’est passer beaucoup de temps à créer des produits publicitaires basés sur les objectifs des PME plutôt que sur les actions sociales. Nous avons vu cette plateforme évoluer et maintenant nos annonceurs sont amenés à évoluer avec nous.

Alors, à la question de savoir pourquoi un petit entrepreneur devrait-il continuer à investir dans une communauté sur Facebook sans pouvoir librement communiquer avec, Jonathan Czaja répond ce qui suit :

Il y a encore beaucoup de valeur dans la Page Facebook en dehors de distribuer du contenu aux fans. Nous allons avoir beaucoup plus à dire sur les Pages à l\’avenir, et nous pensons qu’il est important que les petites entreprises aient une présence sur Facebook et démontrent la valeur qu\’elles comptent apporter à leurs clients.

Czaja a reconnu que Facebook a jusqu’ici très peu investi dans le service fourni aux petites et moyennes entreprises (PME), mais dit s\’attendre bientôt à des améliorations.

Avec aujourd’hui plus de deux millions d’annonceurs à travers le monde, dont une grande majorité de PME, Facebook compte bientôt lancer un support en Chat pour aider les annonceurs. Ainsi que des pages d’aide en ligne et des outils pour soutenir et faciliter la tâche aux PME.