99% du Web n\'est pas accessible à tous

Le Web tel que nous le connaissons ne serait que la partie visible de l’iceberg. Car, en dessous, réside un immense océan totalement inconnu appelé le Web invisible.

Par sa nature même, la taille du Web invisible est difficile à mesurer. Mais des chercheurs universitaires estiment aujourd’hui que le Web que nous connaissons ne représente que moins de 1% de la totalité du World Wide Web.

99% du web ne vous est pas accessible

Ce qui veut donc dire que 99% du Web ne peut être visité librement par tout le monde. Car, il s’agit d’un espace clos non accessible aux non-initiés.

Lorsque vous surfez sur le Web, vous ne restez qu’à la surface. Alors qu’en dessous se trouvent des dizaines de milliards de pages web auxquelles vous ne pourrez jamais accéder.

Bien que le Web invisible soit peu connu, le concept est pourtant assez simple. Pensez aux moteurs de recherche. Pour vous donner des résultats, , et vont indexer constamment des pages. Ils y arrivent en suivant les liens entre les sites. Ce qui leur permet seulement de rassembler des pages statiques, comme celle vous êtes en ce moment en train de lire.

Selon l’article de cnn.com, ce que ces moteurs de recherche ne capturent pas, ce sont les pages dynamiques, comme celles qui sont produites lorsque vous posez une question à une base de données en ligne. Et les liens dans ce type de contenu plus profond ne sont pas suivis par les robots.

D’autre part, Google et les autres moteurs n’indexent pas aussi les pages issues des réseaux privés ou les pages orphelines qui ne sont connectées avec aucune autre page.

Selon une étude de 2001, la dernière connue dans ce domaine, 54% des sites web hébergées sont des bases de données et 13% sont des pages cachées parce que faisant partie d’un intranet accessible aux membres disposant d’un identifiant pour y accéder.

C\’est une collection de sites secrets (se terminant en .onion) qui nécessitent un logiciel spécial pour y accéder. Les gens utilisent Tor pour que leurs activités sur le Web ne puissent pas être retracées. Et il fonctionne sur un système de relais qui fait rebondir les signaux entre les différents ordinateurs Tor dans le monde entier.

Tor est donc utilisé pour des communications sensibles exécutées de façon anonyme.

Mais, depuis au moins une dizaine d’années, Tor est aussi devenu une plateforme d’accès au black market pour la vente et la distribution de produits généralement illicites.

Et, alors que le Web profond est inaccessible pour le grand public, il n’en reste pas moins que sa croissance économique et financière est exponentielle.

L\'Outil mobile-friendly de Google est le seul à valider la compatibilité mobile d\'un site

Il y a peu, a annoncé faire du site mobile-friendly un facteur de classement. Sur ce, il a lancé son outil mobile-friendly test afin que chaque webmaster puisse bien vérifier que Google accordera à son site le label \ »site mobile\ ».

Testez la compatibilité mobile de votre site avec le mobile-friendly test de Google



D\’où l\’intérêt de tester votre site avec l\’outil mobile-friendly de Google pour vous rassurer.

Après le test, vous devez voir s\’afficher \ »Awesome ! This page is mobile-friendly.\ », comme dans l\’image ci-dessous. Dans le cas contraire, lisez les explications de John Mueller, Webmaster Trends Analyst chez Google.

Outil de test mobile-friendly

John Mueller et le label mobile-friendly

John Mueller revient sur certaines questions concernant l\’utilisation de l\’outil mobile-friendly test qui indiquerait que certains sites ne sont pas compatibles avec le mobile alors que son autre outil dénommé PageSpeed Insights afficherait le contraire. Selon, John Mueller, deux raisons à cela :

1. Trop de fichiers bloqués par robots.txt : Googlebot doit être en mesure de reconnaître la compatibilité mobile d\’un site lors de son exploration. Si un fichier JavaScript qui effectue une redirection est bloqué par robots.txt, si un fichier CSS qui est nécessaire à la version mobile d\’une page est bloqué ou si vous utilisez des URL distinctes pour le mobile et que vous les bloquez en même temps, Googlebot ne sera pas en mesure de savoir si votre site est mobile-friendly.

Quant à l\’outil PageSpeed Insights, il n\’utilise pas le fichier robots.txt. Il peut donc paraître normal et vous dire que votre site est compatible avec le mobile. Alors qu\’il n\’en est rien. N\’empêchez donc pas l\’analyse des fichiers CSS ou JS de votre site.

2. Cacher des fichiers à Googlebot : Le cloaking (dissimulation de fichiers) fait depuis toujours partie des consignes aux webmasters de Google. Et il provoque toutes sortes de problèmes.

Certains sites essaient de reconnaître la visite de Googlebot à l\’aide d\’un user-agent afin de livrer une \ »version-Googlebot\ » du contenu exploré (souvent la page desktop) qui est pourtant différente de celle affichée aux utilisateurs sur mobile. Si Googlebot-smartphone explore et voit une page desktop (pour ordinateur), la page ne sera alors pas considérée comme étant mobile-friendly.

L\’outil \ »Explorer comme Google\ » présent dans les Webmaster Tools peut vous aider à découvrir ce problème. Et l\’outil PageSpeed Insights n\’utilise pas Googlebot user-agent.

En conclusion, sachez que seul l\’outil mobile-friendly test de Google peut vous indiquer si Google accordera ou pas le label \ »site mobile\ » à votre site web.

Quand Google décide-t-il de ralentir ou d\'arrêter l\'indexation d\'un site ?


lors du SMX East de New York qui se termine aujourd\’hui. Selon lui, Google disposent de 2 moyens techniques pour déterminer si GoogleBot, son robot d\’exploration et d\’indexation, devrait ralentir ou arrêter son analyse d\’un site web.

Exploration et indexation par GoogleBot


En effet, l\’un des facteurs les plus importants du référencement web consiste à s\’assurer d\’abord que les robots des moteurs de recherche peuvent accéder à vos pages web. Si ils ne peuvent pas accéder à vos pages web, alors vous traverserez probablement une période difficile de classement dans les résultats de recherche.

Google a déjà dit qu\’il utilisait de nombreux signaux pour déterminer si GoogleBot doit arrêter l\’exploration de votre site Internet, en dehors des signaux évidents tels que la balise meta \ »noindex\ », l\’attribut \ »nofollow\ » ainsi que le fichier \ »robots.txt\ ».

Selon +Gary Illyes,  les 2 signaux suivants sont les signaux d\’exploration très importants pour Google :

  • Délai de connexion au serveur : Google fera attention au temps qu\’il met pour se connecter au serveur d\’hébergement et à la page désirée. Si ce temps de connexion s\’allonge indéfiniment, GoogleBot va reculer et ralentir ou arrêter l\’exploration de vos pages web qui pourraient alors ne pas être indexées lors de ce passage.

    Si Google décide de faire machine arrière, c\’est pour ne pas faire chuter votre serveur (down). Cependant, il utilisera votre délai de connexion comme facteur d\’exploration et d\’indexation de votre site.

  • Les codes de statut HTTP des serveurs : Google va également arrêter ou ralentir son exploration quand il obtient des codes de statut serveur dans la classe des 500 (500 à 520).

    Les codes d\’erreur 5xx du serveur signifient souvent qu\’il y a en général des problèmes internes au serveur qui ne répond pas. Alors, quand Google reçoit ce type de codes d\’erreurs serveur, il fait aussi machine arrière pour ne pas en rajouter aux problèmes techniques actuels du serveur.

Dans les deux cas, GoogleBot reviendra plus tard (Quand ?). Mais, dans l\’immédiat il recule quand il voit que ces deux signaux sont à l\’origine d\’ennuis sur votre serveur.

Google : Comment gérer les différentes versions d\'un site multilingue ?

+Zineb Ait Bahajji dans son récent post sur Google Webmaster Central.

Ainsi, pour reprendre les exemples de +Zineb, si vous travaillez aussi à l\’international, vous devez créer une page d\’accueil pour les visiteurs américains et pour les visiteurs parlant l\’anglais et une page différente pour la France et les visiteurs parlant le français.

Pour créer un site web adapté à ce genre de situations et afficher le contenu approprié aux utilisateurs en fonction de leur langue ou de leur localisation, Zineb Ait Bahajji nous livre 3 méthodes qu\’elle détaille par la suite :

  • Montrer à chacun de vos visiteurs le même contenu : Google recommande que vous affichiez une notification basée sur les préférences de langues possibles à l\’utilisateur pour montrer que vous disposez d\’une meilleure page d\’accueil pouvant mieux lui convenir.
  • Offrez la possibilité à vos visiteurs de choisir : Vous redirigez tous vos visiteurs vers une page spécifique, avec des liens par pays ciblé, où ils pourront choisir le contenu qu\’ils veulent. Si vous utilisez cette option, pensez à utiliser l\’annotation \ »rel-alternate-hreflang x-défaut\ » afin de communiquer à Google ce que vous faites avec cette page et les liens sur la page.
  • Rediriger automatiquement en fonction de la langue et de la localisation : De façon dynamique en affichant le bon contenu ou en utilisant la redirection 302 côté serveur. Si vous choisissez cette option, Google vous recommande de configurer les annotations \ »rel=\ »alternate\ » hreflang=\ »x\ »  et de vous assurer que la page d\’accueil reste accessible pour l\’exploration et l\’indexation de votre site.

    Et surtout, offrez toujours la possibilité aux utilisateurs de passer d\’une langue à une autre, à l\’aide d\’un menu déroulant, par exemple.

Il faut ici noter que Google utilise uniquement le contenu visible de votre page pour déterminer la langue utilisée. Google indique ne pas tenir compte d\’informations linguistiques codées comme des attributs lang.

Qu\’en est-il des contenus dupliqués dans ces cas ?

Selon Google, les sites Web qui fournissent du contenu pour des régions différentes et dans des langues différentes génèrent du contenu qui est parfois identique ou similaire, mais disponible sur des URL différentes. Cela ne présente en général pas de problème tant que le contenu s\’adresse à des utilisateurs différents dans des pays différents. Il recommande cependant vivement de proposer du contenu unique à chaque groupe de visiteurs.

Néanmoins, Google dit avoir conscience que cette solution n\’est pas toujours envisageable. Il n\’est généralement pas nécessaire de masquer les doublons en interdisant l\’exploration dans un fichier robots.txt ou en utilisant une balise Meta de robot \ »noindex\ ».

Si vous proposez toutefois du contenu aux mêmes utilisateurs sur des URL différentes (par exemple, si à la fois example.fr/ et example.com/fr/ affichent du contenu en français pour des utilisateurs en France), vous devez sélectionner une version préférée et rediriger (ou utiliser l\’élément lien rel=canonical) comme il se doit.

En outre, vous devez respecter les consignes sur rel-alternate-hreflang afin de garantir que la langue ou l\’URL régionale correcte est proposée aux personnes effectuant des recherches.

12 Moyens d\'améliorer son trafic web sans faire de Netlinking

Et donc, leur importance en terme de visibilité et de trafic web.

Et pourtant, comme nous le présente Cyrus Shepard

1. In-Depth Articles

Selon Moz.com, 6% des résultats de recherche de contiennent désormais des liens In-Depth Articles.

2. Améliorer la satisfaction de l\’utilisateur

3. Les extraits enrichis issus des données structurées

extraits enrichis susceptibles de s\’afficher

4. Optimisation des contenus vidéo

La capture d\’extrait vidéo (miniature)

balises de schema.org pour les vidéos.

Wistia qui peuvent vous aider à créer un sitemap vidéo incluant automatiquement le balisage de Schema.org. Ce qui va vous permettre de choisir la miniature à afficher sur les pages de résultats.

Et comme les miniatures vidéos encouragent très souvent les clics, vous pouvez espérer alors améliorer votre trafic web.

5. Google AuthorShip

Certes Google ne vous garantit pas plus de clics si vous participez à l\’Authorship

6. Améliorer le temps de chargement des pages

Par temps de chargement, il faut comprendre le temps que prend votre serveur pour envoyer sa première réponse à une requête.

7. Optimisation pour mobile

Comme mentionné plus haut, votre site web devra être aussi configuré pour le mobile. Google ayant confirmé

8. Accroître votre audience en dehors de votre zone géographique

9. Visibilité avec Google+

vous devez être actif sur Google+.

10. Optimisation des balises meta et title

Et comme dit Matt Cutts : \ »\ ». Ce qui veut dire que toute duplication de balises pourra être pénalisée et constituer un frein à votre trafic web.

11. Publier régulièrement de nouveaux contenus

Sur certaines thématiques et pour certaines requêtes, avoir du contenu frais peut toujours aider pour plus de visibilité sur Google.

12. Optimisation interne du site

Pourquoi Google n\'indexe-t-il pas toujours tous les liens du fichier Sitemap ?

Fichier Sitemap.

Mais, est-ce pour autant que toutes les pages seront indexées ?

Google Webmaster

Gary Illyes

Sitemap comme un moyen d\’aider GoogleBot  à trouver vos contenus. Car, si des URLs manquent dans votre fichier, les robots auront du mal à les trouver , et donc les explorer. Ce qui entraînerait une indexation très lente de vos pages.

Gary Illyes attire aussi l\’attention des webmasters sur le fait que l\’algorithme de Google pourrait décider de ne pas indexer toutes les URLs rencontrées. Ainsi, si GoogleBot rencontre un contenu qu\’il juge inutile ou non pertinent ou encore non relié avec d\’autres contenus du site, il pourrait l\’exclure de l\’indexation.

Il faut enfin savoir que pour que GoogleBot indexe une URL, celle-ci devrait :

– renvoyée une réponse 200 OK;

– ne pas être redirigée vers une autre URL;

– avoir une URL canonique identique;

– ne pas avoir de balise meta noindex dans le code source.

Google ajoute les erreurs d\'indexation mobile dans son Webmaster Tools


Dans une annonce sur son blog officiel, Google annonce être aujourd\’hui



Et ce, alors que les utilisateurs sur ordinateurs ne rencontrent pas ces mêmes erreurs.

Bon, il va y avoir du boulot !

Smartphones\ » dans son Webmaster Tools. Certaines de ces erreurs mobiles reportées dans cet espace concernent :

  • Erreurs de serveurs
  • Erreurs non trouvées et 404
  • Redirection incorrecte
  • URLs bloquées

Exploration\ », puis sur \ »\ ».

Découvrez comment Bien référencer son site internet sur Google
Découvrez comment Bien référencer
son site internet sur Google

Google clarifie l\'utilisation de son outil de suppression de liens

Outil de suppression de liens.

Déjà, 2 semaines après sa mise à disposition, Matt Cutts avait accordé une interview à Danny Sullivan pour apporter des précisions.

Mais, ces dernières semaines, les critiques ont repris de plus belle sur la blogosphère, notamment anglosaxonne.

Olivier Andrieu, spécialiste en référencement, qui s\’est fait hara-kiri pour pousser un coup de gueule sur une certaine forme d\’opacité concernant le traitement des demandes de suppression de liens. C\’est vous dire si ce sujet commence à agacer plus d\’un.

C\’est donc dans ce concert de désapprobation de l\’outil de désaveu de liens que, suite à une interpellation sur un forum officiel de Google concernant cette fois l\’outil de suppression de liens, +John Mueller, Analyste des tendances chez Google a posté une contribution sur ce même forum afin d\’essayer de clarifier l\’utilisation de cet outil.

Voici la traduction de son message :

Peut-être quelques éclaircissements peuvent aider à comprendre …

  • L\’outil de suppression d\’URL n\’est pas destiné à être utilisé pour l\’entretien normal d\’un site. Cela fait partie de la raison pour laquelle nous avons une limite quant à son utilisation.
  • L\’outil de suppression d\’URL ne supprime pas les URL de l\’index, il les supprime de nos résultats de recherche. La différence est subtile, mais c\’est une partie de la raison pour laquelle ces soumissions ne changent en rien le nombre d\’URL indexées pour votre site.
  • Le fichier robots.txt ne supprime pas le contenu de notre index, mais dans la mesure où ne ne seront plus en mesure de l\’explorer à nouveau, il ne sera plus visible sur nos pages de résultats.
  • Afin de supprimer le contenu de notre index, nous devons être capable de l\’explorer, et nous devons voir une balise meta robots noindex, ou un code résultat HTTP 404/410 (ou une redirection, etc.).

    Par conséquent, pour pouvoir explorer un contenu, l\’URL ne doit pas être en mode \ »disallow\ » (accès interdit) par le fichier robots.txt.

  • Nous traitons généralement le code 404 de la même manière que le code 410, avec une petite différence qu\’avec le code 410, l\’URL n\’a pas besoin d\’être confirmée par une nouvelle exploration de GoogleBot. Elle est rapidement retirée de notre index.
  • Dans la pratique, ce n\’est pas important mais si vous pouvez utiliser le code 410, faîtes-le afin que le contenu soit supprimé.
  • Pour les changements de site de grande taille, je vous recommande:
    • De ne pas utiliser le fichier robots.txt
    • D\’utiliser une redirection 301 pour le contenu qui a déménagé
    • D\’utiliser un code 410 (ou 404 si vous ne pouvez pas) pour les URL qui ont été retirées
    • De vous assurer que le réglage de la vitesse d\’exploration est réglé sur \ »Laisser Google décider\ » (automatique) dans Google Webmasters Tools, de sorte que vous ne limitez pas l\’exploration de notre robot
    • D\’utiliser l\’outil de suppression d\’URL uniquement pour les questions urgentes ou très flagrantes.

    Jugez-vous ces explications sur l\’outil de suppression d\’URLs assez claires et suffisantes ? 

Netlinking : Qu\'est-ce qu\'un bon maillage de liens internes ?

Netlinking.




Les différents points de vue

Du point de vue des utilisateurs, des liens internes intelligemment placés ici et là leur permet de naviguer plus en profondeur du site. Ce qui constitue pour eux un gain de temps en informations complémentaires par rapport à leur recherche.

Du point de vue des robots des moteurs de recherche, le maillage de liens internes est aussi très important. Ne serait-ce que pour mieux comprendre la structure du site à partir de sa navigation.

Distribution du PageRank par le maillage interne

une certaine popularité

en terme de PageRank

Répartition des mots clés dans le maillage

Optimiser ses liens de navigation

Si votre menu de navigation est bien fait, vous ne devez avoir aucune page orpheline. C\’est à dire des pages qui ne soient liées à aucune autre page.

Les sites les plus complexes (portails) devraient utiliser des \ »fils d\’arianne\ » et autres \ »nuages de mots clés\ » (tags) pour proposer d\’autres alternatives à leur menu de navigation.

Pourquoi faut-il avoir très peu de niveaux de navigation sur son site ? Pour la simple raison que cela pourrait occasionner une faible indexation de vos pages web. Ce qui ne serait pas intéressant pour votre référencement. Car, des pages trop profondes peuvent être négligées par les robots dans l\’immédiat. Leur indexation prendrait plus de temps pour être effective.

Voici donc des conseils de netlinking qui pourraient vous aider à mettre en place une bon maillage de liens internes.

Les tout derniers chiffres de l\'internet – Mai 2012

Chiffres internet.

Les chiffres internet 2012 démontrent encore la somme des innovations de ce marché. Des chiffres, statistiques et parts de marché toujours croissants

Chiffres sur les internautes

  • La population mondiale des internautes est passée de 1,15 milliards en 2007 à 2,27 milliards en 2012 dont 53,8% se trouvent en Asie et 16,1% en Europe (Royal Pingdom).
     

  •  

  •  

  •  
  • 50% des 11-17 ans joue en réseau. Par contre 60% des 18-24 écoutent régulièrement de la musique en ligne. (Médiamétrie)
     
  • Challenges.fr)
     

  •  

Chiffres des moteurs et navigateurs

  • Au mois de mars 2012, détenait 90% de parts de marché en France contre 3,1% à et 1,4% à Yahoo! . (AT Internet)
     

  •  
  • Sur cette même période, Firefox perd quasiment un point à 20,88 % tandis que Safari recule de 0,07 point à 4,9 %.
     

  •  
  • Google enregistrait au mois de décembre 2011 plus de 90% des parts de visites pour les moteurs de recherche en Europe. Loin derrière, Bing obtenait 3,3 % des parts de marché, supplantant Yahoo !, Orange et Search-Results, qui drainent tous moins de 2%.
     
  • En janvier 2012, selon ComScore, 66,2% des recherches des internautes américains ont été réalisées sur le moteur de Google, contre 29,3% pour le couple Yahoo/Microsoft, qui sur un an perd du terrain (-0,3%).
     
  • Internet Explorer reste le premier navigateur internet, mais recule de 10,7 points en un an pour se retrouver à 33,8 %. (Médiamétrie-eStat )
     
  • Mozilla Firefox, son alternative la plus connue, conserve sa deuxième position, mais recule lui aussi avec 27,8 % en perdant 2,4 points en un an.  (Médiamétrie-eStat )
     

  •  

  •  
  • Blekko, le moteur de recherche concurrent de Google enregistre 5,3 millions de visiteurs uniques en avril 2012 contre 1, 5 millions de visiteurs uniques en décembre 2011. Soit un gain de 337% depuis décembre dernier.
     
  • Au seul mois de mars 2012, Blekko a reçu 3,71 millions de visiteurs uniques, soit une progression de 645% par rapport à mars 2011.

Chiffres de l\’informatique

  • Le cabinet IDC vise une croissance des technologies informatiques de 5% cette année et table sur une reprise fin 2012 du marché des PC, particulièrement attaqué ces derniers temps face à la montée des Smarthpones et tablettes tactiles.
     
  • Les dépenses informatiques se sont concentrées en 2011 sur les Smartphones (+46% sur un an), les logiciels (+6%) et les systèmes de stockage sur disques durs (+6% également).
     
  • D’après ComScore, en octobre dernier, encore 95% du trafic internet provenait des ordinateurs. Les mobiles sont quant à eux à l’origine de 3,2% du trafic et les tablettes 1,4%. Le reste correspond aux autres devices comme les consoles de jeux par exemple.
     
  • les analystes de Gartner ont calculé que les ventes de PC en France ont dégringolé de 11,8 % au dernier trimestre 2011, par rapport à la même période l’année précédente, avec 2,8 millions de machines vendues seulement.
     
  • A l’échelle européenne, 16,3 millions de PC ont été écoulés au dernier trimestre 2011, ce qui représente un déclin de 16 % par rapport à 2010. (Institut Gartner)

Chiffres de l\’email

  • Les chiffres confirment qu’avec 1.4 milliard d’e-mails reçus en France chaque jour, le secteur se porte bien et que la consultation se fait déjà pour une bonne part via des mobiles. (Sarbacane)
     
  • 115 milliards d\’emails routés en France en 2011 soit 1,4 milliards d\’emails reçus en France par jour.en 2011 (Sarbacanne)

Chiffres de la vidéo en ligne

  • En novembre 2011, plus de 29,4 millions d’internautes ont regardé au moins une vidéo sur leur écran d’ordinateur, soit 408 000 vidéonautes de plus qu’au mois d’octobre, selon les dernières mesures de Médiametrie//NetRatings. Ils y ont consacré en moyenne 3 heures et 26 minutes, chacun ayant regardé 71 vidéos au cours du mois.
     
  • Selon une étude interne, la Hadopi a détecté 25 000 adresses IP pratiquant le P2P illégal en France en 2011.
     

  •  

  •  

  •  

  •  
  • En tête des plateformes vidéo les plus populaires, le groupe Google/ cumule 24,6 millions de visiteurs uniques, pour plus de 1,3 milliards de vidéos vues en un mois. (Médiamétrie/NetRatings)
     
  • 60% des internautes affirment avoir regardé une vidéo dans les dernières 24h (Yahoo!)
     
  • 71% d’entre eux ont regardé une vidéo courte (Yahoo!)
     
  • 88% d’entre eux préfèrent les contenus de qualité professionnelle (Yahoo!)
     
  • 62% des internautes privilégient le contenu musical (clips vidéo) (Yahoo!)
     
  • 62% des internautes partagent ou recommandent une vidéo après l’avoir visionnée (Yahoo!)
     
  • 60 heures de vidéo sont mises en ligne toutes les minutes, soit une heure de vidéo mise en ligne sur YouTube toutes les secondes. (Youtube)
     
  • Plus de 4 milliards de vidéos sont regardées chaque jour. (Youtube)
     

  •  

  •  
  • Le nombre de vidéos mises en ligne sur YouTube en un mois est supérieur au nombre de vidéos créées par les trois principaux réseaux américains en 60 ans. (Youtube)
     
  • 70 % du trafic YouTube est généré hors des États-Unis. (Youtube)
     
  • YouTube est localisé dans 39 pays et 54 langues. (Youtube)
     
  • En 2011, YouTube comptait plus de 1 000 milliards de vues, soit près de 140 vues pour chaque habitant de la Terre. (Youtube)
     
  • 500 années de vidéo YouTube sont regardées chaque jour sur et plus de 700 vidéos YouTube sont partagées sur Twitter toutes les minutes. (Youtube)
     

  •  
  • Un tweet partagé automatiquement résulte en 6 nouvelles sessions youtube.com en moyenne et, chaque minute, Youtube affiche plus de 500 tweets contenant un lien YouTube. (Youtube)
     

  •  
  • Plus de 50% des vidéos sur YouTube ont été notées ou incluent des commentaires laissés par la communauté. (Youtube)
     
  • FastCompany)
     

  •  
  • Chaque jour, 6 millions de personnes regardent une vidéo sur Dailymotion via Facebook à partir de leur ordinateur. Sans compter les 405 millions de clics via le mobile.
     

Chiffres de l\’e-Commerce


  •  

  •  

  •  
  • le nombre de personnes ayant acheté sur Internet dépasse également les 30 millions en 2011 (Médiamétrie)
     

  •  

  •  
  • 75% des internautes de 18 à 24 ans, ainsi que des ménagères et 68% des retraités utilisent Internet pour comparer les prix avant tout achat. (Médiamétrie)
     

  •  
  • Au premier trimestre 2012, le nombre de transactions progresse de 25,2% sur un an : 86 millions de paiements au lieu de 69 millions au premier trimestre 2011. (journaldunet.com)
     
  • En mars 2012, la valeur globale des paiements en ligne par carte bancaire affiche une hausse de 17,4% par rapport à mars 2011 (journaldunet.com)
     

  •  

Chiffres des sites web et des blogs


  •  

  •  
  • Selon Yoast, il y aurait au mois de mars 2012 72,4 millions de sites propulsés à partir du CMS . Dont 20 à 25% des nouveaux sites web actuels. Soit 16% du total des sites existant sur le web.
     
  • Chaque jour, la plateforme WordPress.com comptabilise 500 000 nouveaux posts.
     
  • Il y aurait 32 millions de sites et blogs actifs sur le plateforme WordPress.com.
     
  • En terme de parts de marché des logiciels de création en CMS, WordPress en détient 53,8%, Joomla! 9,2% et Drupal 6,7%.
     
  • Il y a plus 19 000 plugins WordPress (extensions) gratuits disponibles sur WordPress. Lesquels plugins ont été téléchargés plus de 293 millions de fois sur le site WordPress.org !
     
  • 63,1 % des sites ou blogs WordPress ont des versions anciennes dont 50,2% sont encore à la version 3.0, 8,6% sont à la version 2.9, 3,7% à la version 2,8, 1,9% à la version 2.7, 2,7% à la version 2.6 etc… Si vous êtes dans ce cas, mettez votre site ou blog WordPress à jour avant que le pire ne vous arrive !
     
  • Tumblr héberge 42 millions de blogs et affiche un total de 16 milliards de \ »posts\ » publiés depuis sa création.

Chiffres des noms de domaine

  • Selon VeriSign, près de 6 millions de noms de domaine supplémentaires ont été ajoutés à Internet au cours du quatrième trimestre 2011. Cela porte à plus de 225 millions le nombre de noms de domaine enregistrés à travers le monde, dont 113,8 millions pour les domaines en .com et .net.
     
  • Les douanes Américaines ont saisi 758 noms de domaine pour contrefaçon. Eh oui, ça existe aussi ! (Numerama)

Chiffres de la publicité en ligne

  • Le marché US de la publicité en ligne pourrait croître de 23% en 2012 pour atteindre les 39,5 milliards de dollars en 2012. Ce qui pourrait dépasser les budgets publicitaires de la presse papier estimés à 33,8 milliards de dollars en 2012 (eMarketer).
     
  • En France, le marché de la publicité en ligne a progressé de de 11% en 2011, pour atteindre 2,5 milliars d\’euros (Observatoire annuel de l\’e-pub). Une prévision en hausse de 8% au minimum est attendue pour 2012.
     
  • Les revenus de la publicité en ligne aux Etats-Unis a atteint les 31 milliards de dollars en 2011, soit une hausse de 22% par rapport à 2010. (IAB : Interactive Advertising Bureau)

Chiffres de la sécurité internet

  • 11% de votre trafic web est invisible. C\’est à dire pas le fait d\’internautes, mais de hackers, de robots de spams, de scrappers … qui ruinent votre bande passante. (Incapsula)
     
  • 5% du trafic web est le fait d\’outils de hacking qui entraînent le vol d\’identifiants de carte bancaire, l\’infection de virus.. et aussi provoqueraient le crash des serveurs.
     
  • 5% du trafic web serait le fait des Scrapers.
     
  • 2% du trafic web serait le fait de robots spammeurs qui posteraient des commentaires quelconques sur tout site, pertubant le bon fonctionnement des serveurs.
     
  • 19% du trafic web serait le fait de toutes sortes de robots connus ou non et autres outils de tracking.

Que se passe-t-il chaque minute sur internet ?

  • 204 millions d\’emails sont envoyés.
     
  • réalise 83 000 dollars de ventes sur son site.
     
  • 20 millions de photos sont visualisées sur Flickr pendant que 3 000 sont téléchargées.
     
  • 6 millions de pages Facebook sont visitées dans le monde pendant que 277 000 membres Facebook se connectent à leur compte..
     
  • 61 000 heures de musique sont écoutées sur Pandora.
     
  • 1,3 millions de clips vidéo sont regardées sur Youtube.
     
  • 2 millions de recherches sont effectuées sur le moteur Google.
     
  • 135 infections de serveurs ou réseaux.
     
  • 20 nouvelles usurpations d\’identité sont constatées.
     
  • 320 nouveaux comptes Twitter et 100 nouveaux comptes Linkedin sont créés.
Chiffres internet par minute Mai 2012 – Source : Intel.com
Bien référencer son site internet sur Google
Découvrez comment
Bien référencer son site internet sur Google