Archives de tags : référencement

Impact des reseaux sociaux sur le référencement naturel : vers une strategie web globale ?

23 janvier 2013 Publié par 5 Comentaires

Sur le web en ces temps de morosité économique, il est de coutume que les différents corps de métier (SEO, SMO, CM, Webmarketing, etc.) tirent la couverture à eux se dénigrant les uns les autres. Mais en ces temps difficiles, il est primordial au contraire d’envisager le regroupement de ses troupes afin d’adopter une stratégie pérenne et optimale sur le web, c’est-à-dire adopter une stratégie web globale. C’est par l’intermédiaire de la complémentarité SEO et SMO (Social Média) et donc via l’impact des Réseaux Sociaux sur le Référencement Naturel que j’appuierai mon exposé.

Le SEO, le SMO kézako ?

Ces deux concepts sont importants à définir afin d’avoir une vision globale.

Définition du SEO

L’optimisation pour les moteurs de recherche (en anglais, Search EngineOptimization : SEO) oui référencement naturel est un ensemble de méthodes techniques, sémantiques et éditoriales visant à favoriser la compréhension de la thématique et du contenu d’une ou de l’ensemble des pages d’un site Web par les moteurs de recherche en vue de leur positionnement en fonction des requêtes utilisateurs.

Définition du SMO

L’Optimisation pour les Médias Sociaux ou référencement social (Social Media Optimization : SMO) est un ensemble de méthodes pour attirer des visiteurs sur des contenus de site web grâce à la promotion de ceux-ci via les médias sociaux. Le SMO regroupe les actions visant à favoriser la diffusion de contenu par l’action des internautes (User Generated Content).

Ces postulats établis, nous pouvons nous pencher sur la présence des réseaux sociaux sur les pages de résultats des moteurs de recherche (SERPs).

Les Réseaux Sociaux sur les moteurs de recherche

résultat de recherche Clubic Social media

On constate les effets du SMO sur le SEO ne serait-ce que sur les moteurs de recherche (requête de notoriété, ici « Clubic ») ce qui implique une étroite connexionavec la dimension de e-réputation.

De fait on remarque la présence de plusieurs éléments prépondérants :

–          Le compte Twitter

–          La page Facebook

–          Le Compte Google + (dans l’encadré à droite)

Cette présence est certes naturelle sur des requêtes de notoriété sur les moteurs de recherche, mais il convient d’appréhender les optimisations de l’écosystème social d’un site afin de capter d’avantage de visiteurs que par l’intermédiaire des seuls moteurs de recherche. Il conviendra donc d’apporter une attention toute particulière à l’utilisateur et à ses besoins.

Les optimisations de l’écosystème social

On peut distinguer plusieurs types d’optimisations qui auront pour but de diversifier les sources de trafic qualifié vers un site web. Pour illustrer mon propos, on distinguera les optimisations effectuées sur le site et celles effectuées sur le blog qui représentent les deux espaces dont la société a la parfaite maîtrise.

Optimisations on-site

Le site représente la première interface avec les internautes, un site est généralement une vitrine.

Le site permet :

  1. D’informer l’internaute qui a un besoin précis

Il s’agit ici d’apporter à l’internaute de l’information sur votre structure, sur vos produits et sur vos services. Il s’agit du but premier de votre site web.

  1. De générer une première communauté d’intéressés à la problématique de la société

Les visiteurs du site, une fois convaincus de votre sérieux et de votre professionnalisme seront plus enclins à rejoindre les espaces sociaux que vous aurez mis à leur disposition afin d’engager de dialogue avec eux.

  1. De générer des ventes

Le site pris en exemple a pour objectif d’apporter de l’information, mais dans le cadre d’un site e-commerce, la saisie des informations de connexion peut souvent se révéler fastidieux. Un Facebook Connect est généralement bienvenu afin de récupérer des informations pertinentes et valides afin de faciliter l’inscription et donc l’acte d’achat.

Optimisations SEO SMO On-site

Optimisations du blog

Le blog est prépondérant dans un écosystème social performant. De même il est nécessaire dans une optique de référencement naturel optimal. Ainsi, le blog permet :

  1. L’interaction avec les clients, qui à chaque post, rafraîchit le contenu de la page
  2. D’effectuer du « maillage interne » vers les pages stratégiques d’une marque
  3. Si le contenu est intéressant: partage sur Facebook / Twitter / Pinterest etc.

Optimisations du blog SEO SMO

On peut envisager plusieurs optimisations au blog qui passent par l’utilisation des plugins : les optimisations SEO et les optimisations SMO

AddThis

Plugin Addthis

  • Agrégation de plusieurs partages sociaux
  • Intégration facile à mettre en place

WordPress

Wordpress by SEO Yoast plugin

  • Ajout des meta données Open Graph

Comment Luv Plugin

  • Permet de déposer un backlink avec ancre optimisée

Autres plugins: Social Media Widget, Shareholic, Disqus Comment System (WordPress)

Plus de pluginshttp://wp.tutsplus.com/articles/35-social-media-plugins-to-help-increase-your-traffic/

Impacts des partages sur les moteurs de recherche

Plus le partage est repris (retweet, share):

  • Plus l’indexation est rapide.
  • Plus le classement des résultats Google peut varier dans un espace temps
  • Plus le share peut faire office d’article sur site tiers (ex: cas des infographies, retweet + article sur site du Twitter)

L’association du contenu avec l’AuthorShip permet d’obtenir une meilleure autorité et une meilleure visibilité dans les résultats.

Possibilité de visualiser tous les partages sociaux d’une URL avec SharedCount.

Authorship SEO

Google +, votre allié SEO et SMO

Google + peut être considéré comme l’outil principal pour optimiser votre présence tant bien sur les moteurs de recherche sur des requêtes de notoriété que sur les réseaux sociaux. Mais en fait, qu’est-ce que Google + ?

Logo Google +

Réseau social de Google

Même principe que Facebook

  • Profils
  • Pages entreprises

Propose des « Communautés »

Propose des boutons de partage intégrables : The famous +1

Quel est l’intérêt à utiliser Google + ?

  • Indexation quasi immédiate du contenu partagé
  • Personnalise les résultats dans les moteurs de recherche
  • Affichage de la page entreprise Google + dans les pages de résultats sur Google (requête de notoriété)
  • Influence possible sur le Knowledge Graph

Enfin voici des conseils à suivre de manière générale pour optimiser et votre SEO et votre SMO :

Les 12 conseils à suivre pour une stratégie globale

  1. Ecrivez du contenu qui fera réagir vos visiteurs, les interactions sociales viendront par la suite (commentaires, backlinks)
  2. Identifiez les personnes influentes dans vos cercles sociaux (FollowerWonk). Contactez les (ex: Linkedin) pour leur proposer des partenariats (ex: échange de liens entre blogs, guest blogging)
  3. Développez la page Google+ et si possible les pages Wikipedia. ImpactKnowledge Graph
  4. Optimisez bien le SEO on-site de vos pages et notamment les icônes des réseaux sociaux. Exemple: placer une alternative textuelle « Suivez YouseeMii sur Twitter » permettra de renforcer  les mot-clé lié au site et au média social.
  5. Utilisez des raccourcisseurs d’URL utilisant des redirections de type 301.
  6. Pistes d’optimisations pour Twitter et le SEO: http://blog.prbrigade.com/part-two-do-social-media-sites-help-seo-a-look-at-twitter/
  7. Reliez tous vos espaces sociaux ensemble
  8. Ajoutez les URL vers votre site ou vers votre blog
  9. Encouragez le clic (« call to action »)
  10. Partagez régulièrement (à minima une fois par semaine) du contenu (même si ce n’est pas du contenu édité en propre)
  11. Mettez en place une plateforme dédiée à votre veille type Scoop.it ou Pearltrees que vous pourrez mettre à disposition de vos visiteurs afin de proposer une base documentaire sur votre cœur de métier
  12. Commentez les articles qui traitent de votre thématique afin d’enrichir les billets et de rajouter des liens vers votre site ou votre blog (chasseur de prime) avec des ancres optimisées

>> Développer une stratégie Web globale et sur-mesure en fonction de votre secteur d’activité

Conseils stratégiques globaux

>> Plus grande cohérence entre les différents services

  • Web
  • Webmarketing
  • Communication
  • Marketing
  • E-commerce
  • Etc.

>> Synergies entre les services de l’entreprise

  • Plus grande fluidité pour l’internaute qui découvre un environnement structuré et cohérent
  • Rassurer l’internaute
  • Développer les contacts
  • Développer les ventes
  • Soigne la visibilité à moyen et long terme
  1. Notoriété
  2. Hors notoriété
  3. Multi-plateformes

>> Trafic qualifié et positionnement

Ainsi, avec cette vision, vous serez en mesure d’établir une stratégie web globale et ouverte pour la pérénnité en ligne de votre organisation.

Source : Youseemii

Sortie du filtre Google Panda 22

30 novembre 2012 Publié par Laissez vos commentaires

Google a confirmé la mise en place d’une nouvelle version de Panda (v.22), son algorithme visant à pénaliser les sites de mauvaise qualité, le 21 novembre 2012.

L’information a été confirmée au site SearchEngine Roundtable. Pour l’instant on ne sait rien d’autre que :

  • la mise à jour a eu lieu le 21 novembre 2012
  • l’impact moyen est tel que pour environ 0,8% des requêtes le changement est repérable.

De nombreux webmasters avaient repéré de gros changements quelques jours seulement avant. Certains avaient cru qu’il s’agissait d’une update officielle, mais ce ne fut pas le cas. Cet update avait été baptisé Google Poney (on va bientôt avoir un zoo entier).

Consultez mon dossier spécial listant notamment toutes les dates des versions de Panda.

On discute de Google Panda 22 dans le forum.

Si vous pensez que votre site a été pénalisé par Panda, ou si vous craignez pour votre site :

  • consultez ces conseils pour sortir de Google Panda et lisez les dossiers listés
  • demandez de l’aide sur le forum WRI
  • contactez-moi sur mon site pro WebRankExpert pour un devis d’audit SEO Panda
  • inscrivez-vous à ma formation au référencement : je donne de nombreux conseils pour sortir son site de Panda au cours du module B. Dans la même journée, j’aborde d’autres notions stratégiques comme la gestion des contenus dupliqués ou le netlinking (incluant Pingouin). Les prochaines dates pour ce module sont le 13 décembre à Lyon et le 21 décembre à Paris.

Avez-vous remarqué quelque chose sur votre site ?

Au sujet de Panda,si vous n’avez pas encore vu ces infographies, c’est l’occasion :

Pourquoi le responsive Design est incontournable ?

30 novembre 2012 Publié par Laissez vos commentaires

Le responsive design; ou design web responsive, ou encore design adaptable est aujourd’hui un sujet à la mode dans le petit monde du web, même si ce concept n’est pas forcement très nouveau. Mais s’agit-il vraiment d’une mode, ou plutôt d’une évolution incontournable d’Internet ?

État des lieux sur les habitudes de navigation

Le responsive design répond à la problématique d’une nouvelle utilisation du web. Alors qu’auparavant, on consultait un site web depuis son ordinateur de bureau ou son ordinateur portable, on utilise aujourd’hui d’autres supports pour surfer sur Internet : desktop et ordinateur portable, certes, mais aussi tablette ou encore smartphone.

De plus, l’achat via un terminal mobile est aujourd’hui une pratique ultra courante. Les e-commerçants peuvent-ils se permettre de ne pas satisfaire les visiteurs qui utilisent un terminal mobile ? Non, et pour cela, le responsive design est la solution appropriée.

A quoi correspond le responsive design ?

Le fonctionnement du responsive design est simple : il s’agit de proposer un web design qui s’adaptera à la résolution du support utilisé. Il est important de noter que le design et l’intégration n’ont jamais été aussi proches. Pour concevoir sa maquette, ou plutôt ses maquettes web responsive, le webdesigner doit prévoir à partir de quelle résolution l’image doit se modifier, et les blocs se déplacer. L’idée du web responsive est justement une réorganisation des éléments d’une page pour que, quel que soit le support de navigation utilisé, tous les éléments restent visibles, accessibles et harmonieux.

Un site développé en responsive design est au final une solution moins coûteuse…

A partir de là, l’intégrateur doit permettre l’affichage de tous les éléments de la page en prenant en compte les contraintes du responsive design. Avantage technique non négligeable également : les images présentes sur un site ne sont stockées qu’une seule fois sur le serveur.

Le coût d’un site Internet en responsive design peut être élevé (même si c’est de moins en moins vrai), et le temps de réalisation peut sembler long. Mais il suffit de comparer avec la réalisation d’un site Internet, d’une version pour les tablettes, d’une application mobile, d’une version smartphones… Le responsive design permet la mutualisation de ces coûts.

…et mieux référencé

Au-delà de l’aspect financier, le responsive design a pour avantage d’utiliser de manière massive des éléments favorables au référencement naturel. Le responsive design peut tout à fait prendre en compte toutes les problématiques du SEO pour permettre aux sites marchands ou aux e-commerçants d’être visibles et compétitifs sur les moteurs de recherche.

Il est probable que demain, le responsive design devienne une norme en termes de graphisme, mais aussi en ce qui concerne l’expérience utilisateur. En effet, le responsive design rend nécessaire une phase d’ergonomie poussée, phase qui ne peut qu’être bénéfique pour un site Internet.

Les conseils référencement d’un ancien de l’équipe de Matt Cutts

22 octobre 2012 Publié par Laissez vos commentaires

Andre Weyher, qui a passé près de 5 ans à travailler dans l’équipe de lutte contre le spam chez Google (dirigée par Matt Cutts, vient de donner quelques conseils au cours d’une interview. Voici quelques infos à retenir…

Tout ce qui suit dans cet article correspond aux déclarations d’Andre Weyher publiées sur le site jamesnorquay.com.

Andre Weyher

Chaque membre de l’équipe se voit affecté à un marché ou une spécialisation. Andre Weyher s’occupait plus particulièrement de surveiller la qualité des contenus et les profils de backlinks. Dans certains cas, il pouvait appliquer une pénalité dépendant de la sévérité et la nature des infractions aux consignes qualité de Google. Il devait également rédiger des rapports sur l’état du spam dans le marché dont il s’occupait.

Selon lui, il faut s’attendre à encore d’autres changements dans la lignée de Panda et Penguin. Il pense que peu de gens s’attendaient à ce que les mesures prises par Google avec ces derniers updates soient si importants. Il estime qu’il ne faut surtout pas continuer de se baser sur des techniques SEO qui fonctionnaient encore il y a 8 mois… Selon lui, acheter des liens a toujours été risqué mais maintenant, la question n’est pas « Est-ce que Google va me repérer ? » mais « Quand Google va-t-il me repérer ? ». Plutôt que de se baser sur le PageRank, Andre Weyher conseille de se concentrer sur la pertinence du site qui nous fait un lien : il faut absolument qu’il soit dans la même thématique.

L’analyse d’un site par un membre de la search quality team se concentre souvent sur ces 3 familles :

  • l’analyse on page : par exemple, la page est-elle bourrée de mots-clés (keyword stuffing) ? des éléments sont-ils masqués à l’aide de CSS ? le texte est-il écrit de la même couleur que le fond ?
  • l’analyse de la qualité du contenu : Google ne juge pas la nature du contenu mais son authenticité. Parmi les techniques jugées spam, il cite le scraping, les textes obtenus par l’usage de synonymes ou plus largement les textes dont la qualité est vraiment faible (il fait donc référence au content spinning). Sur ce sujet, lisez mon dossier sur les critères de qualité éditoriale.
  • l’analyse du profil de backlinks : plus que le nombre de backlinks, c’est surtout la qualité des pages faisant les backlinks qui est étudiée. Il regarde la page en se demandant si elle est là pour offrir des backlinks ou bien si elle semble « normale ». Il surveille les ancres des liens (anchor text) et notamment la proportion d’ancres avec des mots « commerciaux » (on dit plus souvent « mots-clés »). Selon lui, c’est très facile de reconnaître un profil de backlinks blackhat (comprenez : qui ne respecte pas les consignes de Google, les fameux liens « factices »).

Andre Weyher trouve qu’en général les gens sous-estiment l’importance de l’optimisation des pages elles-mêmes. Il conseille de choisir très soigneusement les libellés de la balise title, de la meta description et des titres h1/h2. Pour ne pas tomber dans la suroptimisation, il recommande de ne pas mettre plus de 2 mots « commerciaux » dans les titres. Comme dans les conseils officiels de Google, il conseille de travailler la qualité du contenu comme si le SEO n’était pas une priorité.

Concernant les stratégies de netlinking, il estime que les choses ont totalement changé depuis les derniers algos (Pingouin notamment). Tout ce qui peut être fait de manière automatisée ou à grande échelle est risqué pour le référencement. L’obtention de backlinks est passée d’un procédé purement technique à ce qui ressemble plus à des campagnes de relations publiques.

Il s’étonne des conseils largement répandus indiquant qu’il faut éviter les annuaires car ils sont mauvais pour le référencement. Selon lui c’est faux mais il faut chercher les bons annuaires de qualité, bien modérés ou des annuaires spécialisés.

Toujours concernant les backlinks, il faut vraiment être obsédé par la qualité des pages qui font le lien et non pas sur leur nombre. Il donne comme exemple qu’il vaut mieux 3 liens venant de pages authentiques que 1000 liens issus de splogs. Depuis la création de WebRankInfo en 2002 je conseille de se concentrer sur la qualité des backlinks (voyez aussi les 3 fondamentaux de la qualité d’un backlink)…

Enfin, il pense que l’algorithme de Google se basera désormais sur les réseaux sociaux et notamment sur Google+, que Google n’abandonnera certainement pas.

Etude : répartition des clics sur AdWords et résultats naturels (SEO)

11 octobre 2012 Publié par 1 Commentaire

Le site compete.com vient de publier les résultats d’une étude identifiant la proportion de clics sur les résultats naturels et sur les AdWords, avec toutes sortes de détails.

Pourcentage de clics AdWords et SEO

Répartition des clics entre liens sponsorisés et naturels, et pour le SEO selon la position

Selon le site SearchEngineWatch qui rapporte les principaux éléments, l’étude a été menée sur des dizaines de millions de requêtes (et de SERP) au cours du dernier trimestre 2011. Vous pouvez vous la procurer en remplissant le formulaire situé ici mais voici l’essentiel à retenir :

En moyenne, les internautes cliquent à 85% sur les liens naturels (SEO) et à 15% sur les liens sponsorisés.

Sur l’échantillon de SERP étudiées, compete.com a identifié qu’il y a des publicités dans 55% des cas.

Je n’ai pas trouvé sur quels moteurs l’étude a porté (uniquement Google ou Bing et d’autres ? uniquement google.com ou d’autres sites ?).

Proportion de clics selon le positionnement (SEO)

Dans les résultats naturels, voici les pourcentages de clics selon la position :

  • #1 : 53% des clics !
  • #2 : 15%
  • #3 : 9%
  • #4 : 6%
  • #5 : 4%

A ma connaissance, aucune étude n’avait attribué une telle importance au tout premier résultat.

Il ne reste quasiment que des miettes pour le bas de la 1ère page de résultats, alors n’imaginez pas avoir grand chose si vous êtes en page 2…

Dans le résumé que j’ai lu, on ne précise pas l’impact des liens publicitaires situés en haut de page sur le taux de clic dans les résultats naturels. Dommage, car on imagine bien qu’il y a une forte baisse.

Visibilité et clic dans les liens publicitaires (SEA)

Dans les liens sponsorisés (SEA), il y a une très forte disparité entre les affichages et les clics : même si la marge de droite représente 61% des affichages de pub, elle ne comptabilise que 13% des clics, l’essentiel d’entre eux allant sur les publicités « premium » situées en haut, au-dessus des résultats naturels.

Répartition des affichages et des clics dans les pubs

Répartition des affichages et des clics dans les pubs (SEA)

Répartition des clics en SEA selon la position

Répartition des clics en SEA selon la position

Dommage que cette étude porte sur des données vieilles de fin 2011, mais elle n’en demeure pas moins intéressante. Qu’en pensez-vous ?

Pingouin 3, la révélation : Que faisait pingouin la nuit dernière ?

6 octobre 2012 Publié par Laissez vos commentaires

Matt Cutts vient d’annoncer une mise à jour des données de Penguin, le filtre visant à pénaliser les sites qui ne respectent pas les consignes de Google. Contrairement à ce qu’il avait annoncé, Pingouin 3 pourrait avoir un impact du même ordre que Pingouin 2.

L'algorithme Google Pingouin contre le spamdexing

Google Penguin arrivé en v1.1 le 26 mai 2012

Selon Matt Cutts (source), il s’agit d’une simple mise à jour des données, et donc pas de l’algo en lui-même, alors qu’il avait fait trembler le monde SEO en prédisant que cette mise à jour serait énorme… Ca sera peut-être pour Pingouin 4 ?

Toujours d’après le boss de la lutte contre le spam chez Google, cette mise à jour ne toucherait que 0,3% des requêtes en anglais. Peu de précisions ont été fournies pour les autres langues, mais il a néanmoins précisé que c’était environ 0,4% pour le français et l’espagnol, 0,3% pour l’italien.

Weather report: Penguin data refresh coming today. 0.3% of English queries noticeably affected. Details: goo.gl/AF5kt

Remarque : la numérotation des versions de Pingouin se fera finalement sans numéro secondaire de type 1.1 ou 1.2. Les différentes versions sont donc les suivantes :

  • Pingouin 1, sorti le 24 avril 2012
  • Pingouin 2, sorti le 26 mai 2012
  • Pingouin 3, sorti le 5 octobre 2012

A quoi peut bien correspondre cette v3 si elle touche aussi peu de cas ? Pourquoi Google n’a-t-il toujours pas sorti de correction à son algo Pingouin, alors que de nombreux exemples d’échecs lui ont été fournis ?

Enfin, cette annonce confirme une nouvelle fois que malheureusement, le manchot de Google ne prend pas en compte en continu les modifications des webmasters. Comme Panda donc, il faut attendre à chaque fois qu’une nouvelle version sorte pour savoir si les optimisations ont été efficaces… Ceux qui vous disent qu’ils sont sortis entre 2 mises à jour sont donc dans l’erreur !