Fait vivre votre communication

Webmaster à temps partagé - 01 - 71 - 69 - 39
10 impasse des Acacias
Berzé-la-Ville
Bourgogne
71960
France

Réussir son référencement web – Stratégies et Techniques SEO

Ecrit par le consultant en référencement Olivier Andrieu, ce livre constitue la “bible” du référencement “white hat” c’est à dire en conformité avec les bonnes pratiques et recommandations du moteur de recherche Google. Que donne cette édition 2014 ?

comment-reussir-son-referencement-web-strategies-et-techniques-SEO-par-Olivier-Andrieu

On y va ?

655 pages. Plusieurs heures de lecture en perspective. Sans compter la reprise de notes et la formulation d’une synthèse. 2 jours de boulot. On achète ou pas ? Qui n’a pas hésité devant la lecture d’un “pavé” qui, non content d’être long, risque de remettre en cause un certain nombre de processus, ébréchant au passage l’ego ?

On achète, bien sûr ! car être consultant en référencement en saône-et-loire et dans l’ain (ne vous marrez pas) implique de mener une veille très régulière, à un moment où “ça bouge sévère” du côté des moteurs de recherches (montée en puissance de Google+, modifications des pages de résultats Google, augmentation du “not provided”, quid de la pérennnité de Bing suite à l’arrivée du nouveau CEO de Microsoft, etc…).

Par ailleurs, le SEO est – à l’évidence – une discipline majeure des années à venir, y compris pour les webmasters freelance perdus à Mâcon, in the Bourgogne : les entreprises sont de plus en plus dépendantes du web, leur modèle économique passe inexorablement par une visibilité croissante sur les moteurs de recherche. En clair : leur niveau d’exigence grimpe et proposer des prestations de haute qualité en référencement / SEO / SMO est une volonté très forte de Jean Sam Communication.

Notre approche : se tourner vers les experts et apprendre d’eux

A la sortie du livre d’Olivier Andrieu, plusieurs centaines de blogs reprennent à l’unisson la nouvelle. Bon, nous on a mis plusieurs semaines mais le fait est qu’ON A LU LES 655 PAGES ! Et pour éviter de reprendre les grandes lignes et de vous balancer le sommaire, ce qui ne présente qu’un intérêt limité, doublé d’un très fort pouvoir sédatif, nous mettrons le focus sur les éléments sur lesquels nous avions besoin d’une “piqûre de rappel”. Cet article n’est donc pas un résumé du livre et les personnes souhaitant des renseignements complets sur le référencement naturel sont invitées à acheter cet ouvrage dédié aux bonnes pratiques SEO.

Première page des résultats

56% des clics sont récoltés par le premier résultat, 15% par le deuxième et 9% par le troisième, soit 80% des clics pour les trois liens !

Les chiffres évoluent d’une année sur l’autre et il est important d’avoir les derniers en tête. Ceci étant, d’autres études également citées dans l’ouvrage font état de chiffres différents : 36.4%, 12.5% et 9.5% soit un total de 58,4 %. Ouch ! C’est pas la même chose… Bon, faisons simple : c’est soit le triangle d’or, soit des clopinettes. Et l’auteur de conclure :

(…) ce sont les trois premières places qu’il faut viser.

L’importance d’intégrer le référencement très en amont

Le moule est le code HTML, la partie technique du codage qui doit être réalisée en amont de la création du site : présence des balises title, meta description, hn, canonical (…) ect.

Nous aimons rappeler cela car dans 90% des cas, les sites internet que nous auditons ne présentent absolument pas les caractéristiques élémentaires en terme de code. A plus forte raison si le code est ancien. D’où l’idée de contracter non seulement pour la création d’un site conformes aux standards, mais aussi pour des audits (annuels ou bisannuels) visant à mettre à jour le code et à l’enrichir (avec l’arrivée des rich snippets par exemple).

La longue traîne

Il est en tout cas certain que le concept de longue traîne ne peut pas, en 2014, être ignoré dans le cadre d’un référencement. Il faut absolument, pour mettre en place une stratégie gagnante de visibilité sur les moteurs de recherche, soigner à la fois les mots-clés qui vont nourrir la tête, comme la structure du site qui va mettre en avant les mots-clés de cette longue traîne.

Là, c’est nouveau. Pour nous, en tout cas. Jusqu’à présent, nous nous préoccupions exclusivement de la courte traîne (la “tête”) en mettant en avant des contenus optimisés. Nous devons donc prendre également en compte la longue traîne et, tout d’abord, identifier pour chaque client quels sont les termes “satellites” qui apportent du trafic. Là encore, faisons simple : Google Suggest, les Related Searches et enfin Google Webmaster Tools.

Statistiques : quel nombre de recherches mensuelles, pour quel niveau de difficulté ?

On peut estimer que des statistiques entre 1 000 et 20 000 fois par mois en moyenne sont très intéressants.(…) Sachez également qu’au-delà de 50 000 saisies mensuelles, le travail deviendra plus long, la recherche de backlinks plus importante et les délais nécessaires plus aléatoires.

Intéressantes statistiques à avoir en tête, même si chaque cas client présente des spécificités.

Ordre des balises de titre

Vous pouvez passer d’une balise <h2> à une balise <h4> sans passer par la balise <h3>.

Ca va mieux quand c’est écrit, on aura moins de remords à le faire :) Plus sérieusement, ça va faire gagner en simplicité certains projets qui demandaient parfois une grosse gymnastique HTML et CSS pour vraiment coller aux standards.

Soigner la balise meta description

Si le contenu de la balise meta description est assez long (supérieur à 100-150 caractères) et s’il est cohérent par rapport au contenu de la page (et à la requête demandée), c’est ce texte que Google utilisera comme résumé textuel (snippet).

Toujours bon à savoir. La “maîtrise” de l’affichage des SERP peut devenir un véritable enfer, surtout lorsqu’on veut se débarrasser d’informations contenus dans le cache de Google (ancien site).

Densité de mots-clés

Un critère qui tombe donc peu à peu dans l’obsolescence.

Tant mieux, cela favorisait l’écriture pour le moteur, et pas l’écriture pour l’internaute.

Localisation du texte

(…) un mot peut être au début ou à la fin d’un contenu textuel (…), il aura le même poids pour Google.

Evolution intéressante par rapport à une édition précédente du livre (2012 ?). Là aussi, ça semble plutôt positif.

Google peut choisir le titre qu’il affiche

Depuis quelques années, il arrive que Google affiche dans ses résultats un autre titre que celui contenu dans la balise <title> si celui-ci ne contient pas la requête demandée.

Bon à savoir. Ca peut éviter de s’arracher les cheveux pendant tout un après-midi sur une SERP non conforme à l’idée qu’on s’en faisait.

L’intégration de la temporalité

Si votre site vise des requêtes froides (sans rapport avec l’actualité immédiate), la fréquence de mise à jour de votre site et de vos pages n’aura pas un impact très fort sur votre référencement (sans être nul).
Si votre site vise des requêtes chaudes (ayant un rapport direct avec l’actualité – par exemple les soldes), vous devrez mettre à jour très souvent votre site.

Chez Jean Sam Communication, nous tombons quasi-exclusivement dans la première catégorie de sites. Peut-être un jour un grand journal (le JSL ? LOL) nous confiera son SEO, auquel cas cette notion de fréquence prendra toute son importance.

Quelques points sur les liens

Un lien aura une meilleure efficacité au niveau de la pertinence s’il est placé au coeur de la page, intégré dans un contenu et sur plusieurs pages du site, au lieu d’une seule.

Pas toujours évident, mais faisable. Référencer le site dans l’Open Directory (http://www.dmoz.org/), le site étant très ancien. Easy. Et puis préférez les liens triangulaires plutôt que réciproques. Fair enough.

Piloter les liens

Vérifiez bien, à intervalles réguliers, que les liens pointant sur votre site, notamment depuis des sites populaires, existent encore et qu’ils n’ont pas été effacés ou modifiés (…).

Ah là, ça nous parle !!! Because franchement, nous n’avions pas d’outil de veille réellement fiable pour cela (mise à part GWT ou encore Ahrefs). Olivier nous parle de Linkody (entre 15.00 $US et 59.00 $US par mois – intégrable dans une propale sans souci) ou SEO Toolbox qui est gratuit. A creuser rapidement.

Piloter les liens (suite et fin)

Si certains [sites] envoient beaucoup de trafic, fidélisez-les pour que le partenariat continue (…). Si le trafic créé par d’autres sites est faible, essayer de comprendre pourquoi et réagissez en conséquence.

Evident ! euh dans nos contrées reculées, où les agences web côtoient les vaches charolaises et les chevreuils, mesurer le retour de chaque site partenaire en terme de fréquentation par les liens, n’est pas toujours une évidence pour tout le monde. Ceci étant, c’est juste du bon sens et le témoignage d’un travail SEO accompli jusqu’au bout.

Piloter les liens (ah non, tiens, il en reste encore !)

Cesser de faire joujou avec les nofollow, parce que cela ne joue plus. Tous les liens sont désormais comptabilisés par googlebot et le jus de ceux balisés en nofollow, est jeté au caniveau. Tout en dofollow (standard) désormais. C’est plus simple aussi.

Par ailleurs, deux liens identiques dans une page ? Googlebot suivra le premier et dénigrera le second (en terme de SEO). Assurons-nous donc que le premier est bien optimisé !

Le mobile

Le trafic sur mobile représente plus de 13% du trafic mondial en 2012, contre à peine 1% en 2009; en 2012, Cisco estimait que le trafic sur mobile serait multiplié par 18 en 2016.

C.Q.F.D. ! Quand nous pensons à toutes ces entreprises qui refont leur site web, actuellement et prochainement, sans développer une version adaptative du site ! Nous rions, nous rions ! Pas tant que cela, en fait.
A compter du 01 janvier 2014, le développement de nos sites passe obligatoirement par une approche responsive : Company Policy.
A noter une ressource extraordinaire dénichée par Olivier et codée par @brad_frost, un “pape” du responsive webdesign : http://bradfrost.github.io/this-is-responsive/patterns.html.

Les réseaux sociaux

Parmi les derniers leviers apparus, les réseaux sociaux prennent une place de choix. Avec les centaines de millions d’utilisateurs de Facebook, Twitter et Google+, le marché est plus que tentant pour les responsables marketing de tous bords.

Chefs d’entreprise, ces lignes ne doivent pas vous faire céder au syndrome “Je-dois-créer-ma-page-Facebook-tout-de-suite-là-maintenant”. Ne rigolez pas, cela arrive quotidiennement. En effet :

(…)le SMO (Social Media Optimization) est une stratégie très tendance, dans la mouvance du succès des réseaux sociaux, et sa réelle efficacité reste à démontrer de façon claire (…).

D’un point de vue purement SEO, les liens créés sur la plupart des réseaux sociaux sont en “nofollow”. Olivier met Google+ dans le même sac. Après un audit rapide de notre page Google+, il semble que les liens sont en rel=”nofollow” s’ils sont dans le contenu éditorial. En revanche, les liens dans la partie supérieure du post sont en rel=”noreferrer”.
N’ayant jamais rencontré cet attribut “noreferrer” auparavant, direction SearchEngineLand :

When you do a search on a search engine, this means what you searched for — the exact words — are passed along as part of the referrer.

Traduction en terme de SEO : a priori aucun impact, mais tout avis extérieur sur la question est le bienvenue.

[Edit] : Yasine A. du site Ya-Graphic.com publie une “anti-sèche” complète sur le sujet.

Pour en finir avec les réseaux sociaux et le SMO : nous pensons qu’à terme, c’est indispensable car les réseaux sociaux changent tout simplement la manière dont les gens communiquent. Avant, le courrier. Maintenant, le mail beaucoup, le courrier moins. Demain, le réseau social beaucoup, le mail un peu, et quid du courrier ? Pour une entreprise, la question n’est donc pas de savoir s’il faut y aller, mais avec quel(s) réseau(x) et quels moyens ? L’idée n’étant pas de créer une page Facebook du jour au lendemain, sans réflexion ni personne pour s’en occuper. L’idée c’est d’intégrer les réseaux sociaux de manière cohérente en faisant preuve d’un minimum d’anticipation. Et de gagner du trafic.

Par ailleurs, Olivier insiste sur le fait que “Google et Bing semblent bien avoir développé des outils de détections de signaux totalement spécifiques à ces nouveaux outils”. Traduction : les réseaux sociaux permettraient aux moteurs d’identifier des pages intéressantes à faire ressortir du lot.

La mesure de la performance et l’estimation du retour sur investissement

La vérification d’un référencement s’est alors tournée vers la notion de trafic généré. On était plus proche de la réalité. Il ne s’agit plus d’être bien positionné (…) mais de créer un trafic (ou de l’augmenter s’il existe déjà) en provenance des outils de recherche.(…) La mouvance actuelle n’est plus au strict positionnement des pages web pour mesurer l’efficacité d’un référencement.

Hu Ho, once again, big change ahead. Cette notion fondamentale rejoint nos propos en début d’article : il faut approfondir notre manière d’analyser les statistiques, il faut “creuser”. C’est là que réside la valeur ajoutée d’un expert en référencement soucieux de la performance d’un site. Reste à faire comprendre à nos clients que (1) cela prend du temps et que (2) cela implique des améliorations à apporter au niveau des sites. Donc du budget supplémentaire, au moins une fois par an si ce n’est plus. Or, les budgets sont serrés et il n’est pas évident de dire à un client “Ce qu’on a fait il y a un an, on peut l’améliorer mais ça va vous coûter de l’argent”. Chez Jean Sam Communication nous intégrons cette logique dans nos devis : certains prospects sautent au plafond ! Hu hu hu.

NB : Olivier nous donne une liste de ressources pour suivre le référencement d’un site. Nous notons (une fois encore) l’écrasante supériorité des solutions américaines en terme de présentation et de design, par rapport à certaines solutions françaises. Dommage…

Rich snippets

L’intégration du web sémantique permet de produire des extraits enrichis (optimisés) qui augment la visibilité de vos snippets à l’intérieur des SERPs (…) et, logiquement, suscitent plus de clics.

Le livre apporte une clarification de l’implémentation des rich snippets : identification de la thématique du bloc, définition du type d’attribut… C’est pas du luxe car le site schema.org est plutôt concis sur la question !

DUST : Duplicate URL, Same Text (duplicate content intra-site)

Celles et ceux qui ont lu le livre de Daniel Roch ont pu comprendre l’importance de limiter le duplicate content… d’autant plus que WordPress est un duplicateur de contenu par définition, avec ses thèmes natifs. Nous avons tous pris des actions correctives et le référencement des sites internet de nos clients, s’en est trouvé amélioré.

Mais ici, Olivier “creuse” (encore et toujours) et aborde la question de la page d’accueil et de son duplicate content :

Voici un exemple d’une même page accessible via plusieurs URL distinctes :
http://www.votresite.com/
http://www.votresite.com/index.html
http://www.votresite.com/index.php
(…)

Auditons nos pages d’accueil et apprêtons-nous à quelques surprises ! La solution ? plusieurs approches mais la base c’est la balise <link rel=”canonical” href=”ici_l_url_canonique” />. A noter le super outil de Xenu pour détecter les liens cassés.

Une forme de conclusion

Le livre d’Olivier Andrieu vient bousculer légèrement nos pratiques SEO et c’était l’objectif poursuivi. Pas d’expertise sans remise en question !
Comme tous les ans, il y a un vrai travail de mise à jour et on a pour son argent. Par ailleurs, nous apprécions particulièrement cet auteur car son propos est engagé. Et ouvert. Olivier consacre notamment un article tout à fait passionnant sur un référenceur blackhat dont la vision du SEO ne manque pas de pertinence ni d’impertinence !

La difficulté pour nous n’est pas tant de faire évoluer nos pratiques, que de concilier une vraie démarche SEO avec une clientèle dont les moyens sont limités. Ou plutôt devrions-nous dire “Une clientèle qui n’a jamais sérieusement mis de moyens en SEO”. Pour la plupart des PME françaises locales, traditionnelles (industries, services), investir en référencement SEO constitue une composante complètement nouvelle, coûteuse, obscure (leur capacité à apprécier a priori un prestataire, est voisine de zéro) et sans résultat garanti.

Ceci étant, elles n’ont pas attendu le SEO pour s’adapter et parions qu’elles sauront le faire là aussi.

Article écrit par Jean Sam Denis

jean-sam

Bonjour, je suis Jean-Sam, webmaster / community manager à temps partagé, auprès de PME installées en Bourgogne, en Franche-Comté et Rhône-Alpes. J'essaie d'apporter de la cohérence et de l'ambition aux projets internet, afin qu'ils soient durables et profitables.
Ma particularité est de rester à proximité du client durant toute la durée de notre collaboration, en assurant la maintenance complète ou partielle du site (rédactionnel, photo, vidéo, newsletter, réseaux sociaux, référencement...).

Me joindre par mail ou me joindre par téléphone

De 2007 à 2017