Quelle stratégie de référencement gagnante adopter ?

post
Credits
Image voir Notes de fin - Article: , Surfandbiz
Alors que les poids lourds de la recherche en ligne chasse l'hyper-optimisation et le netlinking de mauvaise qualité, l'éditeur de sites web perd ses repères et craint la zone rouge. Voici quelqes pistes pour éviter les écueils et s'adapter aux nouveaux enjeux du référencement.

2013 sera une année charnière en matière de référencement web. Internet évolue très vite entre les nouveaux outils disponibles sur les réseaux sociaux et les mises à jour incessantes des algorithmes des moteurs de recherche.

S'il y a un sujet qui fait le buzz permanent autour de la planète depuis plusieurs mois, c'est bien le webmarketing avec les techniques de référencement, de promotion, d'acquisition et de fidélisation en ligne. Les géants du Net maîtrisent le monde digital et pour survivre dans la jungle du web, il vaut mieux désormais se plier aux règles du jeu en vigueur.

Pour autant, il faut aussi comprendre le sens et l'intérêt de tous ces changements brutaux en quelques mois. La première époque d'Internet s'est construite autour de valeurs majoritairement quantitatives. Pendant longtemps, on a parlé uniquement de liens entrants, avec des ancres sur des mots clés ciblés pour imposer l'autorité d'un site dans les Serps. Toutes les méthodes de SEO étaient construites autour de cette constante globale.

Les agences web travaillaient par ailleurs sur le volume, l'optimisation des pages web et beaucoup moins la qualité du contenu. L'objectif à atteindre - être sur la première page de Google sur une requête cible tapée par un internaute. Mission impossible ? non, car on peut même remonter dans les 3 premières places de cette même page en travaillant son référencement naturel sur la durée.

De manière inévitable, le référencement naturel est devenu trop spammable avec l'évolution de logiciels qui polluent le web à la vitesse du son. Bien maitrisée la technique des blasts est redoutable, mais laissait présager du pire en décapitant les valeurs d'internet. On ne parle plus ici de poser des liens positifs par le biais d'un commentaire constructif sur un blog ou un forum. Or, un internet libre et ouvert, propre et durable c'est aussi les mêmes chances pour chacun d'accéder au podium de la première page.

La limite de la pertinence ou de l'acceptable est atteinte depuis longtemps. A toute action correspond une réaction d'intensité égale, et les mises à jour successives de Panda et Pinguin sont là pour démanteler les actions commandos de netlinking, l'hyper-optimisation de liens et de pages, destinées à propulser artificiellement des pages web dans les premiers résultats de recherche. D'ailleurs, tous les sites pénalisés ont un profil abusif de lien non naturel (conf. article seomix), ce qui ne veut pas dire qu'il n'y a pas de dommages collatéraux.

La sur optimisation des ancres est un jeu de massacre. Il est encore très étonnant de voir sur les commentaires de blogs une grande quantité d'ancres ciblées sans limite sur du top keyword. Destructeur pour l'utilisateur. Il est important de faire varier les ancres et en particulier d'utiliser des ancres de branding tels que Monsite, Monsite.com. Ce qui compte avant tout c'est de faire passer le jus. La marque est intouchable et frappe les esprits surtout si vous avez un nom de site qui explique déjà le produit ou le service. Et si vous souhaitez caler 2 liens dans un billet, passez en mode bio, en alternant ancres cibles et génériques : « voir la suite », « pour en savoir plus ».

La quête du Graal chez Google, c'est la pertinence. Il s'agit avant tout de fournir une réponse qualitative aux requêtes pour servir au mieux les intérêts des internautes. Il était donc difficile de continuer à donner un poids aussi important au netlinking de mauvaise qualité dans de telles conditions. Est-il logique de déterminer la pertinence et le classement de chaque site uniquement sur des critères quantitatifs devenus trop manipulables ? Dévastateur pour le web et l'utilisateur, au risque de perdre la confiance des internautes.

En toute logique, l'algo du premier moteur de recherche mondial rééquilibre le poids de certains critères parmi plus de 200 autres. Il accorde plus qu'auparavant un intérêt à la qualité du contenu qu'il peut désormais mesurer grâce aux indicateurs clés des réseaux sociaux. Le taux de rebond est également à prendre en compte. Un faible taux de rebond sur un site indique que les internautes restent plus longtemps, sans nul doute parce qu'ils y trouvent un contenu original.

Pas facile de trouver la bonne stratégie de référencement, lorsque les mises à jour s'enchaînent avec les pénalités. Mais la meilleure stratégie, c'est peut-être d'éditer des contenus intéressants pour mettre tous les compteurs au vert. C'est à dire abaisser le taux de rebond, augmenter le temps moyen passé sur le site et travailler sa popularité sur les réseaux sociaux.

social media(Get tips and ideas to create a successful online marketing strategy.)

Il ne suffit plus d'être présent, il faut être actif sur les réseaux sociaux. Surtout sur Google+ (Pourquoi est-ce le meilleur réseau social ?) qui nous réserve quelques surprises, et bien sûr Facebook, Klout, mais on peut en ajouter d'autres. Il faut passer en mode « Recommandation », jouer du « Like » et du « Plus One », mais en gardant la main verte.

Inutile d'utiliser des bots et des outils automatisés, les premières sanctions pleuvent déjà dans le social media. Les recommandations comme les liens doivent être faites pas des humains. Par exemple chez Google, 90% des 700 000 messages envoyés en janvier et février 2012 aux webmasters concernent des techniques de référencement blackhat. Les interactions et les synergies sont mesurées, il ne faut donc pas se promouvoir en solo mais avoir la capacité de partager et fédérer autour de soi.

Les poids lourds de la recherche on décidé d'assainir le web en redonnant la main à l'individu. Si une page web est consultée, aimée et partagée entre internautes, elle sera de la même manière reprise par les moteurs de recherche et gagnera en visibilité.

L'hyper-optimisation a bien vécu, place au référencement propre et durable. En toute logique le nouvel internet est arrivé avec un cru numérique 2013 qui devrait être beaucoup plus SMO qu'auparavant.

Notes

[1] Crédits photo : findyoursearch - Home (Copie d'Ecran)
[2] übercommunity model Par Lordorica (Creative Commons By-Sa-2.0)


à lire aussi