Le netlinking, soit les « techniques » développées pour pousser les sites web vers le haut des moteurs de recherche, a, depuis le début, été tiraillé par deux grandes tendances, comme le rappelle l’agence Netlinking.com (http://www.netlinking.com/), dans son article «  Netlinking d’hier et d’aujourd’hui, une infographie ».

Source : http://www.netlinking.com/

Initialement – et selon Google lui-même, s’il vous plaît -, pour obtenir « naturellement de « bons » liens, un site devait proposer des contenus de qualité. Pourtant, ce n’est pas dans cette direction que sont allés référenceurs et entreprises, au contraire ! La pratique dominante de ces dernières années ne s’est pas appuyée sur la qualité, mais sur la quantité. On a considéré plus efficace de multiplier les liens, peu importait leurs sources et la qualité des textes informatifs les véhiculant. On a même été jusqu’à « créer » des liens en « automatisant » les tâches, notamment par ce qu’on a appelé le « duplicate content », ou les phrases, voire les paragraphes, copiés-collés. Une tendance suffisamment lourde pour que Google lui oppose de nouveaux logarithmes « sanction ».

 

Seule la qualité donne des résultats pérennes

Mais ce netlingking « low-cost » est en train de s’essouffler. Bien qu’il permette de faire rapidement grimper les sites dans les moteurs de recherche, ses résultats ne sont pas durables. Pourquoi ? Pour une raison très simple. Les offres s’étant multipliées, la clientèle ne se laisse plus séduire par juste une bonne position dans les pages de Google. Il lui faut des présentations et des contenus intéressants. Autrement dit, de la qualité !