Mes réflexions sur le changement d'algorithme "Panda" de Google

Kung Fu Panda

J'ai des sentiments mitigés sur le fait que Google apporte des changements importants à son algorithme. D'une part, j'apprécie le fait qu'ils essaient de s'améliorer… car je ne suis généralement pas satisfait des résultats de recherche Google. Plus tôt dans la journée, je cherchais des statistiques sur les blogs… et les résultats ont été terribles:

rechercher des statistiques de blogsSi vous regardez les résultats… et passez de page en page, il semble que Google accorde moins d'attention aux sites plus grands et plus d'attention aux sites plus petits. Le problème est que les résultats que je recherche sont exactement le contraire. Certains pourraient prétendre que Google ne peut pas comprendre mon intention… ce n'est pas vrai. Google a une histoire de plusieurs années sur mes modèles de recherche. Cette histoire apporterait une contribution aux sujets qui m'intéressent.

La récente mise à jour de Google, également connue sous le nom de Panda update (nommé d'après un développeur), était censé améliorer la qualité. Le problème, tel que décrit par de nombreux spécialistes du référencement, était qu'ils avaient du mal à rivaliser avec fermes de contenu. En toute honnêteté, je n'ai pas vu beaucoup de plaintes d'utilisateurs… mais Google semblait avoir cédé sous la pression de l'industrie.

Si les petits sites de contenu étaient vraiment incapables de rivaliser avec les grands sites, je comprends parfaitement. Tout ce qui entrave la démocratisation du Web doit être corrigé. Cependant, je ne pense pas que Google ait réellement résolu le problème. Il me semble qu'ils ont juste fait un décalage latéral… boucher un trou alors que d'autres fuites ont commencé. Le changement d'algorithme a amélioré une faille majeure: les grands sites avec de grandes quantités de pages de haut rang semblaient être mieux classés sur les nouvelles pages.

Le prochain problème, bien sûr, concerne maintenant les grands sites qui ont en fait une grande quantité de pages de classement ... mais un petit pourcentage de pages merdiques, a maintenant chuté de rang dans tous les domaines. Imaginez investir dans un site et créer des milliers de pages de contenu de qualité, pour constater que du jour au lendemain, le classement de votre site a chuté parce que certaines pages souffrent également. La baisse qui en résulte coûte déjà cher à certaines entreprises.

Ce blog a plus de 2,500 articles de blog. Ils ne sont certainement pas tous des matériaux de classe «A». Certes, la taille de ce blog ne se compare pas à de nombreuses fermes de contenu qui comptent des centaines de milliers ou des millions de pages. Cependant, je suis toujours agriculture… Essayer de construire un classement pour une variété de sujets pertinents pour la recherche, les réseaux sociaux, les mobiles et d'autres efforts de marketing. Je ne suis pas sûr de la quantité de contenu que je dois créer avant d'être considéré comme une ferme de contenu… et puni en conséquence… mais je n'en suis pas vraiment très content.

Les vieux secrets du référencement n'étaient pas si secrets. Rédigez un contenu pertinent, utilisez efficacement les mots-clés, structurez correctement vos pages, concevez votre site pour tirer parti de ce contenu… et en faire la promotion. Une utilisation et un placement efficaces des mots clés vous donneraient les bons résultats… et la promotion de ce contenu hors site vous permettrait de mieux vous classer. Le nouveau secret n'est pas vraiment connu. Ceux d’entre nous qui travaillent dans l’industrie se démènent encore pour comprendre exactement ce qu’il faut faire. Google est également silencieux là-dessus, nous sommes donc seuls.

À vrai dire, je suis déçu que Google pense que c'était une bonne idée d'avoir un impact sur 12% de tous les résultats de recherche du jour au lendemain. Il y a victimes dans ce désordre - certains d'entre eux sont des consultants assidus qui recherchent leurs clients pour leur fournir les meilleurs conseils possibles. Google a même dû revenir en arrière et modifier les changements.

Google a lancé de manière agressive l'industrie du référencement et même optimisation promue pour essayer d'améliorer la qualité de leurs résultats. Nous ne l'avons pas joué, car CNN suggère… Nous avons tous étudié, répondu et agi selon les conseils fournis. Nous avons travaillé dur pour mettre en œuvre les recommandations que Google demandé nous à. Nous avons payé et assisté aux événements que les gens aiment Matt Cutts continuer à promouvoir. Nous avons travaillé avec de gros clients et les avons aidés à tirer pleinement parti de leur contenu… seulement maintenant pour obtenir le tapis sous nous. Google pointe vers des sites comme Wikipedia comme de qualité sites… mais a pénalisé les sites où le contenu est effectivement acheté et où les gens sont employés pour écrire. Allez comprendre.

Google fait besoin de changer. Cependant, la nature drastique du changement et l'absence d'avertissement de la part de Google étaient inutiles. Pourquoi Google ne pourrait-il pas simplement avertir les grands éditeurs qu'il y avait un algorithme qui allait être mis en œuvre dans 30 jours qui récompensait les grands éditeurs pour avoir développé leurs pages avec plus de détails et de qualité? Pourquoi ne pas prévisualiser la modification à l'aide d'un environnement de recherche ou de bac à sable spécial? Au moins entreprises aurait pu se préparer à une forte baisse du trafic, diversifier davantage ses efforts de marketing en ligne et apporter des améliorations (bien nécessaires).

Un exemple spécifique est un client avec lequel je travaille. Nous étions déjà en train de créer de meilleures intégrations de messagerie électronique, mobile et sociale - et une boucle de rétroaction où les lecteurs pouvaient indiquer la qualité du contenu qu'ils lisaient afin de l'améliorer. Si nous avions su qu'il y aurait une mise à jour de l'algorithme qui réduirait 40% du trafic du site, nous aurions travaillé dur pour mettre ces stratégies en ligne plutôt que de continuer à pincer le site. Maintenant nous luttons pour rattraper.

4 Commentaires

  1. 1

    Aucun de mes sites n'a été endommagé dans la mise à jour de Farmer. Aucun de mes clients non plus. Je pense que c'est parce que la qualité du contenu est importante, mais la qualité et l'autorité des liens vers ce contenu dominent toujours. Il est également plus important que jamais de savoir comment établir une relation directe.
    Montrez-moi un site qui a été repoussé à la baisse, je vais vous montrer des trous dans le profil du lien par rapport aux autres dans la niche qui ont gagné. Cela se passe comme ça à chaque mise à jour, quel que soit le nom qui lui est donné. Les «gros» sites n'ont pas forcément été perdants… juste les sites d'autorité qui n'ont pas amélioré leur réputation. Les «gros» sites sont également beaucoup grattés, et cela n'aide pas.
    De plus, je crois que les indicateurs de la qualité du contenu ont été élevés et recherchent bien plus que de simples mots «bons et originaux». Il existe plusieurs facteurs, notamment la langue acceptée de la niche, les considérations du livre de style AP, la plate-forme (blog ou statique par exemple) et le score de lisibilité.

    Les sites très médiatisés qui ont été giflés (ezinearticles, mahalo) ont été victimes de sanctions manuelles. Ils ont été faits exprès pour attiser le buzz. Celles-ci ont été examinées par des humains et les humains sont biaisés… c'est pourquoi certains des «bons» sites comme Cult of Mac ont aussi été cloués… Je pense que les gens de Mac sont arrogants et hautains et je giflerais aussi un site sur Mac. LOL j / k

  2. 2
  3. 3
  4. 4

Que pensez-vous?

Ce site utilise Akismet pour réduire les spams. Découvrez comment sont traitées les données de vos commentaires..