Marketing social

Problèmes que Google doit résoudre en 2014

Tout ne va pas bien dans le monde de Google.

Dans le paysage post-Hummingbird du référencement, surveillez n’importe quel babillard électronique et le sentiment lié à Google est généralement négatif. Ce n’est peut-être pas surprenant étant donné que les spécialistes du référencement, lents ou réticents à changer leurs habitudes, ont été durement touchés par les derniers changements. Cependant, pour de nombreux SEO éthiques qui utilisaient déjà des techniques durables et agréables à Google, il y a encore beaucoup de négativité dans la direction des géants de la recherche.

google_seo_issues3

Les allégations de pratiques anticoncurrentielles et contraires à l’éthique sont en augmentation, et les webmasters condamnent de plus en plus les politiques souvent absurdes de Google. Jetons un coup d’œil à leur position sur les « mauvais » liens par exemple. Google reste vague, mais décrit généralement les mauvais liens comme étant ceux provenant de liens de sites d’annuaires ou de signets de mauvaise qualité, de publicités textuelles qui passent PageRank et de publireportages. Ces lignes directrices ne sont pas aussi claires qu’elles pourraient le sembler au premier abord. Comment définissez-vous un répertoire de « faible qualité » ? De plus, comment Google définit-il un annuaire de mauvaise qualité ?

En savoir plus sur les liens de faible qualité et les schémas de liens ici.

Des répertoires tels que Dmoz, édité de longue date par des humains, sont une valeur sûre, mais qu’en est-il de tous les autres ? Actuellement, tout ce que les webmasters peuvent faire est de faire une supposition éclairée, en examinant des facteurs tels que la pertinence et l’autorité de domaine, mais il n’est pas toujours facile de savoir quels répertoires et sites Web sont sur la liste sûre de Google et lesquels sont sur leur liste noire. Ce serait bien sûr d’une grande aide si Google donnait des informations plus claires, mais ce n’est pas le cas.

Le désaveu peut nuire aux performances de votre site

Cela a conduit les webmasters à utiliser l’outil de désaveu sur de vastes pans de backlinks, dans le but de limiter les dommages déjà causés ou de réduire leurs chances de subir une future pénalité. Cependant, Désavouez un grand nombre de backlinks, dont certains peuvent activement aider votre site Web à bien se classer, et cela pourrait être préjudiciable, par exemple, vous pourriez voir votre autorité de domaine chuter.

Eric Kuan, de Google, avertit que « l’outil de désaveu des backlinks doit être utilisé avec prudence, car il peut potentiellement nuire aux performances de votre site ». Dans le même temps, Matt Cutts de Google suggère que l’utilisation agressive de l’outil de désaveu est la voie à suivre dans sa récente vidéo, Comment un site peut-il se remettre d’une période de liens de spam ?

Google a effectivement créé un environnement dans lequel il met en garde contre un trop grand nombre de liens de retour de mauvaise qualité et suggère d’utiliser l’outil de désaveu tout en mettant en garde contre l’utilisation de ce même outil pour les éliminer. Dans les deux cas, le résultat global est que le site Web moyen est plus susceptible d’être mal classé, ce qui entraîne une baisse de visibilité. Alors pourquoi Google choisit-il de faire cela ? Simple, la perte de classement organique rend plus nécessaire pour les propriétaires de sites Web de se tourner vers la recherche payante, de sorte que Google bénéficie d’une augmentation des revenus AdWords.

Lutte contre le spam Web

Bien sûr, Google pourrait choisir d’ignorer simplement ces mauvais liens (comme il l’a fait historiquement). Alternativement, il pourrait informer les webmasters des liens à supprimer en fournissant une notification et un délai de grâce pendant lequel des mesures devraient être prises. Au lieu de cela, sans aucun avertissement, Google choisit d’infliger des sanctions souvent drastiques, conduisant dans certains cas à une chute dévastatrice du classement ou à l’exclusion totale des résultats de recherche. Se remettre d’une pénalité est souvent un processus long et fastidieux (je parle ici de plusieurs mois, pas de jours), car les webmasters pataugent, essayant d’identifier et de désavouer manuellement les « mauvais » liens et de supprimer toute sur-optimisation potentielle qui pourrait avoir historiquement été fait sur le site Web.

Maintenant, presque toutes les entreprises avec lesquelles j’ai travaillé ont utilisé un certain nombre de sociétés de référencement différentes au fil des ans. Les entreprises paient les services d’un expert en référencement et leur font confiance, dans la conviction implicite que les techniques utilisées auront un effet positif plutôt que négatif.

La simple vérité est que Google pénalise maintenant des milliers d’entreprises qui n’ont rien fait de plus que d’employer involontairement une société de référencement black-hat à un moment donné de leur passé. Je ne conteste pas le fait que Google doit lutter contre le spam Web et je pense que le récent changement d’algorithme s’est avéré efficace jusqu’à un certain point, cependant, le simple fait demeure, des milliers de propriétaires de sites Web souffrent en raison de sanctions sévères et sont a forcé la route de la recherche payante en conséquence directe.

En savoir plus sur les consignes de qualité de Google ici.

Bien sûr, il y aura toujours ceux qui essaieront de déjouer le système, mais je ne crois pas une seconde que chaque site Web qui a écopé d’une pénalité ou subi une baisse de classement ait un méchant chapelier noir à la barre , déterminé à jouer le système. Je dirais que ce genre de sites Web serait minoritaire.

Certains des problèmes que Google doit résoudre en 2014

1.Plus d’informations et un meilleur support pour les webmasters

Un meilleur soutien est nécessaire pour les webmasters qui luttent pour se remettre des pénalités. Bien que Google signale les actions manuelles dans Google Webmaster Tools, des sanctions sont souvent prises sans qu’aucune action manuelle de ce type ne soit signalée. Il est donc extrêmement difficile de déterminer pour quoi un site Web est pénalisé, ce qui rend la récupération longue et finalement plus improbable. Les webmasters ont besoin d’informations meilleures et plus détaillées pour les aider à récupérer et une période de grâce de nettoyage doit être introduite.

2. Crédit aux sources de contenu originales

Google doit également être mieux en mesure d’identifier (et de pénaliser) les sites Web d’agrégation de contenu de mauvaise qualité, qui ne font que gratter d’autres blogs pour le contenu. J’en ai marre et je sais que d’autres blogueurs le sont aussi, de voir le contenu de mon blog publié sur d’autres sites que je n’ai pas autorisé à partager mon contenu, sans rel= »canonique » élément de lien. Un site Web comme Yahoo Business a beaucoup plus de trafic que mon propre blog ainsi que des milliers de liens de retour supplémentaires, une meilleure autorité de domaine, etc. Les chances que mon blog soit crédité comme source sont peu probables, ce qui rend les sites de grattage de contenu plus susceptibles d’obtenir les avantages.

3. Mise en œuvre complète du balisage de l’éditeur

J’espère également que nous verrons le balisage des éditeurs Google fonctionner efficacement et de manière cohérente, car cela reste actuellement très aléatoire d’après mon expérience.

4. Alternatives à la recherche locale pour les petites entreprises sur Internet uniquement

Enfin, j’aimerais voir Google commencer à soutenir les PME avec plus d’innovation dans le domaine de la recherche locale. Il est inquiétant de constater qu’un écart croissant se crée en ce qui concerne la visibilité de la recherche. À une extrémité de l’échelle, vous avez les grandes marques avec beaucoup d’argent qui sont en mesure de maintenir leur proéminence dans la recherche via AdWords. À l’autre extrémité, vous avez des entreprises locales, relativement bien desservies par les listes Google Local. Quelque part au milieu cependant, nous avons une pléthore de petites entreprises Internet uniquement qui ont du mal à maintenir leur visibilité dans la recherche organique, qui ne peuvent pas se permettre de vastes campagnes PPC et pour qui la recherche locale n’est pas pertinente.

Que pensez-vous des récents changements apportés par Google ? Avez-vous été touché par une pénalité ou peut-être avez-vous récupéré; Selon vous, quels problèmes Google devra-t-il affronter au cours de l’année à venir ?

Ressources

Google : L’outil de désaveu de liens peut nuire aux performances de vos sites
http://www.seroundtable.com/google-disavow-tool-harm-17327.html

Qu’est-ce que le contenu dupliqué
http://moz.com/learn/seo/duplicate-content

Les avantages de Rel=Editeur
http://www.advancessg.com/googles-relpublisher-tag-is-for-all-business-and-brand-websites-not-just-publishers

Le message Problèmes que Google doit résoudre en 2014 est apparu en premier sur Marketing & Social Media Blog | Analyses, astuces et conseils marketing.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.