Google avance sur un nouveau critère de son algorithme : La vérité.

L’algorithme de Google évolue chaque jour, avec désormais un double objectif :

  • Le premier objectif, c’est la pertinence du contenu Google souhaite proposer à l’utilisateur.
  • Le deuxième objectif qui découlent finalement du premier, c’est de s’assurer que le site que Google proposera n’aura pas été manipulé dans l’objectif de recherche d’un positionnement. C’est en quelque sorte l’origine de la création du service spamming dirigé jusque l’année dernière par Matt Cutts.

Pour justement respecter ces deux objectifs, Google a engagé les changements profonds qu’ont connu les webmasters : Google Panda, Google Penguin, et autres aménagements d’algorithme.

Une chose qui revient toujours, c’est la volonté des webmasters de tout faire pour passer au dessus des règles et de mettre en place le nécessaire pour tricher. Nous ne cessons de répéter à nos clients que le premier des objectifs doit être un travail honnête et de long terme, la seul façon de passer à travers les nouveaux filtres et les nouveaux changements d’algorithme que Google produit.

Mais il semblerait que depuis un an, les changements internes (éviction ou non de Matt Cutts) de Google traduisent un système en bout de course qui va devoir se révolutionner pour s’adapter faut seul critère technique valable, la véracité des faits, l’exactitude des données produites dans les pages référencées.

C’est ce que nous avions commencé à travailler, c’est ce que nous pensions voir arriver, et les premières fuites indiquent que Google travail sur l’intégration d’un critère permettant de valider ou non l’exactitude des données.

Les premières études sur le sujet sont déjà publiées par les chercheurs de Google, et elles indiquent une action en amont et en aval.

  • En amont, ça risque d’être une étude très Google, c’est à dire mathématique : Si le mot clef qui apparaît n’est pas en phase avec le champ lexical du document, on estime que l’erreur est probable à hauteur de X%.
  • De l’autre côté, en aval, ce sera l’étude comportementale des utilisateurs. Le taux de rebond sera très certainement au coeur de l’étude à venir.

De tout cela découle l’interrogation simple : Quand Google saura tout de nous, tout de notre contenu, pourquoi ne proposerait il pas directement l’information?

Observons;)

Laisser un commentaire