Google ne sait pas faire autrement.
Après la lecture de l’excellent article Google et le comportement de l’utilisateur sur axe-net.fr de Sylvain je vous invite dans un premier temps a lire (ou relire) ce billet, et au risque de faire mon rabats-joie… mais je ne crois pas que GG utilise toutes ces informations collectées pour « monter son index » ou alors dans une très faible mesure. Je ne crois pas que Google ai la puissance technologique pour arriver a mélanger autant de données dans autant de résultats, les backlinks et le contenu restent a mon sens les rois absolus dans le search de Google, tous les éléments comportementaux des internautes restant totalement marginaux et si Google devait utiliser ces paramètres ce serait dans adsense ou c’est déjà bien plus simple. Je crois que l’on surestime énormément la capacité de calcul de Google je ne suis vraiment pas certain qu’elle soit si importante que cela pour arriver a traiter toutes ces informations.
Alors oui théoriquement Google pourrait intégrer tous ces paramètres dans son algorithme et ce serait sans aucun doute une très bonne chose, mais on voit bien que cela reste homéopathique et il doit bien y avoir une raison à cela sinon on aurait plus besoin de Panda ou Penguin le simple comportement des utilisateurs serait déjà un fantastique filtre qualitatif… mais encore aujourd’hui du bon contenu et de bons liens et ca marche, ca marche bien sans G+, FB, TW, avec un taux de rebond important, un faible temps de passage sur le site etc l’inverse n’étant pas vrai.
Mais bon… je fais mon rabat-joie aussi 😀 sur le fond on devrait y arriver un jour mais à mon sens ce n’est pas pour demain et je ne suis même pas certain que cela soit si important que cela pour Google aujourd’hui d’améliorer son moteur de recherche il a tellement d’avance sur la concurrence en terme de part de marché qu’il pourrait très ne rien faire pendant deux trois ans sans que cela n’affecte en rien son rendement.
Mais ce que l’on voit surtout c’est que le message de terreur de Google passe bien maintenant et passe de mieux en mieux d’ailleurs et sans le dire explicitement il arrive a faire croire que son algorithme est en train de changer que les SEO doivent impérativement travailler sur d’autres leviers d’optimisations et oublier la course au backlink et qu’il existe d’autre manière de monter dans les SERP et bien franchement je crois cela totalement faux, les réseaux sociaux sont ponctuellement des générateurs de trafic rien de plus, le comportement de l’internaute sur un site n’est absolument pas prit en compte dans l’algorithme et ainsi de suite et pourtant Google rien qu’avec, Chrome, GG Analytics et Adsense a les moyens de regarder à la loupe le comportement de l’internaute sur un site et juger facilement le degrés d’intérêt de celui-ci et pourtant il ne le fait pas ou du moins il n’utilise pas ces données dans la construction d’un résultat.
Google reste avec le même algorithme depuis des années, fondamentalement il n’a pas changé depuis 10 ans, quelques petites couches en plus, deux filtres importants et rien de plus structurellement parlant, je crois qu’il n’en a ni l’envie ni la capacité de changer sa manière de voir les choses et le web, par contre GG utilise la méthode de la terreur du backlink à la manière d’un Robespierre pour faire croire qu’il change et force est de constater que cela marche très bien. La tendance aujourd’hui est de dire que l’on rank mieux avec moins de liens, mais c’est faux c’est juste que dans sa globalité il se génère moins de liens « seo » sur le web et que proportionnellement il ne faut donc plus autant de liens pour monter dans une SERP.
Pour conclure je crois que Google est dans une impasse technologique ou il ne sait plus comment faire évoluer son moteur, il faudrait sans aucun doute partir sur la base d’un tout nouvel algorithme tenant en compte les critères qualitatifs en baissant le poids du backlink mais ce serait au vu du volume d’informations à traiter pour Google une refonte totale de tout son écosystème en passant par les data center, les quality-rater, adsense etc.. le cout en serait exorbitant pour un rendement plutôt faible. Dans une vision pragmatique il est donc totalement inéfficient d’un point de vu économique et financier de mettre en place une telle transformation. Et si j’étais Saint-Just je dirais qu’avec des liens et du contenu c’est bon et que tout autre discours est à passer à la guillotine car subversif car nous écartant du droit chemin du SEO agressif… mais je ne suis pas Saint-Just et je n’ai pas ses certitudes…
Backlink, c’est devenu un gros mot, et si on ajoute à ce mot annuaire, c’est la crise assuré. Tu as raison lorsque tu parle de « terreur », un petit message dans un Gwt et le WebMaster ss’empresse de supprimer des liens, au hasard bien sûr car il n’y a aucune communication sur ceux qui posent problème, alors allons y, tapons sur ceux qui rankent tant pis pour le trafic…
En somme, je suis en accord avec ta position, certains d’entre nous (la corporation du SEO) inconsciemment, se font le porte-voix de cette terreur, le relais.
Je compare toujours ce phénomène / cette mode à l’allégorie du Mythe de la Caverne : on se contente souvent de l’information que l’ont veut bien nous donner (moi-même d’ailleurs je ne prends pas assez le temps de tester certaines affirmations).
Enfin quant aux annuaires, on les conspue (en un seul mot svp) souvent (c’est un marronnier) alors que le rythme des soumissions ne s’est jamais aussi bien porté, ne serait-ce que dans l’annuaire que je gère.
Salut, point de vue intéressant, toujours un peu à contre courant, j’ai aussi l’impression de mon coté qu’ils font de nombreuses innovations en terme de filtres ou plutôt Guillotine à la Robespierre (très bon exemple 🙂
Ils ont certainement de nombreux critères mais lorsque l’on tente de calculer la taille de la base de donnée de google, on comprends qu’ils doivent optimiser un maximum et rester sur les critères qui prennent le moins de ressources.
Enfin de mon coté je constate que le dur labeur paye toujours et ça fait du bien quand tu constates que ça marche encore !! 🙂
Salut Clément
Tu n’es pas si rabat-joie que cela.
Je ne sais pas non plus ce que Google prend ou pas en compte et notamment, je ne sais pas ce qui impacte directement l’algo ou bien ce qui fait tinter des alarmes pour qu’un quality rater aille mettre le nez sur un site.
Cette seconde option est peut-être la plus probable actuellement.
Ou bien, d’autres signaux allument les alarmes, et le quality rater va alors jeter un coup d’oeil sur les infos que je décrivais, la question reste en suspend.
Il en reste qu’à ce jour, tous les SEO sont bien d’accord pour dire que le poids des backlinks est énorme. Sans doute, car c’est une des couches de base de l’algo et que le fait de ne plus ou de moins les prendre en compte suppose de sacrés chamboulements, car la pyramide de filtres est construite la dessus.
Après, pour la refonte complète de l’algo, je me dis quand même que quelques têtes de chez Google doivent y penser sérieusement. Financièrement, ils ont quand même pas mal de moyens (avec 1 milliard de bénéfices mensuels, on en fait des choses).
En attendant, GG fait une chasse aux SEO comme il ne l’a jamais fait. Sa communication de la peur est à son paroxysme. Il investit beaucoup en humain pour faire du ménage à la main, mais il faut l’avouer continue de se faire déborder tous les jours (la requête « viagra » est assez amusante à suivre régulièrement).
Pour sortir un peu de ça. Je constate de plus en plus qu’un bon contenu et un bon maillage interne en silo font des merveilles en permettant de n’aller chercher que très peu de liens pour ranker.
Et pour y revenir, je dirais que le BL devient quand même une arme dangereuse à manier avec modération. C’est une épée de Damoclès à chaque pose. Les vieilles méthodes restent vachement efficaces, jusqu’au moment où un filtre, un pingouin ou un quality rater vient siffler la fin de la récré.
J’étais en sérieux désaccord avec un article chez Sylvain (pas écrit par lui) qui suggérait trop que Google était un king en intelligence artificielle.
Bien sûr qu’ils ont embauché les meilleurs chercheurs de la planète dans les domaines les plus avancés de la tech et au-delà.
Seulement, c’est clair qu’un déploiement à l’échelle industrielle sur la taille d’un moteur comme Google est mission impossible pour la vaste majorité des fabuleux concepts scientifiques.
Maintenant, sur les actions de l’internaute en tant que vote de confiance, ce n’est pas neuf du tout. Cela fait même +10 ans qu’ils ont des trucs en place.
On en parlera en privé…
Merci pour cet article qui montre un peu d’optimisme dans la sphère du SEO 🙂
Pour autant, qu’en est-il de ta réflexion suite à la sortie des mises à jour d’algorithme, tel que Panda 4.0, ou encore Pingouin 3.0?