On est encore là

« Retour en force de l’ordre moral, je veux surtout pas te casser ton moral. Mais c’est le bordel quand tu entres pas dans leur panel. » « On nous censure parce que notre culture est trop basanée, qu’on représente pas assez la France du passé. » ou encore « On en paye le prix aujourd’hui, mon gars, mais ce n’est pas un hasard.
Ca correspond au climat bizarre, à l’odeur étrange qui émane du côté d’Orange, le Sud est contaminé. »Ca vous parle un peu ? Un extrait de « On est encore là » de NTM qui chez moi tourne en boucle depuis deux jours, voir à la fin de l’article.

Alors petit retour en arrière depuis deux jours la planète internet vit un véritablement bouleversement, une « nuit des long couteaux », une « Saint Barthélemy », un « Stalingrad » ou une « retraite de Russie » pas de doute Google à frappé et à frappé fort… mais force est de constater qu’il a voulu tuer une mouche avec un bazooka et que les effets collatéraux sont terrible, tant au niveau des résultats dans les SERP que sur certain site pourtant très WH.

Alors la grande question qui fait le tour du web c’est « pourquoi ? » tout le monde essaie de trouver des corrélations, des dénominateurs communs, des tendances, des effets clairement identifiés et bien disons le maintenant il n’y en a pas ce qui est vrai ici de l’est pas là bas et ainsi de suite, il ne s’agit donc pas d’un filtre mais de plusieurs (totalement ?) indépendants les uns des autres générant chacun ses propre sanctions sachant que si les sanctions s’accumulent c’est la disparition totale.

On voit très bien sur les résultats que globalement ce sont des pages qui tombent et non des sites, sur cette base il faut donc regarder les pages en question tant au niveau externe qu’interne. Clairement la partie onsite et touché par les nouveaux filtres de Google, des sites très propre au niveau du linking sont tombés sans aucun doute suite à une optimisation poussée internement, conclusion désoptimiser les pages, simplifier le linking interne et ne pas pousser sur les KW, a priori cela permettra de lever la sanction, mais dans combien de temps là c’est autre chose, et bien sur je n’en suis pas certain.

Au niveau linkbuilding maintenant, plusieurs tendances semblent apparaître, la première un trop fort pourcentage de liens venant de pays (langues) différentes au site génère une sanction, trop de lien US par rapport aux liens FR c’est boooom, clairement c’est pour viser les utilisateurs de soft comme Senuke et Xrumer, mais il y a des contre exemple, en bref restons français.

Quid des annuaires incroyablement les sites dont la stratégie SEO est en grande partie basé sur des inscriptions annuaires à ma connaissance n’ont prit aucune sanction tout comme les échanges de liens, rien ne montre clairement que cette stratégie à été touché par l’update de google… Donc revenons a nos fondamentaux d’il y a 10 ans, de l’annuaire et de bon échanges de liens il semble que Google aime encore ce type de stratégie de linking, on peut s’en étonner mais sanctionner ces actions reviendrait à sanctionner 80% des sites web. C’est donc totalement intentionnel de la part de Google, même s’il n’aime pas il ne peut pas filtrer ces résultats sans casser son propre jouet.

Maintenant regardons de prêt les CP’s, j’en parlais il y a quelques jours et finalement ma position ne change pas, Google n’a pas sanctionné les utilisateurs de CP’s « propre » mais de la même manière qu’il sanctionne les liens de mauvaises qualités (pour rappel avant il ne les prenait pas en compte), si l’on publie des textes sur des CP’s de mauvaises qualités (DC, nom de domaine expiré, trop de liens etc..) Google fait un carton ce n’est donc pas les CP’s en eux-même qui génèrent la sanction. Je pense au contraire que les Cp’s propre ont encore un bel avenir si l’on garde de la qualité au niveau de sa gestion et de la publication des textes. Donc tirer à boulet rouge sur les Cp’s en leur attribuant autant de poids dans cet update de Google est à mon sens une très grosse erreur pour ne pas dire une énorme bêtise.

Les signaux sociaux maintenant, alors il semble poindre une certaine constance, de bons signaux sociaux (twitter, Facebook etc.. ) semblent fonctionner comme des éléments « parachute » aux sanctions, ces signaux vont pondérer les sanctions et donc limiter la chute, c’est clairement encore à creuser mais de ce que je vois certain sites ont très bien résisté grace au volume de re-twitt et de like, cela rentre dans une certaine logique actuelle.

Poursuivons notre route… probablement que la prochaine cible de Google seront les profils de forum étrangement épargné ces jours-ci mais cela ne durera pas. Le spam de commentaire… j’ai tendance à croire que Google ne peut rien faire contre, (comme les annuaires) sanctionner les liens présents dans les commentaires de blog serait sanctionner presque tout le web et ça il n’osera jamais.

Première conclusion:
Il faut se recentrer sur sois-même, éviter le linkbuilding « sauvage », l’optimisation aux petits oignons de sont site, il faut donc se concentrer sur les annuaires, les échanges de liens, les commentaires de blog et quelques CP’s bien choisit, bref faire du SEO à l’ancienne, ce qui en soit est un non sens, sauf l’importance que semble prendre les signaux sociaux qui ne vous aiderons pas à monter mais si a ne pas descendre trop en cas de sanctions. Attention ce-ci n’est que ma propre vision des choses, rien de plus.

Passons à autre chose… finalement qui va un peu plus loin que le côté technique (si on peut dire) et pratique de cet update de Google. Mais d’une certaine manière le côté moral de l’histoire (d’ou NTM et le titre), en tirant aussi fort, en imposant ses propres règles de manière tant radicale et sans option de retour (sur GWT sauf certains cas on ne peut pas nettoyer ses BL), résultat un site sanctionné n’a aucune chance de remonter. C’est donc une sanction de mort que lance Google de manière unilatérale et particulièrement moraliste. Mais aussi en sanctionnant durement les liens il ouvre la boite de pandore du NSEO et le retour de bâton risque d’être terrible. Nous sommes beaucoup à vivre de Google nous savons tous qu’il y a des risques et chacun doit en prendre la mesure, j’accepte totalement cela et je l’assume. J’ai énormément perdu ces derniers jours mais cela ne va pas m’empêcher de continuer, de chercher, de tester et à la fin de trouver des techniques, des idées, des formes de travail qui vont me permettre de poursuivre mon boulot. Mais je trouve lamentable que Google impose de cette manière ses diktats, ses prérogatives sans jamais se remettre en cause c’est une forme totale de dictature imposé au web d’une certaine manière de penser que je trouve lamentable. Mais sur le coup il faudra l’accepter ou changer d’air, en bougeant autant le web Google veut mettre à pas les SEO et référenceurs, (les WH, GH et BH), bonne chance à lui…. mais on est encore là…. et pour longtemps. Alors en écoutant la musique qui suit pensez qu’ils parlent des SEO.

Alors Google si tu pas là écoute bien et je t’assure que « on est encore là » et ça durer

Alors je suis peut-être KO, groguis, mais je vais me relever et continuer à avancer donc un grand merci à NTM pour cette chanson qui pour moi devient un hymne….

27 réponses
  1. Robin dit :

    Je ne pense pas que Google ait sorti le bazooka pour tuer une mouche. Il a voulu frapper là où les référenceurs bidouillent, et le moins que l’on puisse dire, c’est qu’il a visé juste le bougre.. Des white hat en carton de WRI aux prestataires SEO dits « sérieux », le ménage est plutôt bien fait… Les dommages ne sont pas collatéraux si tu veux mon avis, mais au contraire très très bien ciblé.

    Si l’on trouve que ces dommages sont collatéraux, c’est peut être dû à une erreur d’a-priori de la part de Google, qui part peut être du principe que SPAM => contenu de mauvaise qualité. Or, cette mise à jour montre précisément que ce sont ceux qui se cassent le plus le cul à produire du contenu qualitatif qui cherchent à rendre ce contenu, si chronophage à produire, aussi visible que possible.
    Du coup, en virant ce qu’il détecte comme étant poussé par du spam, il vire énormément de contenu de qualité par la même occasion.. Mais le sentiment de « collatéralité », si tu me permets le néologisme, n’est à mon avis qu’une fausse idée.

    Pour moi et à cette heure, une seule et unique conclusion s’impose :
    a trop dupliquer les méthodes trouvées ailleurs, à faire l’économie de tests pour se démarquer techniquement de ses concurrents, on en vient à tous utiliser les mêmes méthodes qui, du coup, deviennent très facilement repérables. Ce qui ressort, en gros, c’est que Google court après la façon dont les SEO travaillent et non l’inverse, et que la seule façon de se protéger des sanctions, c’est encore d’être le plus créatif possible au niveau de ses méthodes..

    N’oublions plus jamais que si nous tirons des enseignements de Google, lui, de son côté, ne peut évoluer qu’en suivant nos méthodes, et qu’il ne peut le faire que si nous y allons sans finesse et sans originalité.

    En bref, et désolé pour la longueur de ce message, Google à vu juste, il a tiré juste, parce que nous sommes avons fait exactement ce qu’il fallait faire pour devenir une cible facile à abattre.

    • Martin dit :

      Tu parles d’« économies de tests ». Mais comment peut-on tester un algorithme qui n’existe pas encore, dont on n’a pas encore entendu parler ?

      D’ailleurs, je ne vois pas comment faire des tests des quelque 200 mises-à-jour annuelles des algorithmes de Google. Quelle agence en référencement a-t-elle les moyens de faire du reverse engineering sur une boîte noire, sans discontinuer, et d’adapter en conséquence ses méthodes ?

      Non, vraiment, si l’expérience compte énormément, elle ne peut être basée sur des « tests ».

      En tant que référenceur, je fais mon possible pour me tenir au courant des « bonnes » méthodes de référencement, et tente de les appliquer au quotidien. Mais faire des tests ? Lesquels ? Tous ?

      • Robin dit :

        L’objectif des tests dont je parle n’est pas (parce qu’il ne peut pas être, comme tu dis…) de comprendre l’algorithme dans sa totalité.

        Ce que je veux simplement dire, c’est qu’il est important de trouver des méthodes de référencement qui diffèrent de ce que toute personne un tant soit peu renseignée sur le SEO peut faire… De s’éloigner au maximum du mainstream SEO, si tu veux. Pas de connaître Google jusque dans ces moindre détails.

        Et que les choses soient claires, je ne dis pas ça pour dire que j’ai la technique qui m’a permis de passer entre les mailles du filet : je me suis fait enfler bien comme il faut, justement 🙂

        • Fanny Sylvestre dit :

          En même temps ils ont la chance d’avoir la plus grande équipe de testeurs du monde et gratuite ! Nous faisons évoluer leur moteur grâce à toutes nos tentatives, tests et expériences 🙂

          Sans référenceur peut-être que Google serait moins inventif également… ? On leur donne du fil à retordre, mais ils sont obligés de développer des algos de plus en plus intéressants et pointus pour anéantir nos efforts…

          Je suis d’accord sur le fait que nous devons toujours trouver des idées pour avoir une longueur d’avance et non le contraire, mais tout en sachant que c’est provisoire puisqu’il détectera quelques temps plus tard ces nouvelles idées qui marchent… ^^ mais en position de référenceur, a-t-on vraiment le choix ?

          A la limite, il leur suffit de suivre les discussions comme ici ou sur d’autres blogs SEO pour contrer encore plus rapidement tout ce qui se trame… quelques alertes et voilà… donc, chuuuuut 🙂 les bonnes idées à partager tout doux dans le creux de l’oreille 🙂 Les grandes oreilles nous écoutent !

  2. LaurentB dit :

    Je ne vois pas de dommages collatéraux. En tout cas, tous ceux qui m’ont contacté avaient quelque chose à se reprocher.
    On profite de faiblesses d’un algo pour s’économiser, mais faut pas non plus s’étonner quand on se prend une fessée.
    Ca m’étonne toujours d’entendre couiner autant, alors que c’était qu’une question de temps avant de se faire choper.

    Maintenant, c’est vrai que les effets de bord existent et certains sont peut-être pris dans la tourmente, alors qu’ils sont irréprochables. Faut quand même bien gratter et connaître l’historique pour savoir si y a pas abus qq part.

    • Keeg dit :

      Tu as sans doute raison Laurent. La majorité des sites avait quelques choses à se « reprocher ». J’ai fait le même constat.

      Cependant, chez moi, j’ai un site qui s’est écroulé : tout petit site, optimisation très classique, pas de netlink. C’est peut-être un « effets de bord » pour celui-ci, mais vu qu’il n’était au bord de rien…

      Ensuite, la limite du « reproche » est très subjective. Google ne se prive pas de nous le rappeler.

  3. olaf dit :

    J’ai un blog credit 1ere page qui n’a perdu aucune position (pas encore ?) pourtant il est senuké a mort. Pareil pour un mutuelle 2eme page.
    Et sur bizpowa il y a des exemples de sites qui se sont fait taper severe avec un ref annuaire uniquement et DU.
    Bref aucune certitude a cet instant.

  4. Martin dit :

    Je ne pense pas que Google ne puisse rien faire contre les liens dans les commentaires. Après tout, le nofollow vient de là. Et au responsable du blog de ne pas valider les commentaires bas de gamme, suroptimisés, ou pointant vers des sites douteux.

    Pour ce qui est de l’attitude de Google vis-à-vis des webmasters, c’est une certitude : Google agit en despote. Tout au plus, au travers des forums, il écoute, voire discute. Mais il n’entend pas se plier aux requêtes des webmasters visant à lui faire changer de cap. Tout au plus prendre la température, sans se préoccuper des conséquences autres que les siennes.

    Il faut donc peut-être que nous commençions à arrêter de ne parler que de Google entre nous, et d’envisager d’autres alternatives. Bing, certes, qui alimente aussi Yahoo!. Mais aussi d’autres moteurs, moins connus, tels que… non, je rigole. Plus sérieusement, les réseaux sociaux semblent être une bonne voie à explorer, que peu d’entreprises ont su exploiter efficacement, mais que celles qui y parviennent récoltent gloire et beauté, en matière d’audience, sans parfois apparaître sur Google.

    Plus qu’à ?

  5. En savoir plus dit :

    Je ne savais pas pour le mélange des langues, merci pour l’info, même si cela paraît un peu normal…

    Tu ne mentionnes pas la sur-optimisation des pages et surtout des ancres de liens, c’est une piste importante à considérer amha.

    Bonne continuation et bon courage en tous cas !

  6. Agence web à Lyon dit :

    Google est une grosse boîte qui doit croître en permanence, toujours plus, pour satisfaire des actionnaires, ne l’oublions jamais.

    Le marché de la publicité n’est pas infini et Google cherche en permanence des relais de croissance. C’est pour ça qu’il fait tout pour racoler les millions de PME qui n’ont pas encore de budget/stratégie SEA et/ou de site Internet.

    Il y a aujourd’hui sur la place de très nombreux portails qui font concurrence à Google en travaillant avec ces PME et en leur vendant directement de la publicité.

    Et ça Google n’aime pas car ils mangent dans sa gamelle. C’est la seule raison je crois (la qualité n’est qu’un prétexte bidon) qui le pousse à agir ainsi et à sortir ses petits bras musclés.

    Si vous avez un site qui vient de se faire plomber, posez vous les questions suivantes :
    « suis je un intermédiaire entre Google et mes clients ? »
    « Si je disparais, à qui profite le crime ? qui vendra de la publicité à mes clients ? »

    Google agit en despote et profite de sa position dominante à tous les étages pour imposer ses produits. Mais ça ne durera pas éternellement.

    Aujourd’hui, Google donne la fessée, viendra un temps ou c’est lui qui la prendra !

    A bon entendeur Mister Google
    Don’t be evil

  7. Antonin dit :

    Un très bon résumé de la situation même si nous n’avons certainement pas encore le recul suffisant pour bien analyser et tirer les bonnes conclusions.
    Mais bon faut pas trop pas attendre pour réagir non plus 😉

    On peut dire globalement qu’il faudrait viser le naturel et le qualitatif que ce soit pour l’optimisation on-site ou le netlinking donc cet update s’inscrit dans la lignée de ce que mets en oeuvre Google ces derniers temps …

    Pour les réseaux sociaux, c’est une très bonne analyse que je partage complètement. Les signaux issus des réseaux sociaux « pondèrent » le linking et l’optimisation car justement pour Google ils sont plus « naturels » que le reste.

  8. Le juge dit :

    Idem LaurentB – RAS de mon coté en ce qui concerne les « dommages collatéraux » mais bon je ne fais que du clean.

    Je vais garder un oeil toutefois sur l’impact de sliens provenant de sites étranger car je pose beaucoup de liens en provenance de blogs FR vers des sites US/CA. Mais pour le moment RAS encore une fois

    Je n’ai jamais trop utilisé les CP donc je suis tranquille de ce coté la.

  9. Labisse dit :

    Une petite précision au sujet des liens « étrangers », ce que je veux dire c’est lorsqu’il y a un proportion de liens « étrangers » en rapport avec l’apport de BL « local » GG fait (ou ferait) sauter la page sur l’ancre incriminée. Par exemple si sur l’ancre « ma maison » j’ai trop de BL US par rapport à mes BL FR alors la page saute sur l’ancre « ma maison » sur GG.fr. C’est l’un des facteurs principaux de la chute de plusieurs de mes sites… (ce qui veut dire que j’ai fait le con…)

  10. Fanny Sylvestre dit :

    Je remets ici ce que j’ai mis plus haut, car c’est tout écrasé à droite en haut.. donc je disais :

    En même temps ils (Google) ont la chance d’avoir la plus grande équipe de testeurs du monde et gratuite ! 🙂 Nous faisons évoluer sans cesse leur joli moteur grâce à toutes nos tentatives, tests et expériences. Normalement ça coûte un bras de faire tester surtout par un si grand nombre…

    Sans référenceurs acharnés peut-être que Google serait moins inventif également… ? On leur donne du fil à retordre, mais ils sont obligés de développer des algos de plus en plus intéressants et pointus pour anéantir nos efforts…

    Je suis d’accord sur le fait que nous devons toujours trouver des idées pour avoir une longueur d’avance et non le contraire, mais tout en sachant que c’est provisoire puisqu’il détectera quelques temps plus tard ces nouvelles idées qui marchent… ^^ mais en tant que référenceurs, a-t-on vraiment le choix ?

    A la limite, il leur suffit de suivre les discussions comme ici ou sur d’autres blogs SEO pour contrer encore plus rapidement tout ce qui se trame… quelques alertes et voilà… donc, chuuuuut ! les bonnes idées à partager tout doux dans le creux de l’oreille 🙂 Les grandes oreilles nous écoutent ! ^^

    • ninie dit :

      Pas cool, c’est du duplicate.

      Non je déconne 😛

      Sinon pour revenir à la choucroute.
      Google a toujours ete tout puissant, en france specialement, mais aussi dans beaucoup d’autres pays. Et ca depuis pas mal de temps deja.
      C’est ce qui fait qu’on va concentrer nos efforts pour plaire a monsieur.
      Des tas de sites sont deja tombes avec les filtres precedents, dans la plus totale indifference parfois.
      c’est ce qui fait que l’europe se penche sur sa position dominante depuis pas mal de temps deja aussi, je sais , je me repete.
      Bref, tout le monde a saisi l’idée et la seule solution c’est de ne pas mettre tout ses oeufs dans le même panier, de ne pas dépendre de lui et si c’est le cas d’être très prudent.
      Quand on ne respecte pas ces règles en connaissance de cause on prend des risques.
      C’est génial, ça donne sa dose d’adrénaline, son coup de fouet quotidien et ça permet d’engranger vite et bien.
      Mais ça peut ne pas durer, comme ça peut continuer.
      L’un comme l’autre on connaît les risques.
      100% des gagnants ont tenté leur chance.

      Vous voulez l’avis de quelqu’un qui se fait chier à produire du contenu unique 100% utile 14h/jour 7j/7 sur les CP et les mfa qui se font descendre ? Non, vous ne voulez pas.

      Perso je ne remercierai jamais assez les kamikazes qui m’ont permis de comprendre 2ou3 trucs sur le seo.
      Ces mecs sont morts pour la patrie, et j’ai un peu le coeur serre quand je pense à ceux qui en vivaient.
      Ça me mettrais bien les boules si ça m’arrivait et je touche du bois.
      Mais dénoncer la main mise du méchant GG avec son pouvoir de vie ou de mort parce qu’on s’est fait descendre après s’être bien gave ça fait pas sérieux.
      Même si je doute pas de la sincérité du propos.
      J’aurais juste aimé qu’on ouvre un peu plus les oreilles quand ça parlait marketing.
      Des le départ GG imposait ces règles. Et le simple fait qu’il se permettait de descendre des sites à cause de « liens toxiques » aurait du lever des boucliers. Mais tant que ça ranque c’est chacun pour sa gueule.
      De même, est-il normal que GG se permette de flingue un site( quelle que soit la raison) sans avertir et quasiment sans retour possible ?
      Non. Et pourtant ça a toujours été comme ça.
      Bref, tout ça n’est pas forcément en réponse à ton post, mais c’est ce que ça m’inspire.
      Avec+ 80% du marché de la recherche en France, des milliards brasses dans l’e-commerce, GG est devenu un service public et devrait traiter ses utilisateurs avec un peu plus d’egard, CP ou pas CP.

  11. Emmanuelle dit :

    Bien agréable ce petit revival de NTM… qui n’a pas trop pris de ride semble-t-il.

    De mon côté, je ne vois aucune logique suite aux sanctions : des sites franchement moisis remontent, pas mal de forums aussi… j’ai du mal à suivre.
    Mais ça bouge fort encore, donc patience, non ?

    En attendant, chouette article ^^ !

  12. Vos réponses dit :

    Merci pour cette analyse, ça permet de prendre un peu de recul sur la situation. Il va probablement falloir plus de temps avant de pouvoir identifier avec plus de certitudes les nouvelles règles du jeu imposées par Google, mais j’ai un doute sur le fait que les sites de CP disparaissent, ils vont forcément trouver des moyens de survivre et de s’adapter. En attendant, la vrai chose a retenir de tout ça, ça semble effectivement être de ne pas mettre tous ses liens dans le même panier…

  13. Wabstemer dit :

    Merci pour ce superbe article qui résume totalement ma façon de voir. Cependant j’ajouterai deux autres sanctions sur le linking externe : attention à la suroptimisation des ancres et aux liens envoyés toujours sur la home. Je pense que les réseaux sociaux vont voir très rapidement arrivé des armées de bot pour assurer un bon parachute en cas de modification de l’algorithme Google. Wait and see

  14. arnaud dit :

    Je ne suis pas un des dinosaures du SEO, mais du haut de mes quelques années à observer le comportement de GG vis à vis des SERPS, je trouve effectivement qu’il n’y a pas de quoi fouetter un chat (ni une mouche!).

    C’est seulement une énième tentative de l’ami Google de modifier l’algo pour qu’il puisse coller le plus possible aux recommandations qu’ils nous donnent (même si ils savent eux-mêmes que c’est impossible).

    Comme le dit Laurent, ce n’était qu’une question de temps. Ceux qui ont choisi de baser leur stratégie uniquement sur les CP’s ou sur un linking crade prennent des risques. Le plus étonnant dans tous ça, c’est que beaucoup est été aussi naïf, au point de croire qu’ils étaient intouchables.

    Diversifiez et pensez naturel!

  15. Pierre, Agence Web Rennes dit :

    Aucun dommage constaté de mon côté suite au déploiement de ce pingouin balaise, mais il faut dire que nous n’avons jamais utilisé d’outils trop violents pour promouvoir un site légitime. En revanche les CP sont un moyen courant pour nous d’aider au lancement d’un site de client.
    Je suis comme d’autres assez soucieux de cette hégémonie problématique d’un seul moteur de recherche qui a dans les faits droit de vie ou mort sur des PME entières, et dont certains attendent qu’il se comporte presque comme un service public alors qu’il n’aura jamais ni intérêt à le faire ni obligation de le faire. Google en tant que moteur se n’applique déjà pas toutes les régles qu’il impose.
    Le métier se SEO est loin de se limiter au seul reverse-engineering d’un outil qui fait tout pour ne pas se dévoiler, donc à nous aussi d’innover en permanence et de défricher de nouvelles pistes. Trop frustant de ne jamais pouvoir agir ni tester quoi que ce soit lié à Google, un métier seulement en réactions précipitées n’est pas fait pour rendre serein…
    Parmi les plus évidentes alternatives j’étudie de plus en plus les réseaux sociaux que je n’ai abordé qu’anecdotiquement par le passé. Les Réseaux Sociaux posent en plus des questions intéressantes sur les identités numériques, et donc la vie privée, la sécurité…Plus que des problèmes, de vrais challenges motivants pour lesquels de nombreux acteurs ont d’ores et déjà besoin de conseils de spécialistes éclairés. Et puis amener notoriété et trafic à un site sans utiliser Google c’est parfois plaisant 😉
    Wait and see and think !

  16. Mickael dit :

    Très bon article ! Je suis d’accord avec à peu près tout ce que tu dis dans ce billet.

    Va falloir envoyer du test pour savoir ce qui passe et ce qui ne passe pas ! A part pour ceux qui veulent abandonner le navire, il n’y a pas d’autre solution.

Répondre

Se joindre à la discussion ?
Vous êtes libre de contribuer !

Laisser un commentaire