Passage à HTTPS : retour d’expérience d’un site pornographique

En ce moment, le gros morceau SEO, c’est le passage à HTTPS qui a été fortement recommandé par Google il y a maintenant 2 ans, si je ne dis pas de bêtise. Les sites spécialisés en référencement se paluchent beaucoup sur le sujet, on trouve pléthore de tutoriels pour une transition en douceur. Parce que dans le porn rien n’est comme dans le mainstream, petit retour d’expérience.

Douche froide

Toujours dans l’idée d’être respectueux de la vie privée des utilisateurs, passer en HTTPS faisait partie du prolongement de notre politique. Récemment, nous avons donc franchi le cap. Je vous passe les détails techniques (il y a un article très complet sur WebRankInfo). Lorsque c’est bien fait, la migration se passe généralement bien.

SEO et HTTPS« Généralement ». Même si le géant de la recherche s’est toujours défendu de traiter les sites adultes comme les autres, ceux qui sont dans le milieu savent bien que ça n’est pas franchement le cas. Entre backlinks de mauvaise qualité, liens d’affiliation qui peuvent démolir tout votre référencement, la vie de webmaster X n’est pas toujours rose. Après avoir mis en place le certificat SSL, préparé le site avec une redirection permettant de switcher automatiquement de HTTP vers HTTPS dans tous les cas, corrigé tous les liens internes du site et ajouté une nouvelle propriété dans Search Console tout en conservant l’ancienne (avec le petit sitemap qui va bien). Il nous a alors fallu attendre pour voir les résultats.

Comme à chaque migration, on a toujours quelques sueurs froides. Le mystère des algorithmes de Google nous fait parfois quelques surprises. Dans mon cas, le trafic a chuté très fortement, remettant carrément en cause l’avenir de ce site. Je ne vous cacherais pas qu’un magazine comme BuzzPorn! n’est pas là pour brasser des millions de dollars. Si le nombre de visiteurs n’est pas exactement ce qui nous permet de bien vivre, le positionnement des articles est important en terme de visibilité. Notre modèle n’est pas basé sur le trafic.

Car oui, notre passage à HTTPS s’est fait dans la douleur. S’il n’y a pas de raison apparente à cela, je soupçonne un réseau de spam indexing d’être à l’origine du problème. En effet, pour GoogleBot, lorsque l’on ajoute son site HTTPS à Search Console, il considère que c’est un nouveau site, il lui faudra ensuite du temps pour comprendre les redirections et le maillage interne. Le fait d’avoir contacté Google directement a peut être joué dans la balance dans le retour à la normal.

En effet, le réseau de spam indexing que j’évoquais plus haut, copiait le contenu de nos articles. On parle de milliers de domaines différents, tous basés sur le même modèle. Une soupe de textes volés à droite à gauche et mélangés entre-eux, une vraie bouillie incompréhensible pour un humain. Je reste tout de même assez admiratif devant l’ampleur de ce réseau blackhat. Pas franchement gênant, avant, puisqu’ils vivotaient grâce à longue traîne et nos articles étaient les originaux, ça ne posait pas réellement de problème.

Là où tout à changé, c’est au passage à HTTPS. En effet, Google considérait que notre site était nouveau donc, pour lui, nous étions devenus les copieurs. S’en suit un déclassement très bourrin et une perte de trafic de l’ordre de 90%. Il fallait donc s’attaquer à ce problème de duplicate content. Bien entendu, impossible d’envoyer un message au webmaster à l’origine de ces « sites ». J’ai donc rapidement contacté un responsable chez Google via Twitter et lui présentant ce réseau.

Je n’aime pas trop donner dans la délation mais dans notre cas, c’est notre survie qui était en jeu. Pas le choix. Difficile de dire si c’est effectivement ça qui a permis de retrouver nos positions mais tout est revenu à la normale quelques heures plus tard. Une semaine assez tendue donc. Toujours dans notre optique éthique, nous sommes whitehat, c’est à dire que nous n’utilisons pas de techniques borderlines pour grimper dans les résultats de recherche.

Si nous ne sommes pas totalement en accord avec les choix que peut faire Google, dans la pratique nous rejoignons souvent leur politique notamment sur les questions d’optimisations et la mise en place de HTTPS. Ce sont de très bons choix et on ne peut que être d’accord avec ça. On pourrait toutefois discuter de ce qui fait la pertinence d’un site, sa technique ou son contenu ?

Malgré cette expérience, je ne peux que vous inviter à franchir le cap. HTTPS est une évolution logique du web et comme Google l’a indiqué, c’est un nouveau critère en SEO. N’espérez pas gagner beaucoup mais c’est toujours une bonne chose de suivre leurs recommandations. HTTPS est en train de devenir un standard, il ne faut pas en avoir peur. Il ne faut pas non plus revenir en arrière si on constate un problème, il faut plutôt chercher son origine.

N’ayant pas trouvé d’article sur ce genre de mésaventure, il me paraissait intéressant d’en parler ici. Un nettoyage en règle des sites qui dupliquent le votre avant le passage à HTTPS me semble être une bonne chose. Encore une fois, je ne peux pas affirmer que c’était ça mais les indices que j’ai me laissent à penser que le duplicate content externe a pu être à l’origine de ces déclassements.

PARTAGER

Acteur du web depuis 1995, j’ai lancé ce site en 2009 et, aujourd’hui encore, je continue à l’alimenter en parlant des choses qui m’intéressent comme la musique, le cinéma, les jeux vidéo et, bien évidemment, le sexe.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here