L’art du SEO : une éthique en noir et blanc

Temps de lecture : 7 minutes

 

En préambule, rappelons ce qu’est le SEO.

Le SEO «Search Engine Optmization», ou référencement naturel, ou encore référencement organique est un ensemble de techniques mises en œuvre pour optimiser naturellement (= sans payer) un site web en lui permettant d’augmenter son positionnement dans les moteurs de recherche.

Un moteur de recherche est à la fois un logiciel et un service permettant de classer et d’afficher un certain nombre de contenus web en fonction de la requête (ensemble de critères) saisie par l’internaute.

Pour cela, les moteurs de recherche utilisent un programme spécialisé (qui fonctionne comme un robot) et qui va indexer les sites web, c’est-à-dire :

  • parcourir les sites web à intervalles variables,
  • suivre les liens hypertexte qui sont détectés dans les pages,
  • repérer et indexer dans sa base de données les pages web et le contenu des différents sites Web.

NB : Ces robots sont aussi appelés bots, spiders ou crawlers. Chaque moteur de recherche a un robot qui lui est propre. Le crawler de Google par exemple est appelé Googlebot.

Guerre ? Les enjeux du SEO

Quelques chiffres du web en décembre 2016 pour bien mesurer les enjeux du SEO :

  • Google connait 100 000 000 000 000 pages web et en indexe 30 milliards par jour
  • Plus d’1 blog se créé chaque seconde
  • Plus de 3 800 000 requêtes par minute sont effectuées dans Google soit 5,5 milliards/jour (plus de la moitié vient du mobile)
  • 62% des utilisateurs ne consultent que la première page de résultats
  • 77 % des internautes préparent leurs achats sur internet via les moteurs de recherche.
  • 33% du trafic des sites d’e-commerce provient du référencement naturel (3% des clics proviennent d’Adwords)
  • En France, la recherche sur google représente 92% à lui tout seul
  • Internet compte plus de 1 166 millions de sites internet (contre 18 957 sites en 1995)

Face à ces volumétries et à cette concurrence, comment positionner naturellement notre site le plus haut possible dans les premiers résultats des moteurs de recherche afin de booster nos revenus enligne, d’améliorer notre image de marque, de nous différencier de nos concurrents, de diminuer les coûts d’acquisition clients, ou encore pour recruter nos futurs collaborateurs, … ?

Comment donner envie et confiance à l’internaute pour qu’il clique et reste le plus longtemps possible sur notre site et ainsi lui faire découvrir tout ce que l’on a à dire, vendre, montrer, expliquer, …?

Art ? Les disciplines du SEO

Parmi les leviers marketing, le SEO est très puissant : les moteurs représentent 30 à 40% des visites d’un site en moyenne.
Les disciplines à maitriser sont nombreuses : le SEO est une alchimie fine entre technique, contenu et popularité. La défaillance ou négligence d’un pan a un impact négatif sur les autres : il est vain par exemple de travailler sa popularité si notre site tourne à 2 à l’heure…Ca semble logique mais il est bon de le rappeler.

L’objectif de ce paragraphe n’est pas d’être exhaustif, il juste ici question de vous faire comprendre la pluralité des domaines, expertises et compétences à appréhender :-).
Enfin, c’est un travail quotidien et de longue haleine dans lequel il convient de ne pas se reposer sur ses lauriers.

La technique

« Un site mal conçu techniquement ne sera jamais visible dans Google même avec du contenu qualitatif et de la popularité… »

Quelques fondamentaux :

  • L’attribut alternatif : Google n’interprète pas le contenu visuel des images, il a besoin d’aide pour comprendre la signification d’une image. C’est le rôle de la balise ALT (composée de mots clés en rapport avec l’image et au contexte sémantique).
  • Surveiller les liens rompus, images cassées et les pages en erreur via les journaux des serveurs, et Google Analytics…
  • Les URLs doivent être explicites et pas trop longues
  • Le protocole HTTPS et le certificat SSL : depuis août 2014 la sécurité est maintenant un des facteurs de bonne indexation par Google.
  • Attention aux redirections (paramétrer de préférence des redirections 301)
  • Côté hébergement, préférez un serveur de qualité, c’est à dire géolocalisé et dédié à un serveur mutualisé. Choisir un serveur mutualisé, c’est prendre des risques en terme de performances (ressources partagées avec d’autres sites) et de réputation (pas d’Adresse IP dédiée).

« Choisir un serveur mutualisé, c’est comme décider d’aller à une partouze sans capote »

Yann LEMORT | Consultant SEO & Formateur agréé en référencement, génération de trafic et webrédaction

  • Le fichier robots.txt : ce protocole sert à restreindre volontairement l’indexation d’un site (ou d’une partie) par les robots en prévention du contenu dupliqué (duplicate content), ou pour masquer des contenus inutiles au référencement, puisque « trop d’info tue l’info »
  • Les arborescences trop profondes sont à proscrire pour une meilleure indexation (3 clics max). Et accessoirement, l’UX en profitera :-)
  • Le Responsive design : votre site internet doit être responsive design (Cf. index mobile first de Google) afin de s’adapter à différentes tailles d’écran et tout particulièrement celles des mobiles car Google va les favoriser dans les résultats de recherche très prochainement étant donné que plus de la moitié des recherches s’effectuent désormais via mobile.
  • L’expérience utilisateur (UX) : Google prend de plus en plus en compte l’UX et met en avant les sites proposant une expérience utilisateur de qualité. Google change la vision de son moteur et place les besoins des internautes en premier : ce changement fait suite à la recherche vocale. A noter : on commence à parler de SXO (pour Search eXperience Optimization), l’expression SEO suggérant que l’on optimise uniquement pour les moteurs de recherche.
  • Les temps de chargement sont à surveiller (et notamment sur mobile) puisque :

Près de 57% des consommateurs abandonneront leur panier après avoir attendu plus de trois secondes

Sur mobile, 53% des visiteurs abandonnent une page mobile si elle prend plus de 3 secondes à se charger. Et entre 1 et 7 secondes, la probabilité qu’un visiteur abandonne la page augmente de 113 %.

Un délai d’une seconde dans votre temps de réponse peut entraîner une réduction de 7% des taux de conversion

Le contenu

Le contenu (textes, images ou vidéos) est d’une importance capitale pour un site Internet. Il faut un minimum de 800 à 1000 mots par page et concernant les articles, tout dépendra de leurs objectifs.

nombre de mots vs. SEO

Nombre de mots vs. SEO | Source : www.tomlangdon.fr

La qualité et la pertinence du contenu texte joue un rôle important. À force d’avoir de nombreuses sorties (Cf. Taux de rebond), Google se rendra compte que notre site n’est pas intéressant pour les internautes et il déclassera les pages indexées. La fraîcheur du contenu et le respect de l’orthographe font partie des algorithmes d’indexation.

La structure du contenu texte importe également : l’utilisation de balises sémantiques permet de structurer et de hiérarchiser le contenu texte.
Les balises Hn (HI, H2, H pour Heading) aident les moteurs de recherche à mieux comprendre notre contenu éditorial.
Le titre (balise meta title) et la description (balise meta description) sont les premiers éléments vus dans les résultats ils sont donc d’une importance capitale (et ce même si la meta description) est ignorée des moteurs, car les moteurs de recherches n’achètent pas nos produits…

L’analyse sémantique, c’est à dire l’analyse et la recherche de mots clefs qui une fois placés dans la page donneront des indications supplémentaires aux moteurs et participeront ainsi à améliorer le classement de la page.

La popularité

L’algorithmie d’indexation intègre un indice de popularité basé sur le nombre de gens qui parle de votre site et la manière dont il parle de votre site. L’optimisation de son netlinking (création de liens vers notre site depuis d’autres sites, appelés backlinks) représente le dernier lourd pilier du SEO.

Ce netlinking se créé via les blogs, les annuaires, les échanges entre sites de thématiques similaires. Plus notre site sera qualitatif, plus il bénéficiera de liens spontanés et de partage, et plus il obtiendra de trafic : CQFD :-).

Noir & Blanc ? Les 2 éthiques du SEO

Le bon référencement d’un site étant un enjeu crucial, nécessitant un travail de titan et des compétences étendues, vous saisissez pleinement une des principales raisons pour lesquelles les sites web se font hacker : les gains potentiels en référencement naturel.
Pourquoi s’acharner à faire de la sémantique, être à cheval sur l’orthographe, structurer nos contenus quand on peut faire sans et rapidement ? C’est maintenant que vient l’explication du Noir & Blanc.

En effet, 2 éthiques s’affrontent dans cette guerre au positionnement : le white vs. le black SEO. A l’art que je viens de décrire plus haut, s’oppose le monde de la fraude et de la magouille.
Vous avez certainement déjà vu ces pictos d’hommes chaussés de lunettes noires et coiffés d’un Fedora symbolisant ces 2 courants :

Fedora black and white

 

Google a déclaré récemment que

le spam SEO est l’une des principales raisons pour lesquelles des sites Web se font pirater. Accueillir des parasites sur son site, ça coûte cher : entre les liens vers des sites spams, des contenus vraiment louches, vos visiteurs risquent de disparaître.

D’un côté, les White hats (chapeau blanc) : le SEO White hat qui respecte scrupuleusement les consignes des moteurs de recherche (Cf. paragraphe « Art »)

De l’autre, les Black hats (chapeau noir) : Le SEO Black hat qui sollicite des techniques de référencement naturel frauduleuses (voire illégales), artificielles et très agressives.

Quelques pratiques contraires aux guidelines des moteurs de recherche :

  • le cloaking : l’intérêt est alors de présenter au robot d’indexation une page « sur-optimisée » en termes de référencement naturel qui ne serait pas forcément agréable ou lisible pour un internaute.
  • le spamdexing : il s’agit donc de spamer les index, d’où le terme de spamdexing.
  • l’utilisation de contenu ou texte caché
  • le spam de commentaires ‘SpamCo’
  • le piratage de site pour y insérer des liens cachés, des redirections malveillantes
  • et la liste est longue

Les conséquences d’un piratage est lourd : outre votre réputation, le trafic organique d’un site est mort une fois marqué « malveillant », donc desindexé par Google.
C’est ainsi que vous pouvez depuis décembre 2015 rencontrer ce massage d’erreur : Erreur 451 pour signaler un site censuré à la suite d’une demande légale. Ce code est inspiré de Ray Bradbury « Fahrenheit 451 ».

Un référenceur qui vous promet une pole position dans les moteurs de recherche en une semaine doit sérieusement vous interpeller…

Il faut donc rester extrêmement vigilant :

  • en « hackant » son propre site pour en mesurer les failles (ok on parle plutôt d’audit ou de tests d’intrusion dans les grands groupes). Un monde de fous où les pirates font du SEO et les référenceurs font du piratage !
  • en souscrivant au service de la Console de Google (Google Search Console) capable de vous alerter par email d’activités suspectes détectées lors des indexations
  • et en suivant les remontées des clients.

Ci-dessous, une capture écran prise le vendredi 24 mars 2017 à 17/30 sur internetlivestats montrant le nombre de sites hackés dans le monde à cet instant :

 

hached websites

Hacked websites today | via internetlivestat

Sources :