Web sémantique, personnalisation des résultats,… Oubliez aujourd’hui tout ce vous croyez savoir sur le référencement

[Note 2023 : Une mise à jour sur le sujet arrive bientôt.] Cela fait des années que l’on annonce la mort du référencement mais aujourd’hui où le moindre amateur peut ouvertement s’apercevoir que ce métier a vécu, les référenceurs s’enferment dans un déni repoussant sans cesse la mutation nécessaire de leur métier.

Alors que le monde de la visibilité internet a aujourd’hui changé à tout jamais, les référenceurs appliquent toujours les mêmes vieilles méthodes. Se concentrant sur des positionnements de mots clef toujours plus contestables et des méthodes d’expérimentations ne pouvant fournir d’échantillon mesurable d’une quelconque influence sur les moteurs de recherche.

Je sais en écrivant cet article combien les mots que je vais utiliser vont soulever un torrent d’insultes et autres réactions extrêmes alors que mon propos n’est pas de négliger ou mépriser le travail réalisé par bon nombre de ces prestataires soucieux de satisfaire leur clientèle.

Mais il faut regarder les choses en face aujourd’hui les référenceurs doivent revoir leur métier de fond en comble et ont bien trop tardé à changer leurs activités,  « business-model », « practices », discours et arguments de ventes afin de correspondre à la réalité de l’internet d’aujourd’hui.

Mais avant d’expliquer à quoi devraient ressembler les référenceurs d’aujourd’hui je vais vous dire pourquoi leurs connaissances des moteurs de recherche et de la visibilité sur internet est aujourd’hui plus que obsolète bien qu’elles semblent encore efficaces.

1 – Les usages d’internet ont changés

Hier le moteur de recherche était la porte quasi-unique menant l’internaute à un site. Les internautes ne pouvaient trouver votre site sans passer par la case « Google », « AltaVista », « Yahoo », « Ask »,  « MSN »,… Les recherches étaient simples et composées de quelques mots, le nombre de sites optimisé SEO susceptible de donner des réponse était limité et les moteurs de recherche pouvaient se vanter d’être très pertinent dans leur réponses.

Mais au fil des années le nombre de sites internet a littéralement subi un « big bang » qui a poussé les utilisateurs des moteurs de recherche à évoluer afin d’obtenir des résultats corrects. Le nombre de mots clés utilisé a augmenté puis les utilisateurs ont dû spécifier les contextes dans lesquels il étaient susceptibles de trouver des résultats (en utilisant des options de leurs moteur de recherche ou en s’adressant à des sites de plus en plus spécialisés).

Le nombre de contextes de recherche disponibles et utilisés par les internautes sur google et ailleurs s’est multiplié de façon exponentielle. Tout le monde le sait, le moteur de recherche de base est aujourd’hui un modèle d’inéfficacité pour trouver des informations vraiment intéressantes.

Les internautes se mettent à chercher de plus en plus des sources d’informations alternatives ciblées par contextes comme par exemple des blogs ou ou des réseaux sociaux.

Pourtant les référenceurs croient encore à l’omniprésence du bon vieux bouton « J’ai de la chance » d’un moteur à l’algorithme unique censé phagocyter le trafic d’internet.

Aujourd’hui même Google (le dieu des référenceurs) n’est pas un moteur de recherche unique mais plusieurs moteurs de recherches travaillant de concert chacun avec des algorithmes bien différents et des règles bien différentes. Selon la sémantique utilisée par l’internaute un ou plusieurs outils de recherche différent prennent la main pour la rendre selon des conditions pas clairement définies (on va y revenir).

2 – Le contenu d’internet n’est plus le même.

Rappelez-vous, les débuts du référencement. Le premier conseil que pouvait prodiguer un professionnel concernait le fait que les mots-clefs recherchés devaient se retrouver dans les textes du site. De préférence répété un grand nombre de fois et placés aux bon endroits pour être considéré comme important par les moteurs de recherche.

Excellent conseil dans un monde ou le web était composé de textes et d’images relativement statiques et où peu de sites étaient optimisés pour leur indexation au niveau du code. Mais totalement inutile aujourd’hui ou l’internet est devenu totalement multimédia, connecté à des bases de données croisées et dynamiques, ou le moindre site personnel possède un code optimisé et ou la quantité du contenu texte n’est pas le critère le plus significatif.

Ben oui, même la règle de base du « content is king » est tombée en obsolescence remplacée par des critères liés au lexique, à la taxonomie, à la sémantique et à des cartes cognitives nouvelles ou en cours de développement. Dans l’internet d’aujourd’hui les contenus vidéos ou multimédias pertinents doivent êtres mis en avant par rapport au diktats habituels  du contenu textuel.

L’internaute n’a plus envie d’obtenir des informations en lisant de longues pages documentées alors qu’une vidéo peut lui fournir cela en quelques minutes sans efforts.

Pour proposer de façon efficace ce type d’information et les mettre en avant, notre ami Google travaille d’arrache pied depuis des années à l’instauration du fameux « Web sémantique ».

Au départ on parlait de « Tags » (du contenu texte à ajouter aux vidéos) mais aujourd’hui les chercheurs sont allés bien plus loin que prévu avec la mise au points de bases de données souples et non typées aux entrées multiples corrélées les unes avec les autres selon une logique basée sur une cartographie sémantique complexe.

Cette cartographie serait dessinée selon des modèles cognitifs basée sur les perceptions humaines de la population anglophone américaine puis bientôt déclinée selon d’autres langues et territoires. Nous n’avons jamais été aussi prêt de modéliser les mécanismes humains d’apprentissage de perception du langage.

Au final des contenus « non textuels » sont référencés de façon aussi précise que des pages pleines de textes répondant à des mots clefs qui ne sont pourtant pas présents dans le contenu de la page. Ceci grâce à une cartographie sémantique bien trop complexe pour que le moindre référenceur puisse en donner une explication compréhensible.

Pour y arriver il va falloir que les référenceurs aient accès et comprennent ces cartes sémantiques et leur modèles cognitifs afin de s’assurer que leur travail soit efficace. Mais cela va demander encore pas mal de temps à mettre en place et sera réservé aux projets internet les plus onéreux ou stratégiques. Mais cela aura un impact fort sur les compétences du référenceur de ce type dépassant de loin le cadre d’internet.

Pourtant un bon nombre de référenceurs travaillent encore des méthodes de bourrage de mots-clefs et de gestions des liens extérieurs en ne comprenant pas pourquoi certains sites d’une seule page remplis que de quelques mots et n’ayant que 3 backlinks se retrouvent positionnés en tête des résultats pour des mots clefs généralistes. L’explication existe, mais elle est largement hors de portée de leur compréhension.

3 – La valeur des informations disponibles est changeante

Il est bien loin l’internet des pages statiques ou un site positionné dans les premiers résultats pouvait espérer conserver sa place pendant quelques mois. Aujourd’hui le moindre site personnel (comme un blog) n’est plus connecté à une base de données, mais à plusieurs bases de données traitant des informations extrêmement différentes les unes des autres, interconnectées de façon plus ou moins souples et ayant des durées de vie de plus en plus courtes.

Hier les pages des sites ne changeaient pas pendant plusieurs jours voire plusieurs mois. Aujourd’hui le contenu d’une page change a chaque fois qu’un internaute en demande la visualisation. Les critères géographiques, de cartographie, la météo, les conversions de devises, la date et l’heure, l’actualité, les commentaires, les flux RSS, Twitter, Facebook ou de réseaux sociaux, le suivi des liens vers le site, …. changent sans arrêt et influent sur le contenu de la moindre page.

Cette réalité a été accompagnée d’une évolution des bases de données d’indexation du net que sont les moteurs de recherche. Cette indexation est réalisée chaque jour avec une logique de plus en plus floue et ouverte afin de ne pas limiter l’exploitation future des données dans un carcan relationnel entre informations qui empêcherait de suivre les évolutions du net.

Cela a un impact technologique fort sur les concepts fondateurs des bases de données qui aujourd’hui ne peuvent plus se décliner en abscisses et ordonnées (tables) et même plus en termes de relation entre informations ou d’étiquetage d’objet, classes et instances de classes.

Exit le XML qui hier semblait permettre de traiter de façon souple les informations les moins ordonnées et bonjour les langages comme le RDF ou OWL qui permettent de mettre en corrélation des informations selon une logique indéfinie et toujours changeante. (Note : Armez-vous d’une bonne aspirine avant de cliquer sur les liens ci-dessus). Encore une fois c’est la cartographie sémantique qui permet de réunir toutes ces informations et leur donner un sens.

Pourtant aujourd’hui la majorité des référenceurs se conduisent comme si l’internet avec lequel ils travaillent était suffisamment statique pour pousser les moteurs de recherche à la pérennisation des positionnement sur plusieurs jours, mois ou même années. Ceci au mépris du nombre d’informations changeantes au sein des sites concurrents, de l’indexation modifiée et mise à jour chaque seconde, de la nature même de l’internet d’aujourd’hui multiforme et multimédia en constante mutation.

4 – La personnalisation des réponses est extrêmement poussée.

Cela fait maintenant un bon nombre d’années que l’on sait que la nature des résultats donnés par les moteurs de recherche diffère selon le pays ou on fait sa demande et cela même si la langue et la localisation du moteur de recherche est la même.

Par exemple, si vous lancez via le même ordinateur portable sur « google.fr » une recherche sur un mot clef équivalent si vous êtes France, en Belgique ou en Allemagne vous allez avoir des réponses classées de façon très différentes. Ceci depuis au moins 4 ans.

Mais aujourd’hui la différence n’a pas seulement lieu si vous changez de pays mais bel et bien si vous changez de région. Pour une même requête un internaute du midi ne verra pas les mêmes réponses que celles données à un utilisateur de la région parisienne.

Et même, encore plus. Selon l’historique des recherches et les habitudes de navigation de l’utilisateur du moteur de recherche, la liste des résultats proposés sera extrêmement différente.

Pour augmenter la pertinence de ses réponses Google sait qu’il faut lier les recherches de ses utilisateurs à des contextes. Comme il ne peut interroger directement chacun de ses utilisateurs sur le contexte dans lequel ils aimeraient recevoir une réponse, il déduit ce contexte des habitudes d’usage de l’internaute et stocke celles-ci quelque part afin d’y faire référence par la suite.

Ce qui veut dire que pour être sûr de savoir quelle liste de résultat sera proposé à Madame Michu il faut le tester chez Madame Michu et nulle part ailleurs.

Impossible de garantir à qui que ce soit un quelconque positionnement dans des résultats car chaque résultat donné est (largement) personnalisé à l’image de l’internaute utilisateur. Ce qui veut dire que la première place de Google est une place aujourd’hui totalement illusoire.

Vous ne me croyez-pas ? Alors faisons ensemble l’expérience suivante :

Tapez dans Google un mots clef ou votre site est placé dans les premières pages mais pas la première. Déroulez le nombre de pages qu’il faut pour trouver votre site et cliquez dessus sans cliquer sur aucun autre site. Fermez votre navigateur, ouvrez-le de nouveau et cherchez le même mot-clef. Miracle, votre site est mieux positionné que la première fois.

Ne rêvez-pas, le classement de votre site ne s’est amélioré que chez vous et il n’est pas subitement devenu le leader sur google. Faites la même chose chez votre voisin et vous verrez que cette première place est loin d’être garantie.

MAJ (16/04/10) : Pour vous en convaincre je vous invite à regarder attentivement la petite étoile présente à côté de chaque résultat. Si cette étoile est blanche vous êtes normalement en présence du classement normal (quand même influencé par votre localisation géographique). Par contre si cette étoile est jaune, cela veut dire que le classement est personnalisé et que vous contemplez un résultat que personne ne peu voir a votre place.

Pourtant, nous avons encore des référenceurs qui garantissent à leur client un positionnement qui est (vous l’avez bien compris) impossible à promettre sur des bases impossibles à poser.

Conclusion :

Il est grand temps en 2010 d’annoncer la mort du référencement et des référenceurs tels que nous les connaissons pour consacrer le nouveau métier de « fournisseur de trafic qualifié ».

Le métier de fournisseur de trafic qualifié doit absolument changer et ne pas se baser sur une science aussi illusoire que la magie vaudou faite auprès des moteurs de recherche (et encore la magie pourrait bien être plus efficace que les procédés habituels de référencement).

Si vous êtes un entrepreneur digne de ce nom, vous pouvez comprendre que confier la visibilité de votre offre uniquement au référencement naturel fourni par quiconque que ce soit est un peu comme jouer à colin maillard.

Vous espérez obtenir suffisamment de visiteurs pour arriver à être rentable, mais si vous voulez vraiment en être sûr, vous devez obtenir un trafic garanti composé de clients potentiels. Ce trafic là, vous ne pouvez vous baser que sur la bonne volonté des moteurs de recherche pour le fournir.

Qu’il soit White ou Black Hat le référenceur ne doit plus utiliser des méthode obsolètes destinés à manipuler un algorithme unique qui n’existe plus depuis longtemps et ne doit pas préjuger du fait que les sites d’aujourd’hui sont aussi inintéressant et mal codés que ceux d’il-y a 10 ans.

Le référenceur ne doit plus croire faire un travail efficace a deux dimensions dans un monde possédant plus de 10 dimensions sans cesse changeantes. Si il obtient des résultats, ceux ci sont plus dus à la chance et à un certain retard de la technique qu’a une quelconque technique réellement reproductible.

Enfin, il serait temps que les référenceurs arrêtent de mentir à leur clientèle en débitant des vérités obsolètes. Le trafic garanti n’est pas, et n’a jamais été, gratuit! L’apport des moteurs de recherche est juste la cerise sur un gâteau qu’il faut concevoir autrement.

Il est grand temps que ces prestataires prennent en charge les règles d’internet aujourd’hui en multipliant des moyens réellement efficaces pour obtenir du trafic qualifié et garantir celui-ci sans compter sur la chance.

Il est grand temps que les référenceurs changent de métier !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *