sVous voulez améliorer les résultats de recherche sur Google ou un autre moteur de recherche ?
Vous recherchez des moyens d’améliorer votre positionnement, par du référencement naturel, gratuit ?
Les techniques d’optimisation de référencement sont en constante évolution, nous ferons dans cet article le point sur les éléments qu’il faut absolument prendre en considération pour bien positionner son site Internet, aussi bien dans un contexte national que dans un contexte international, pour l’export.
Cet article abordera les points suivants à prendre en compte pour optimiser sa visibilité sur internet
- Soigner l’expérience utilisateur dans le site
- Se concentrer sur les intentions, pas sur les mots-clés
- Écrire des contenus longs
- Avoir une variété de liens entrants de qualité
- Prendre en compte les utilisateurs de téléphone portable
- Ne jamais oublier l’aspect technique du site !
- Mesurer les performances, analyser et diagnostiquer
Tout d’abord, précisons que Google fait constamment des progrès. Bien évidemment, des progrès dans l’analyse de la demande, du langage, et l’indexation fine des différentes pages. Mais aussi, et c’est moins apparent, pour maintenir l’utilisateur dans le propre écosystème de Google.
Les techniques qui marchaient il y a quelques années (répéter par exemple de nombreuses fois un mot-clé) sont moins efficaces voire carrément contre-productives : Google tient maintenant en effet énormément compte du comportement de l’internaute une fois qu’il a cliqué sur le lien, car ceci lui permet de savoir si le contenu qui lui a été « servi » correspondait à ses attentes ou non. Par conséquent, un site qui n’aurait été écrit que pour être bien positionné, dans un langage indigeste, sera détectée comme étant pas un site de qualité–ce qui l’amènera rapidement à être très mal positionné.
C’est en fait un permanent jeu du chat et de la souris entre les experts du référencement qui cherche à optimiser le référencement naturel (gratuit) et Google qui doit trouver un équilibre entre des internautes satisfaits, qui continuent à effectuer spontanément leur recherche dans l’écosystème Google (donc ajouter de nouvelles fonctions, faire qu’elle soit intuitive et donne les bons résultats le plus rapidement possible), mais aussi limiter les possibilités de travailler qu’avec du référencement naturel. Il est naturellement dans l’intérêt du moteur de recherche que de nombreuses entreprises et besoins d’utiliser la recherche payante (SEA). C’est celle pour laquelle les entreprises payent, c’est la source de revenus pour le « fabricant » du moteur de recherche. Plus le moteur de recherche envoie sur des liens payants, plus il gagne d’argent. Mais plus il risque de perdre des utilisateurs. Tout le jeu est de maintenir le compromis idéal entre les deux… (ces considérations ne concernent pas que Google, mais pour les moteurs de recherche concurrents, l’objectif est moins de maintenir la part de marché que faire croître cette part de marché)
Les derniers changements dans l’affichage sont une bonne illustration. Sur Google, on a maintenant spontanément un affichage de photos, ainsi que, fréquemment, un encart avec différentes informations. C’est à la fois plus confortable pour l’internaute, et moins bien pour les personnes qui font du référencement naturel, car elle se retrouve repoussées plus loin. Cela a un impact très important pour des entreprises qui vendent des voyages ou des accessoires de téléphone, cela en a beaucoup moins pour des entreprises de taille moyenne vendant des produits techniques très particuliers à un nombre restreint d’utilisateurs.
Soigner l’expérience utilisateur
Comme nous l’avons dit précédemment, Google n’a pas intérêt à ce qu’un internaute utilise un moteur de recherche concurrent lors de la recherche suivante. Son intérêt est donc d’envoyer l’internaute qui effectue une recherche vers un bon site. Inversement, si votre site n’est pas bon, il ne pourra pas être de manière stable bien référencée. Le moteur de recherche n’a d’ailleurs même pas besoin de développer un outil très complexe pour effectuer l’analyse. En effet, un clic sur un autre lien ou une nouvelle recherche effectuée très rapidement après l’arrivée sur le site concerné est une très bonne indication que le site concerné n’a pas répondu aux attentes de l’internaute lorsque celui-ci formulait sa recherche. C’est ce que l’on appelle en référencement le « rebond ». Le rebond, c’est quand il n’y a pas d’interaction entre l’internaute et le site. Ce n’est pas le temps passé sur le site qui est important, c’est plus le fait qu’il n’y ait aucune interaction, c’est-à-dire rien de plus que le passage par la page d’arrivée indiquée par Google. Cependant, un séjour rapide sur une page peut aussi indiquer que l’information était parfaitement présentée et qu’elle était la bonne. C’est la raison pour laquelle cette information, si elle est utilisée (c’est officieux) ne l’est pas sans prendre en compte d’autres éléments et le contexte.
L’expérience utilisateur, c’est terme qui englobe le résultat final, ou plutôt la sensation finale qui résulte de l’utilisation d’un service, dans notre cas de l’utilisation du site Internet. L’importance des différents critères est variable d’un utilisateur à l’autre d’une part, mais aussi en fonction du segment de marché visé. À titre d’illustration, la brochure d’une banque destinée à un placement, produit concernant un adulte, n’a pas du tout la même charte graphique ne le même style rédactionnel qu’un document s’adressant à un adolescent, et lui vantant les différentes formules pour avoir sa première carte de crédit. Et il en est de même pour le site Internet. Ce qui est bien pour un type de clients ne l’est pas forcément pour l’autre. Cependant, un site de très mauvaise qualité aura la capacité d’être de mauvaise qualité pour n’importe quel utilisateur…
Parmi les éléments à prendre en compte :
L’aspect, le style du site.
L’esthétique doit être agréable (les goûts et les couleurs, ça ne se discute pas, mais un site à l’esthétique surannée ou moche, ça ne fait pas professionnel pour tout le monde). Il vous est tous arrivés un moment ou un autre de tomber sur un site dont on sentait qu’il avait été fait il y a 10 ans. Même si le produit était bon, cela ne donne pas l’impression d’une entreprise professionnelle
Les boutons doivent être faciles à voir et à comprendre. Il ne faut pas que l’utilisateur soit perplexe et ne sache pas comment obtenir les fonctions désirées.
Le style rédactionnel
Les articles doivent être agréables à lire. L’importance stratégique du référencement est telle qu’on en est maintenant arrivé à avoir des indications, des consignes, pour permettre d’écrire des articles « faciles à écrire ». [Dont je n’ai pas tenu compte pour rédiger cet article : les phrases seraient considérées trop longues, il y aurait trop de passif. Je vise l’information pertinente des lecteurs plus que le référencement à tout prix, d’où mon choix de ne pas m’adapter à un style « optimisé pour Internet »].
Parmi les éléments qui rendent un article agréable à lire, il y a bien sûr l’orthographe. De nombreuses fautes vont rendre l’article désagréable à lire, et nuire à la crédibilité du contenu. Il faut essayer d’avoir de petits paragraphes, de quelques phrases, qui traitent de sujets communs. Il faut éviter d’avoir trop souvent des phrases seules, ce qui peut conduire ce qui pourrait donner l’impression d’avoir une liste de courses et non un article. Les phrases longues peuvent être difficiles à lire sur un téléphone. N’avoir que les phrases courtes seraient désagréables, il faut donc alterner avec harmonie des phrases courtes et des phrases longues.
Il est très favorable de structurer intelligemment son texte, avec des titres, des sous-titres. Des listes peuvent elle aussi être utiles afin de communiquer rapidement une image structurée de la pensée. Il faut éviter d’avoir des pavés de texte trop important : ils peuvent donner à l’internaute la sensation d’avoir un « pavé » à lire, et le conduire aller sur quelque chose de plus simple.
Enfin, il est important d’alterner photos de qualité et texte. Cela rend l’article plus agréable à lire. Vous vous doutez qu’il est préférable d’avoir des photos donnant une impression de qualité et mettant en valeur votre entreprise. Détourer les machines ou les produits techniques à mettre en avant va donner un rendu bien plus professionnel qu’un rectangle disgracieux.
Enfin, gardez à l’esprit qu’il est préférable de mettre les informations les plus importantes vers le début de la page que vers la fin : si la personne ne lit que partiellement la page, vous êtes ainsi assurés qu’elle a pris connaissance des informations stratégiques que vous vouliez lui communiquer.
Il existe des outils très raffinés qui permettent de voir vers où les yeux se positionnent lorsqu’un internaute regarde une page, à quels endroits il clique de manière préférentielle, etc. Ces outils (Eye Tracking) sont utiles dans le cas de pages à très fort trafic, dans lequel la vente est réalisée directement en ligne (généralement des montants relativement faibles) et ne sont pas utilisés dans le cas de sites Internet de quelques pages. Il existe cependant une littérature assez abondante sur le résultat de ses recherches, qui permet de mettre en place quelque bonne pratique lorsque l’on fait un site Internet, même si c’est pour une entreprise qui n’a pas à vocation à vendre directement en ligne.
Il est aussi possible, lorsque l’on hésite entre deux options, de tester directement le résultat. C’est assez simple, on donne à la moitié des visiteurs une page Internet, et à l’autre moitié l’autre page Internet, et en compare les actions et les résultats. Le but est évidemment de décider en fonction de ce qui est constaté, en fonction de ce que l’on pense que les gens feraient. Ce genre de technique et assez simple à mettre en œuvre, et peut être utilisé pour des petites entreprises et des petits sites Internet. (C’est par exemple ce que propose Google Optimize.
Avoir un chargement de la page rapide.
À une époque où de plus en plus utilisateur regarde des pages Internet sur leur téléphone portable, avec le réseau, plutôt que sur un ordinateur avec un fournisseur d’accès Internet, le temps de chargement est un élément crucial : en effet, si la page met trop de temps à s’afficher (par exemple en raison d’une photo qui n’a pas été compressée et prend du temps s’afficher), le visiteur a de fortes chances d’abandonner le chargement et de se rendre sur une autre page. C’est vraiment dommage, car la photo compressée sera aussi nette que la photo qui mettait énormément de temps à charger. Il existe des outils permettant de vérifier le temps de chargement de la page, par exemple avec l’outils de mesure du temps de chargement de Google.
Certains éléments techniques vont aussi avoir une influence sur le temps de chargement, notamment la qualité du code informatique.
Se concentrer sur les réponses plutôt que les mots-clés
es algorithmes de Google ont réalisé des progrès énormes les derniers temps. Lors des balbutiements d’Internet, la logique était essentiellement de chercher un mot clefs et de voir s’il apparaissait souvent. Maintenant, les logiciels sont capables de comprendre avec beaucoup de précision l’intention des utilisateurs : quelles sont leurs attentes, ce qu’ils sont en train de chercher, pour en déduire qu’elle résultats de recherche corresponde le mieux à la demande qui sont en train de formuler.
Il ne faut pas s’attendre à avoir un site Internet bien référencés, apparaissant dans les premiers résultats de recherche naturelle de Google, simplement en se contentant de rédiger des pages privilégiant la répétition de mots clefs judicieusement choisis.
Groupements
Au lieu de se consacrer sur uniquement des mots clefs, il vaut mieux maintenant avoir voir des groupes, quelques pages qui sont connectées entre elles et traitent du même sujet sous différents aspects, avec un ton et une intention commune. C’est le terme de « cluster » qui est utilisé pour désigner ces regroupements. Ces clusters pourront être compris avec plus de finesse par les moteurs de recherche, qui en retour privilégieront le contenu qu’ils auront pu identifier comme pertinent.
Généralement, on va organiser le groupement avec une page qui sera une page de référence, autour desquels on structurera un ensemble de « sous-pages », ou pages dépendantes, qui gravitent autour du sujet principal. Celles ci permettent de mieux approfondir les recherches annexes, elles ont pour fonction de récupérer du trafic annexe, et de le » ramener » vers une page principale ».
Écrivez en fonction du public que vous ciblez
Mieux vous connaîtrez votre cible (leurs intérêts, leur langue, leur localisation, leur âge, leur profil, etc.) mieux vous pourrez rédiger de manière à ce que l’article soit parfaitement adapté à votre auditoire – et, par conséquent, à ce que Google considère votre site comme un suggestion indispensable pour cette cible.
Supposons que vous écriviez un article sur l’export (l’exemple de l’export n’est évidemment pas pris par hasard). Les outils Internet de mots-clés vous indiqueront que les préoccupations majeures des internautes cherchant des informations sur l’export concernent l’export de différents formats de fichiers Internet. Il s’agit donc d’export au sens « informatique », de transfert de données. Cependant, un moteur de recherche pourra constater que de nombreux articles du même site traitent de commerce international, que des mots concernant les logiciels informatiques les plus fréquents sont absents du site, et même confirmer la classification du site au moyen du type d’images présentes sur le site. A titre d’exemple concret, j’ai pris soin, en rédigeant cet article, donc de trop parler des sujets étrangers au commerce international, à la vente, à l’export, et à la digitalisation, de manière à ne pas communiquer un signal erroné au moteur de référencement.
Dans les sites visant la grande consommation, qu’il s’agisse d’abonnement de téléphone ou de produits bancaires, on poussera la démarche jusqu’à utiliser des « personas« . Ceci consiste à identifier les différents types de personnes (la ménagère à domicile, le jeune sans voiture, le retraité, etc.), t à se projeter pour comprendre le vocabulaire, l’esthétique, la formulation des mots clefs, et à « servir » trois types de communication pour être trois fois le meilleur pour chaque personne considérée.
Google a maintenant une logique pour présenter des résultats qui sont de comprendre les « intentions des utilisateurs », il faut donc que le rédacteur de sites Internet rédige en comprenant ce que l’utilisateur est en train de chercher.
Le fait que Google soit maintenant en mesure de présenter directement un encadré (feature snippet) comme première suggestion à la recherche est d’ailleurs une preuve de cette capacité à comprendre les intentions de recherche.
Écrire des contenus longs
Ce n’est pas une règle absolue, mais généralement, les pages avec un texte assez long vont plus fouiller le sujet dans le détail, et donner des informations plus intéressantes. Cela va par conséquent permettre d’avoir un meilleur positionnement et plus de trafic.
Cependant, écrire des contenus très longs, c’est aussi prendre le risque que l’utilisateur ne trouve pas l’information qu’il est venu réellement chercher, et être finalement contre-productif. Il n’est par conséquent pas nécessaire de vouloir toujours écrire des pages de blog avec plus de 1500 mots.
Il n’y a pas vraiment de règle absolue qui puisse donner une information définitive. L’une des méthodes et de regarder les pages qui arrivent bien placées, de constater le nombre de mots, puis de déterminer sa stratégie. Une autre est de se placer de se mettre à la place des lecteurs et de se demander ce qu’il rechercherait, et décrire l’article afin de lui apporter la réponse idéale.
On peut aussi s’imaginer qu’un article qui commence par une liste, dont les points sont détaillés par la suite, et capable à la fois d’apporter une réponse immédiate à ceux cherchant une synthèse rapide, mais aussi de donner des informations détaillées à celui qui souhaite approfondir. C’est par exemple le cas de cet article.
Si vous vous demandez sur quel sujet vous pourriez écrire un article, et quelles sont les recherches qui pourraient être intéressantes, vous pouvez vous rendre sur le site AnswerThePublic , il vous fournira rapidement des réponses et peut-être une grande source d’inspiration pour rédiger vos article de blog Internet.
Attention aussi à ne pas écrire deux articles qui traitent de sujets très proches de manière similaire. Ou, pire, à vouloir le faire de manière automatisée grâce à des chercher–remplacer. Les automates des moteurs de recherche le détectent, et vont pénaliser ce qu’ils appellent des » contenus dupliqué », c’est-à-dire des contenus dont ils savent pertinemment qu’ils ont été écrits pour obtenir du référencement gratuit optimisé.
Avoir des liens entrants variés, et de qualité
Que sont les liens entrants, ou backlinks ?
On appelle liens entrants les liens qui dirigent vers votre site, mais sont extérieurs à votre site (le menu de votre site Internet va diriger, en fonction du menu chois, vers une page de votre site Internet, mais c’est un lien interne). Si un journal régional ou national, la CCI, la BPI ou un annuaire comporte un lien qui redirigé vers votre site Internet, c’est un lien entrant.
Les moteurs de recherche tiennent compte de ses liens entrants pour juger de la qualité d’un site Internet.
Si vous vouliez réserver une table dans un très bon restaurant, à qui feriez-vous confiance : à une personne croisée dans la rue, à un guide sur les restaurants, à un ami, ou à un ami dont vous qui est gourmand et aime les bons restaurants ? De la même manière que le même avis aura pour vous une importance moindre s’il était mis par une personne qui ne connaît pas le sujet, ou qui ne vous inspire pas confiance, les moteurs de recherche prennent en compte le type de site qui renvoie vers votre entreprise. Le lien d’un journal sera par exemple très valorisé, car il en va de la crédibilité. Tandis que celui d’un tout petit site n’aura pas de valeur.
Google, Bing et autres sachant l’intérêt économique que peuvent avoir des entreprises à optimiser les résultats de recherche, ils développent des logiques assez raffinées pour éviter que les gens ne mettent en œuvre des pratiques qui ne sont motivées que pas le classement. Et, paradoxalement, si tous les liens étaient d’une qualité extrême, cela ne serait pas forcément idéal non plus. De manière générale, tout ce qui paraît anormal et donc aussi ce qui est anormalement bien, peut inspirer des doutes aux moteurs de référencement.
Plus que des « grands », un site Internet s’adressant à des produits de niche a surtout intérêt à avoir de l’autorité au sein de son écosystème, être reconnu comme une référence. Les liens venant de sites qui œuvrent dans le même secteur sont donc particulièrement pertinents pour booster le trafic.
Une pratique ancienne consistait à avoir plusieurs annuaires avec des listes de nombreux sites, voir des plates-formes pour s’échanger des liens. Cela a marché il y a un certain temps, mais devenu absolument inefficace, voire contre-productif, car les algorithmes détectent ce genre de supercherie, et pénalisent ceux qui les mettent en pratique car il ne correspond pas aux chartes de bonne conduite que stipulent les moteurs de référencement.
Attention d’autre part aux liens entrants arrivant de « sites pourris ». Vous n’en êtes pas responsables, mais si un site au contenu douteux pointe vers votre site, les moteurs de référencement peuvent en tenir compte et déprécier votre classement. Google offre au webmaster (la personne responsable du bon fonctionnement du site Internet) un menu lui permettant de signaler les liens entrants qui ne sont pas désirés. D’autre part, les algorithmes sont assez intelligents pour savoir qu’un certain nombre de liens de ce type peuvent toujours être présent malgré la vigilance de webmaster, et ne pas pénaliser temps que cela se produit dans des proportions raisonnables.
Intégrer les utilisateurs de téléphone portable
es smartphones sont un outil relativement récent, mais ils représentent maintenant la majorité des recherches. Dans le cas de certains biens (par exemple le téléchargement de musique) les transactions à partir d’un téléphone portable sont très majoritaires. Il est alors évident qu’un site qui ont été conçu à partir d’un ordinateur serait totalement inadapté.
La plupart des sites Internet sont maintenant conçus pour être affichée différemment suivant qu’ils sont affichés sur un téléphone portable sur un écran d’ordinateur, voir sur une tablette. C’est ce que l’on appelle des sites « responsive ». Même si vos clients ne sont pas amenés à consulter les informations à partir d’une tablette, un site à l’ancienne prévu pour être affiché uniquement sur un ordinateur ne sera pas considéré comme si de qualité par les algorithmes des moteurs de référencement, ce qui nuira son positionnement, même sur l’ordinateur. Il est donc important, ce n’est pas encore le cas de votre site, de faire rapidement le nécessaire.
Parmi les éléments à prendre en compte pour la consultation du site à partir d’un portable :
– le temps de chargement (le téléphone va souvent être utilisé avec les données du réseau téléphonique)
– la taille de l’affichage (on ne peut pas lire un article sur un timbre)
– la taille des boutons (on ne peut pas changer la taille des doigts).
– un menu adapté (affichage qui s’escamote, et sélection avec les doigt)
– des liens internes qui permettent de se rendre rapidement à la partie que l’on souhaite lire
– une ergonomie adaptée.
Par exemple, un texte justifié (« droit » à gauche et à droite), lorsqu’il est affiché sur une largeur réduite, devient être extrêmement pénible à lire : les espaces variables indispensables pour adapter le texte devenant extrêmement perceptibles, ils détériorent le confort de lecture.
Les acheteurs professionnels, dans un contexte b2b, vont plutôt effectuer la recherche d’un nouveau fournisseur pour des biens ou des services à partir de l’ordinateur plutôt qu’à partir d’un portable. Le phénomène est donc moins prépondérant que pour les biens de consommation, mais il faut cependant en tenir compte. Une personne peut être amenée, durant une réunion, à chercher immédiatement une information (avec des questions du type « y a-t-il un fournisseur qui propose une telle prestation », ou « quel est le délai pour se faire livrer un produit technique particulier? »). D’autre part, un chef d’entreprise ou un commercial peut mettre à profit le temps passé dans les transports en commun ou à attendre à l’aéroport afin de chercher une réponse à ses préoccupations, ce qui peut le conduire au site Internet d’un nouveau fournisseur.
Enfin, être capable de fournir une base d’informations avec des éléments utiles sur portable peut être un bon moyen d’attirer vers son site du trafic d’utilisateurs qualifiés (une normalisation concernant la visserie, un convertisseur d’unité de mesure, de monnaie, une liste d’incoterms, ce sont autant de petits outils qu’un utilisateur peut apprécier dans son travail quotidien).
La recherche vocale est une des grandes tendances du futur pour les moteurs de référencement, et particulièrement en considérant les recherches effectuées à partir du téléphone. Ce n’est cependant pas, pour les PME fournissant des biens d’équipement ou des machines à l’industrie, une préoccupation à très court terme, sauf à être dans des marché ultra concurrentiel où tout avantage de positionnement résulte immédiatement dans de grandes différences de chiffre d’affaires.
Ne jamais négliger l’aspect technique du site
Ce point n’a pas été mentionné en premier, car pour le confort de lecture. Il n’était pas judicieux de positionner en tête d’article un point trop technique, peu agréable à lire pour commencer à comprendre le référencement. Cela aurait été lourd pour un néophyte qui n’a pas une grande connaissance des techniques de référencement. Cependant, la partie technique du site est l’élément à traiter en premier. Deux raisons principales qui motivent ce choix :
– si le site n’est pas construit techniquement de manière appropriée, des informations de qualité et des photos pertinentes ne sont pas mises en valeur. Car les algorithmes des moteurs de recherche ne sont plus capables d’interpréter l’information de manière pertinente. Cela peut même conduire à ce que certaines informations soient ignorées, ou qu’elles ne soient simplement jamais détectées.
– cela requière un savoir-faire qui n’est pas lié au savoir-faire de l’entreprise, mais uniquement à des compétences de rédaction Web et d’informatique. Il est donc possible de confier ce travail à un professionnel sans que cela ne prenne de temps aux équipes internes à l’entreprise, en sous-traitant. C’est donc un poit qu’il est possible de traiter immédiatement, sans que cela ne génère une surcharge de travail pour le personnel interne.
Pour donner une image, imaginez-vous un commerçant aménageant sa vitrine avec soin, tandis que le volet peut pas s’ouvrir pour des raisons techniques. Il est évident qu’il faudrait rapidement faire le nécessaire pour que le volet fonctionne.
Voici quelques éléments. Ils sont techniques, ils vous permettront de comprendre un peu mieux de quoi il s’agit, et quelles sont les conséquences, si vous devez parler avec un webmaster, une agence de communication ou un spécialiste de sites Internet
S’assurer que le site utilise le protocole https
C’est un peu technique, mais pour simplifier, le S qui distingue le protocole https du protocole http correspond à « sécuriser ». Pour vérifier si vous êtes dans un protocole ou dans l’autre, regarder devant le lien URL (le texte, l’adresse indiquée dans la fenêtre en haut du navigateur). La page que vous êtes en train de consulter commence par exemple par « https ».
Le protocole https correspond à des techniques mises en place pour éviter les malversations, les usurpations d’identité, etc. Sans aller dans les détails, c’est mieux, ou en tout cas, ce sera en aucun cas moins bien. Et par conséquent, les moteurs de référencement tel que Google préfèrent envoyer les internautes vers des sites utilisant le protocole à https plutôt que l’ancien protocole http. Même si, en tant que petites entreprises industrielles, vous n’êtes pas amenés à faire des transactions telles que le ferait une banque ou un magasin en ligne, il vaut mieux le plus rapidement remédier à ce point de manière à ce que vous ne prenez pas le risque d’être pénalisés dans votre positionnement Internet pour cet élément technique.
Faire une vérification technique du site
Il existe des outils qui parcourent le site Internet un peu comme le feraient les ordinateurs de Google, de Baidu ou de Bing. Ces outils disposent d’une version gratuite, qui offre moins de fonctions que les versions payantes, mais permettent cependant de rapidement détecter un certain nombre de problèmes techniques potentiellement présents sur le site. Un tel outil d’analyse de site est par exemple Alyze. C’est un peu comme un oscilloscope : il faut savoir configurer le dispositif pour avoir un affichage, mais les données affichées ne sont d’aucune utilité si l’on ne dispose pas des connaissances techniques pour les interpréter.
Ce genre d’outil vous permet de voir si des liens dirige vers des pages absentes, si des photos n’ont pas de texte alternatif, si les liens sont corrects, quels sont les mots-clés présents sur la page, etc.
Cet outil gratuit vous permettra de vous faire une idée du nombre d’informations qu’un robot peut détecter sur un site. Mais il vous montrera aussi qu’il s’agit d’un sujet très pointu, pour lequel l’appui d’un professionnel est incontournable pour obtenir des résultats.
###CTA
Les spécialistes du référencement utilisent en outre les versions payantes, qui fournissent une information bien plus détaillée et permettent d’optimiser le site Internet.
Les balises titres
Les balises de titres aident Google à comprendre comment votre site fonctionne, à condition qu’elles aient été disposées correctement.
Les balises de titres communiquent à Google différentes informations.
Cela communique d’une part l’architecture générale de l’article, grâce à un titres et des sous-titres de différents niveaux. Il est assez intuitif que les mots placés dans le titre ont plus d’importance que les mots placés dans le texte, et donne le ton de ce qui est abordé dans l’article. Les algorithmes de Google n’étant pas stupides, le petit malin qui mettrait beaucoup de texte formaté comme titre sera mal référencé, voire complètement absent des résultats de recherche.
De même, si une page comporte cinq titres principaux pour des raisons de formatage, c’est Google qui décide parmi ces cinq titres lequel il souhaite retenir. En faisant nécessaire pour n’avoir qu’un seul titre principal, on s’assure de communiquer à Google quel est le titre principal que l’on veut choisir, plutôt que de lui laisser le choix. Accessoirement, avoir plusieurs titre principal communique à Google que le site n’a pas été construit de manière très professionnelle, et, par ricochet pénalise le référencement puisque Google souhaite mettre en avant de bons sites, et que cette information tend à lui suggérer le contraire.
Les pages d’erreur (« erreur 404 »)
Cela vous est peut-être arrivé, lorsque vous naviguez, de parvenir sur une page “Page Not Found – error 404”. La raison : le lien que vous avez cliqué vous a redirigé vers une page qui a été effacée. Le lien est resté mais lorsque qu’on le suit, rien ne peut s’afficher.
Vous avez par vous-même constatés que c’était désagréable. Cela conduit fréquemment le visiteur à se rendre sur un autre site (et potentiellement, chez votre concurrent).
Il faut donc vérifier s’il y a ce type de page sur le site – des outils informatiques permet de le faire. Il est alors possible de faire ce qu’on appelle des pages de redirection. C’est-à-dire de rediriger les personnes qui allaient arriver sur un écran vierge vers une page alternative sur votre site, dans laquelle elles sont susceptibles de rester, puisque vous traitez une problématique sur lesquels ils sont en train de se documenter.
Il est d’autre part préférable, lorsque l’on présente ce type de page (même avec beaucoup de précautions, il ne peut pas complètement exclure que cela puisse arriver) d’une manière qui montre aux visiteurs qu’il est bien sur le site de la bonne entreprise, et lui communiquer que l’on est désolé du désagrément, éventuellement avec un ton humoristique. C’est à la fois professionnel, et limite la perte de trafic au bénéfice de sites concurrents.
Mesurer les performances du site
Il semble inutile d’expliquer à des managers et à des techniciens que la mesure est indispensable pour analyser la pertinence des actions entreprises !
Il est possible d’obtenir énormément d’informations aussi bien sur les personnes qui visitent le site que sur le positionnement du site dans le moteur de recherche avec des outils gratuits. Il est d’autre part possible le cas échéant, de compléter ses premiers éléments au moyen de solutions payantes.
L’analyse va permettre de dégager des informations telles que :
– mon site a-t-il bien positionné. Sur quelle page ?
– quelles sont les pages qui font venir les nouveaux clients sur mon site ?
– quelles sont les pages de mon site qui plaisent aux visiteurs ?
– comment suis-je positionné sur les recherches par rapport à mes concurrents
– quelles sont les mots-clés qui ont fait venir des visiteurs sur mon site ?
– quelles sont les pages qui conduisent des visiteurs à quitter mon site ?
Il faut beaucoup raisonner par déduction, avoir du bon sens et faire des suppositions, car les statistiques ne donnent pas toutes les informations. Mais elles permettent rapidement de tirer des enseignements clés qui vont permettre de faire progresser le site Internet, et de le rendre beaucoup plus efficace commercialement.
Voici quelques outils qu’utilisent les référenceurs, et qui peuvent vous fournir des informations sur votre référencement :
Google Analytics
Google analytics est une solution gratuite proposée par Google pour observer le comportement des internautes sur son propre site. Ces informations sont recueillies au moyen de cookies, ce qui nécessite préalablement l’accord des visiteurs. C’est la fameuse fenêtre « RGPD » que vous voyez sur les sites Internet que vous visitez, qui vous demande votre consentement. Grâce aux informations collectées de différentes manières, Google analytics sera capable de vous montrer le comportement des internautes sur votre site « de quel pays ils viennent, quelle langue il parlent, par quelle page ils sont arrivé sur le site, en tapant quels mots-clés, etc…). Pour découvrir Google Analytics.
SEMRush
Semrush est un outil qui est utilisé afin de voir quelles sont les mots-clés qui fonctionnent, mais aussi de comprendre la stratégie mise en place par les sites concurrents. Cela peut permettre de dégager certaines tendances pour optimiser le site, ou au contraire conduire à prendre des décisions plus radicales pour transformer le site. Semrush permet aussi de suivre le positionnement de mots-clés dans différents moteurs de recherche.
À noter qu’en cas de grande progression de l’un des fournisseurs concurrents, des outils d’archives permettront, en observant l’ancien site est en constatant les changements qui ont été apportés, d’en déduire assez rapidement quelles sont les principales améliorations qui ont conduit à cette progression.
Cette liste n’est en aucun cas exhaustive, les outils sont innombrables, et doivent être sélectionné en fonction des informations recherchées.
Vous l’aurez compris, l’important pour améliorer le référencement de son site Internet n’est finalement pas tant d’accéder à l’information (il a pléthore d’information, et une grande partie est par ailleurs disponible gratuitement) que de savoir quelles informations utiliser, et d’être capable de les interpréter en les remettant dans le contexte. Il est primordial de savoir quelles actions entreprendre afin d’apporter rapidement des réponses des améliorations au référencement du site Internet.
Le bon prestataire externe, spécialiste de référencement et comprenant vos particularités, et le mieux à même de vous faire gagner du temps et de vous permettre de bien vous positionner dans les résultats de recherche, mais surtout, d’être visible par un lectorat de qualité.