Accueil > Actualités et Buzz > Google répond aux questions des référenceurs, lors du SEO Camp’us
Formation-Google-SEO-referencement-naturel

Google répond aux questions des référenceurs, lors du SEO Camp’us

Vincent Courson, porte-parole de Google sur les problématiques SEO, a répondu aux questions des référenceurs lors du SEO Camp’us.

Le sommaire : 

  • Prise en compte des balises rel=prev/next
  • Impact des actions drastiques pour optimiser le budget de crawl
  • Indexation des pages Mentions légales, CGU, CGV, confidentialité…
  • Prise en compte de l’UX, de la vitesse et du pogosticking pour le positionnement
  • Avis de Google sur les concours SEO
  • Référencement de plusieurs pages d’un même site sur une SERP
  • Privilégier une page complète ou plusieurs pages plus ciblées
  • Désaveu de liens
  • Statistiques d’exploration dans la nouvelle Search Console
  • Mise à jour Google de mars 2019
  • Ouverture de l’API d’indexation Google à d’autres types de pages web
  • Interprétation du JavaScript par Google
  • Gestion du Negative SEO
  • Pénalités pour échange de liens

En prime, vous retrouverez quelques informations sur la migration de la Search Console en fin d’article.

Pouvez-vous clarifier la communication de Google sur l’utilisation des balises rel=prev/next ?

C’est le sujet SEO du moment. Ces balises permettent de déclarer que des contenus sont paginés, elles font le lien entre une première page, une seconde, une troisième et ainsi de suite. Elles existent depuis 2011. Des employés de Google ont récemment indiqué qu’elles n’étaient plus prises en compte par le moteur de recherche depuis longtemps, ce qui a provoqué un sentiment de malaise chez de nombreux SEO. Comment être crédible auprès de ses clients lorsque les conseils fournis par Google aux référenceurs diffèrent des communications diffusées plus largement, sur Twitter en l’occurrence ?

La clarification de Google est la suivante :« cet élément n’est plus pris en compte pour l’indexation des pages, mais cela ne signifie pas que vous devez enlever ces balises » . Vincent Courson insiste sur l’intérêt de ces balises : « elles sont utiles dans de nombreux contextes : pour les navigateurs, pour l’accessibilité, ainsi que pour l’exploration ». Ces liens peuvent être suivis, ils sont utiles. En résumé : continuer d’utiliser ces balises.

Concernant la communication de Google : il regrette cet épisode de communication malencontreux et rappelle son rôle chez Google, qui consiste à faire la navette entre les équipes techniques de Google et les professionnels du web (dans les deux sens : pour remonter les problématiques rencontrées sur le terrain et pour communiquer sur les évolutions du moteur de recherche).

Est-il préjudiciable de réduire de manière drastique le nombre de pages proposées pour l’indexation (de 800 000 à 200 000 pages par exemple), dans une logique d’optimisation du budget de crawl et de satisfaction utilisateur ?

On parle ici de sites importants, peu de référenceurs sont directement concernés par ces problématiques. Vincent Courson indique que l’impact peut être important. Il conseille aux entreprises de se lancer dans ce type de chantier que si plusieurs conditions sont réunies : qu’une personne dédiée à la technique SEO soit intégrée (pour maximiser la réactivité en cas de résultat contraire aux objectifs par exemple) et surtout s’il y a une problématique précise à corriger (historique ou dette technique importante…). Sinon, cela paraît trop risqué par rapport aux gains escomptés. Restez prudent.

Doit-on (dés)indexer les pages Mentions légales, confidentialité, CGV, CGU…

Vincent Courson estime que ce n’est pas vraiment un sujet : « faire un effort spécifique pour indexer ou désindexer ces pages n’a pas un grand intérêt. Les seules raisons qui pourraient justifier le fait de s’y attarder seraient la détection d’un crawl démesuré sur ces pages ou un trafic anormalement élevé… mais c’est très rare ». Plus globalement, il rassure en indiquant que l’indexation de ces pages à faible valeur ajoutée ne nuit pas aux performances SEO des autres pages, car les contenus de ces pages sont spécifiques et très différents des autres pages du site.

Précision utile : Google ne considérera pas qu’un site n’est pas digne de confiance si ces pages sont désindexées. « Nos algorithmes ne prennent pas en compte ce critère, car les erreurs d’appréciation seraient trop nombreuses ».

Certains disent que le vitesse de chargement et l’UX sont pris en compte dans les critères de pertinence des pages, d’autres pensent le contraire. Qu’en est-il ?

Cette question a permis de clarifier plusieurs points intéressants, notamment sur le pogosticking. Certains SEO pensent que Google analyse le comportement des utilisateurs, notamment le fait de cliquer sur un lien A, revenir sur la SERP et cliquer sur un lien B, pour réévaluer si besoin la position du lien A par rapport au lien B (si l’utilisateur est revenu du lien A pour aller sur le lien B, cela signifierait que le contenu du lien A n’est peut-être pas aussi intéressant qu’espéré). Vincent Courson est très clair à ce sujet : « non, Google ne prend pas en compte le taux de rebond et le taux de clic pour le positionnement ». En revanche, ces données peuvent être utilisées pour des tests UX sur le moteur, pour évaluer la pertinence d’un bloc de résultats enrichis par exemple ; mais ces données ne sont jamais utilisées pour le positionnement.

Sur la vitesse de chargement, la réponse est tout aussi claire : « oui, le temps de chargement est un critère de classement, bien que son poids soit relativement mineur. Toutes choses égales par ailleurs, si une page est plus rapide qu’une autre, elle sera mieux positionnée sur Google ». La vitesse aura également un impact sur le crawl, puisque les sites rapides nécessitent moins de ressources, ils peuvent donc être crawlés plus fréquemment.

Concernant le temps moyen passé sur un site : « Google ne prend pas en compte ce critère, car il est difficile de tirer des conclusions sur ces données et parce qu’elles sont faciles à manipuler ».

Quelle est la vision de Google sur les concours SEO ?

Lorsqu’un concours SEO conséquent est lancé, Google « regarde [évidemment] ce qu’il se passe ». Vincent Courson poursuit sur la responsabilité des participants : « il y a deux types de concours SEO : ceux réalisés sur une requête inventée et ceux réalisés sur une requête populaire ». Dans le premier cas, rien n’à signaler : les référenceurs ont le goût du challenge et de l’apprentissage, c’est plutôt sain. « Sur les mots clés très recherchés, c’est plus problématique : des personnes peuvent faire de vrais choix dans leur vie, on est sur un échelon de responsabilité beaucoup plus important, je soutiens beaucoup moins ce type de challenges car ils peuvent avoir un impact réel ».

Vincent Courson précise également le fonctionnement du rapport de SPAM (testé récemment lors d’un concours SEO). Cet outil permet de signaler l’usage de techniques contraires aux guidelines de Google. « C’est un outil utile, nous lui attribuons de la valeur car un utilisateur a pris le temps de remplir un formulaire ». Il nuance en indiquant que ce n’est pas le moyen prioritaire de Google pour modifier sa perception des pages, mais reconnait que ces rapports « sont utilisés pour prendre des actions manuelles ou corriger des algorithmes. Mais notre travail ne consiste pas à faire la police », précise-t-il.

Sur certaines requêtes, Google référence parfois 3 ou 4 pages d’un même site web dans les premières positions au détriment des autres sites web. Google a-t-il prévu une mise à jour pour lutter contre ces inégalités ?

« Google n’a pas une logique webmaster, il a une logique utilisateur. Si plusieurs pages d’un même site répondent mieux à une requête utilisateur que les pages d’un autre site, Google peut mieux positionner ces pages dans les SERPs » . Il indique que Google ne se fixe pas de limite du type « pas plus de 2 pages d’un même site sur une page de résultats » et nuance en indiquant que le moteur souhaite éviter qu’une page de résultats soit entièrement constituée de pages issues d’un seul site web. « Mais si les quatre premiers résultats sont issus du même site, cela signifie que ce sont les quatre pages les plus pertinentes par rapport à la requête de l’utilisateur ».

Doit-on privilégier moins de pages complètes ou plus de pages plus précises ?

La question sous-jacente est la suivante : pour une même requête, deux pages d’un même site peuvent-elle se cannibaliser ? La réponse est oui pour les requêtes larges, pour lesquelles l’intention de l’utilisateur est difficile à définir. « Exemple : sur la requête comment étudier après le bac, si votre site contient des pages pour chaque filière, elles peuvent se cannibaliser. Mais plus la requête est précise, moins c’est le cas : comment étudier après un bac L, comment étudier après un bac S, comment étudier après un bac ES…« . À vous devoir la solution que vous souhaitez privilégier.

Doit-on prendre le temps de désavouer des liens ?

Non.

Est-ce que les statistiques d’exploration seront conservées dans la nouvelle version de la Search Console ?

La priorité de l’équipe est de migrer rapidement les rapports vers la nouvelle Search Console pour pouvoir désactiver l’ancienne Search Console. « Beaucoup de SEO ont indiqué que les statistiques d’exploration étaient utiles, l’information est remontée, cela devrait être pris en compte. Nous ferons en sorte que les solutions proposées répondent aux besoins des webmasters« .

Aucun changement n’est attendu concernant l’historique : 3 mois de données, que vous pouvez exporter pour effectuer des analyses à plus long terme.

Il semblerait qu’il y ait eu une petite mise à jour de l’algorithme en mars, avez-vous des éléments à donner ?

Non.

Vincent Courson indique que « Google fait des milliers de changements tous les ans, certains sont plus importants que d’autres. Dans ce cas, les mises à jour sont confirmées. Cette mises à jour a été confirmée. Nous n’avons pas de consigne particulière à donner. »

L’API d’indexation de Google est limitée aux URL d’offres d’emploi, Google va-t-il ouvrir l’API à d’autres contenus ?

« Pour le moment, nous nous concentrons sur les types de contenus qui doivent être mis à jour en temps réel pour limiter les frustrations. Si une offre d’emploi est pourvue et qu’on continue à envoyer des utilisateurs sur ces contenus expirés, on génère une frustration forte. L’API nous aide à améliorer l’expérience des utilisateurs ». Pas de changement à attendre à court terme donc, mais la porte reste  ouverte.

Comment Google interprète le JavaScript ?

Google procède étape par étape. Dans un premier temps, pour optimiser l’usage des ressources et réaliser le crawl au plus vite, il génère un premier rendu sans JavaScript. Quand les ressources sont plus disponibles, il revient et charge le JavaScript pour que l’interprétation soit au plus proche de ce que voit l’utilisateur. Mais le cloaking n’est pas déconseillé pour autant : « on peut faire du cloaking et envoyer deux versions différentes (à Google et à l’utilisateur) si cela permet à Google de mieux comprendre la page web (mais uniquement dans le cadre de sites full-JS et en suivant les recommandations du dynamic rendering). Ce n’est qu’une rustine, mais cela peut nous aider ».

Que faire lorsqu’un concurrent utilise des liens factices pour dégrader nos performances SEO ?

La réponse de Vincent Courson sur le negative SEO est la suivante : « Depuis la dernière mise à jour de Penguin, les liens abusifs, artificiels, ne sont plus pris en compte (exemple : un lien issu d’un TLD exotique ou placé sur une ancre peu recommandable). Ces liens remontent dans la Search Console, pour informer les webmasters, mais ils ne sont pas pris en compte par Google ».

Comment Google interprète les échanges de liens ?

Il s’agit d’une méthode de création de liens articiels, « pénalisée par Google ». Tous les liens réciproques ne sont pas concernés, certains sont naturels. En revanche, Google « est en mesure de comprendre quand un lien n’est pas naturel. Faire un échange de liens dans le footer, c’est so 2006… ».

Quelques informations sur la migration de Search Console

Ces réponses de Vincent Courson aux questionnements des référenceurs auront permis de clarifier certains points, dont celui sur les balises de pagination. D’autres questions restent en suspens, comme celle sur la fameuse mise à jour de mars… mais nous nous y attendions ! Quelques précisions ont également été apportées sur la nouvelle Search Console : les rapports sur les erreurs d’exploration, sur les sitemaps, la  fonctionnalité Explorer comme Google et la gestion des accès sont en cours de migration. Plusieurs fonctionnalités sont abandonnées : les suggestions HTML, les ensembles de propriétés, les applications Android (migrées sur Firebase) et les ressources bloquées (accessibles via l’outil d’inspection des URL). L’outil d’inspection des URL permettra de connaître l’URL canonique sélectionnée par Google, la recherche info: ne fonctionnera plus. À partir du 10 avril 2019, les données du rapport sur la performance seront consolidées sur l’URL canonique : ceux qui disposent d’URL distinctes sur mobile et sur desktop apprécieront cette avancée, tout comme ceux qui disposent d’une visibilité importante sur leurs pages AMP.

Sources: Vincent Courson de Google répond aux questions SEO des référenceurs.

A propos le-webmarketing

Passionné de Web et de Stratégies Marketing, je mets à dispositions plus outils, méthodes et astuces afin de booster votre productivité et votre visibilité sur Internet.

Vérifiez à nouveau

La décision de Google vis à vis de Huawei est lourde de conséquences

La décision de Google vis à vis de Huawei est lourde de conséquences

La décision de Google vis à vis de Huawei est lourde de conséquences Vous avez …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.