Horaires de bureau Google SEO de septembre 2023


16
/ 100


Horaires de bureau Google SEO de septembre 2023

Ceci est la transcription de l’édition de septembre 2023 des heures de bureau Google SEO. Pour obtenir une aide spécifique au site, nous vous recommandons de publier votre question dans la communauté d’aide Google Search Central.

Google indexe-t-il à tort la version www de mon site Web ?

John : Wan demande : Google indexe à tort la version www de mon site Web. La bonne page est censée être HTTP, puis leur nom de domaine .my sans le www.

Salut Wan ! J’ai jeté un œil à vos pages, et il semble que votre serveur redirige automatiquement de la version non-www vers la version www et définit l’élément canonique lien rel de manière appropriée. À première vue, si vous utilisez Chrome, il peut sembler qu’il n’y a pas de www devant, mais si vous cliquez deux fois sur l’URL en haut du navigateur, elle se développe jusqu’à l’URL complète, avec www. En pratique, c’est très bien : les versions www et non-www d’un site conviennent parfaitement à la recherche Google. Wow, ça fait beaucoup de www !

Pourquoi les données filtrées sont-elles supérieures aux données globales sur la Search Console ?

Gary : Ornella demande : pourquoi les données filtrées sont-elles plus élevées que les données globales sur la Search Console ? Cela n’a aucun sens.

Tout d’abord, j’adore cette question, mais probablement pour la mauvaise raison. La réponse courte est que nous utilisons beaucoup ce qu’on appelle les filtres Bloom, car nous devons gérer beaucoup de données, et les filtres Bloom peuvent nous faire gagner beaucoup de temps et d’espace de stockage. La réponse longue est toujours que nous utilisons beaucoup les filtres Bloom parce que nous devons gérer beaucoup de données, mais je veux aussi dire quelques mots sur les filtres Bloom : lorsque vous gérez un grand nombre d’éléments dans un ensemble, et je veux dire des milliards d’articles, voire des milliards, rechercher des informations rapidement devient extrêmement difficile. C’est là que les filtres Bloom sont utiles : ils vous permettent de consulter un ensemble différent qui contient un hash d’éléments possibles dans l’ensemble principal, et d’y rechercher les données. Puisque vous recherchez d’abord les hachages, c’est assez rapide, mais le hachage s’accompagne parfois d’une perte de données, intentionnelle ou non, et ces données manquantes sont ce que vous rencontrez : moins de données à parcourir signifie des prédictions plus précises quant à l’existence de quelque chose. dans l’ensemble principal ou non. Fondamentalement, les filtres Bloom accélèrent les recherches en prédisant si quelque chose existe dans un ensemble de données, mais au détriment de la précision, et plus l’ensemble de données est petit, plus les prédictions sont précises.

Pourquoi les pages de mon site Google Sites ne sont-elles pas correctement indexées ?

John : Une question a été soumise en français, qui demande essentiellement pourquoi les pages de mon site Web Google Sites ne sont pas correctement indexées.

C’est formidable de recevoir des questions dans d’autres langues. En prenant du recul, les sites Web créés sur Google Sites peuvent être indexés et sont effectivement indexés dans la recherche Google. Cependant, les URL utilisées dans Google Sites sont un peu difficiles à suivre car la version publique peut être différente de l’URL que vous voyez lorsque vous êtes connecté. Pour être franc, même si elle est techniquement indexable, elle n’est pas idéale à des fins de référencement et peut être complexe. pour le suivi dans la Search Console. Si le référencement est votre principale préoccupation, il peut être intéressant d’explorer d’autres options et de vérifier les avantages et les inconvénients avant de vous engager. Pour le suivi des performances dans la Search Console, vous pouvez également utiliser votre propre nom de domaine pour le contenu de Google Sites. L’utilisation de votre propre nom de domaine facilite la migration, si vous le souhaitez, et vous permet de vérifier la propriété de l’ensemble du domaine pour la Search Console.

Notre site comporte de nombreux boutons ; en cliquant dessus, ils récupèrent des liens vers d’autres pages. Google peut-il explorer ces liens ?

Gary : Sarabjit demande : notre site Web comporte plusieurs boutons. En cliquant dessus, nous récupérons des liens vers d’autres pages. Google pourra-t-il explorer ces liens ?

De manière générale, Googlebot ne clique pas sur les boutons.

Un « message d’invité » (pour obtenir un backlink) est-il contraire aux directives de Google si j’écris du contenu de valeur ?

John : Brooke demande : De nos jours, la plupart des sites Web n’offrent que la possibilité d’acheter un « article d’invité » (pour obtenir un backlink). Est-ce contraire aux directives de Google si j’écris du contenu de valeur ?

Salut Brooke, merci d’avoir posé votre question. Il semble que vous soyez déjà sur la bonne voie. Oui, l’utilisation de publications d’invités pour les liens est contraire à nos règles relatives au spam. En particulier, il est important que ces liens soient qualifiés de manière à indiquer qu’ils n’affectent pas les résultats de recherche. Vous pouvez le faire avec les attributs rel=nofollow ou rel=sponsored sur les liens. C’est bien d’utiliser la publicité pour promouvoir votre site, mais les liens doivent être bloqués comme mentionné.

Le contenu d’une page de catégorie de commerce électronique est-il utile pour améliorer le classement global ?

Gary : Brooke demande : le contenu d’une page de catégorie de commerce électronique est-il utile pour améliorer le classement général ?

Vous pouvez ajouter le contenu que vous souhaitez à vos pages, ce sont vos pages après tout. Mais s’il vous plaît, ne répétez pas ces textes de présentation de mauvaise qualité, générés automatiquement, encore et encore sur toutes vos pages de catégorie. Cela semble ridicule, même pour une personne moyenne. Si vous avez besoin de contenu sur vos pages, ajoutez du contenu que les gens trouveront réellement utile

complet, n’ajoutez pas de contenu, car la recherche pourrait l’exiger, du moins c’est ce que vous pensez. Consultez également nos recommandations e-commerce.

Des balises sémantiques incorrectes entraînent-elles une moins bonne compréhension par Google du contenu du site Web ?

John : Les balises sémantiques incorrectes entraînent-elles une moins bonne compréhension globale du contenu du site Web par Google, et donc une moins bonne capacité à l’attribuer à une branche ? En particulier, les balises <hr> signalent un changement de sujet, mais je peux les utiliser uniquement à des fins de conception.

C’est une question intéressante. En général, utiliser correctement le HTML sémantique peut aider les moteurs de recherche à mieux comprendre le contenu d’une page et son contexte. Par exemple, si vous marquez des titres sur une page, cela indique clairement que vous pensez que votre contenu correspond à ce titre. Ce n’est pas un chemin secret vers le classement numéro un, mais si nous avons du mal à comprendre ce que vous voulez dire dans le texte, fournir un résumé clair sous forme de titres peut s’avérer utile. Parce que c’est une chose subtile qui dépend de la façon dont nous comprenons la page, je considérerais cela comme une bonne pratique pour vous assurer que tout est couvert. Inverser cela, passer du HTML sémantiquement correct au HTML sémantiquement incorrect, est également subtil. Les moteurs de recherche peuvent-ils toujours comprendre votre page ? Alors vous ne verrez probablement pas de différence dans la façon dont ils le comprennent. Le sens est-il soudainement flou ? Ensuite, eh bien, rendez-le peut-être moins flou, peut-être avec une certaine structure sémantique. Concernant votre exemple spécifique de balises <hr> , je ne vois pas de situation dans laquelle il y aurait une différence dans la compréhension d’une page en raison de leur utilisation incorrecte. Il existe une infinité de façons d’utiliser quelque chose de manière incorrecte, mais celles qu’un concepteur Web pourrait accidentellement rencontrer avec les balises <hr> semblent assez sûres. Je suppose que c’est loin de dire « ça dépend », de rien.

Dans Google Search Console, le rapport sur les 404 pages contient de nombreuses URL qui semblent provenir de JSON ou de JavaScript. Faut-il ignorer ?

Gary : Reza demande : dans Google Search Console, le rapport pour 404 pages est rempli d’URL qui semblent avoir été récupérées par erreur à partir d’un code JSON ou JavaScript. Devons-nous ignorer cela ?

Vous pouvez les ignorer ou simplement ajouter un en-tête HTTP noindex pour eux.

Les fichiers d’index de plan de site peuvent-ils contenir des liens vers des fichiers de plan de site sur d’autres domaines ?

John : Dhruv demande : le fichier d’index de plan de site peut-il contenir des liens vers des fichiers de plan de site sur d’autres domaines ?

Salut Dhruv, question intéressante. La réponse du côté de Google est peut-être définitive, et pour cette raison, ma suggestion est de ne pas utiliser une configuration comme celle-là. Vous pouvez envoyer des plans de site pour des URL qui ne se trouvent pas sur le même domaine dans deux situations : soit vous soumettez le plan de site via robots.txt, soit vous avez vérifié la propriété de tous les domaines dans la Search Console. En particulier, la propriété de la Search Console peut être subtile et ne pas être immédiatement visible lorsque vous analysez le site Web. Il est donc facile d’oublier cette connexion. Si vous travaillez sur des fichiers de plan de site et décidez d’utiliser une configuration comme celle-ci, mon conseil serait d’ajouter un commentaire XML au fichier de plan de site afin que vous vous souveniez de ces exigences et de ne pas les rompre accidentellement dans le fichier de plan de site. avenir. Étant donné que la Search Console est spécifique à Google, vous souhaiterez également vérifier les exigences que d’autres moteurs de recherche pourraient avoir à ce sujet.

Comment réduire la probabilité que Google choisisse ses propres méta-descriptions pour les sites Web ?

Gary : Sam Bowers demande : comment réduire la probabilité que Google choisisse ses propres méta-descriptions pour les sites Web ?

Bonne question : pas toujours, mais généralement nos algorithmes utiliseront votre méta-description lorsqu’il n’y a pas beaucoup de contenu sur la page, ou lorsque la méta-description est plus pertinente par rapport à la requête d’un utilisateur que le contenu réel de la page. En savoir plus sur les descriptions et les extraits.

Existe-t-il un moyen de spécifier que les robots des moteurs de recherche ne doivent pas explorer certaines sections d’une page ?

John : Existe-t-il un moyen de spécifier que les robots des moteurs de recherche ne doivent pas explorer certaines sections d’une page (dans le cas contraire, l’exploration et l’indexation de la page sont autorisées). Ils continuent en mentionnant qu’ils ont beaucoup de duplications dans les “méga-menus” et aimeraient les bloquer.

Oui, vous pouvez faire certaines choses pour empêcher l’indexation de parties d’une page, mais en particulier pour les éléments de page courants tels que les en-têtes, les menus, les barres latérales et les pieds de page, il n’est pas nécessaire de bloquer leur indexation. Les moteurs de recherche traitent le Web tel qu’il est, et parfois il y a des méga-menus géants ou des pieds de page, ce n’est pas un problème. Pour les autres éléments de contenu d’une page, vous pouvez soit utiliser une iframe avec une source interdite par robots.txt, soit extraire du contenu avec JavaScript qui est également bloqué par robots.txt. Si vous souhaitez simplement éviter que quelque chose ne s’affiche dans un extrait, l’utilisation de l’attribut data-nosnippet est un bon moyen d’y parvenir. Mais encore une fois, il n’est pas nécessaire d’ajouter autant de complexité simplement pour masquer un menu. Une complexité inutile entraîne un risque de panne inattendue, il est donc bon de limiter cela aux cas où cela est vraiment nécessaire.

Recommandez-vous le défilement infini sur les pages Web ? Y a-t-il des implications sur le trafic organique

ou Googlebot ?

Gary : Jeethu demande : recommandez-vous le défilement infini sur les pages Web ? Y a-t-il des implications sur le trafic organique ou sur GoogleBot si j’ajoute cette fonctionnalité ?

Cela dépend de la manière dont vous implémentez le défilement infini. si chaque pièce ou page virtuelle est également accessible et trouvable via une URL unique, il devrait généralement être possible d’avoir un défilement infini

J’ai des liens affichés sur la version Web mobile, mais masqués sur le bureau. Google va-t-il les dévaloriser ?

John : Ryan demande : si une page d’accueil contient des liens qui sont affichés sur le Web mobile, mais cachés derrière une bascule JavaScript sur le bureau et non inclus dans le code HTML à moins d’un clic, Google les dévalorisera-t-il ?

Salut Ryan. Avec l’indexation mobile first, nous utilisons la version mobile d’une page comme base pour l’indexation et la découverte de liens. Si la version mobile a le contenu complet, vous êtes prêt. Cela me surprend que vous ayez moins de contenu sur le bureau, mais je suppose que vous avez des raisons à cela.

Google indexe-t-il les fichiers PDF enregistrés sur Google Drive qui ne sont pas hébergés sur un site Web ?

Gary : Anonyme demande : Google indexe-t-il les fichiers PDF enregistrés sur Google Drive qui ne sont pas hébergés sur un site Web ? Si oui, combien de temps cela prend-il ?

Oui, Google peut indexer les fichiers PDF publics hébergés sur Google Drive, il s’agit simplement d’une autre URL sur un site. Comme pour n’importe quelle URL, l’indexation de ces PDF peut prendre entre quelques secondes et ne jamais arriver.

Comment Google explore-t-il le contenu Scrolljacking et cette approche de l’UX aura-t-elle un impact sur les classements ?

John : Matt a soumis une question disant : Le “scrolljacking” gagne en popularité sur le Web. Généralement, cela est considéré comme une mauvaise expérience utilisateur. Comment Google explore-t-il ce contenu et cette approche de l’UX aura-t-elle un impact sur les classements ? Ils ont également ajouté un lien vers un article sur le scrolljacking, auquel je ferai un lien dans la transcription.

Salut Matt, c’est une question intéressante. Je n’avais pas réalisé que ça s’appelait “Scrolljacking”, merci pour le lien. Je ne pense pas que nous considérions cette configuration comme abusive, donc il n’y aura pas d’effet direct. Cependant, vous pourriez constater des effets techniques de second ordre. Par exemple, Google affiche les pages en les chargeant sur un appareil mobile théoriquement très volumineux. Si la page n’affiche pas le contenu en raison de manigances avec des événements de défilement, nos systèmes peuvent alors supposer que le contenu n’est pas correctement visible. Bref, je verrais cela plus comme un problème de rendu potentiel que comme un problème de qualité.

Pourquoi l’URL est-elle indexée, bien que bloquée par le fichier robots.txt sur ma console de recherche Google ?

Gary : Deniz Can Aral demande : Pourquoi indexé, bien que bloqué par robots.txt sur ma console de recherche Google ?

Il s’agit d’une question relativement courante : Google peut indexer l’URL, et uniquement l’URL, pas le contenu, même si cette URL est bloquée pour l’exploration dans le fichier robots.txt. Le nombre de ces URL dans notre index est cependant minime, car cela ne se produit que si l’URL bloquée est très recherchée sur Internet. Si cela vous pose problème, autorisez l’exploration de l’URL et utilisez une règle noindex dans les en-têtes HTTP ou une balise <meta> .

Nous avons du contenu IA indésirable ! Comment puis-je le réparer ou le supprimer de mon site Web ?

John : Sonia demande : Nous avons embauché des rédacteurs de contenu mais ils nous ont donné du contenu d’IA, comment puis-je y remédier ? Dois-je simplement supprimer le contenu de l’IA ? Remplacer par un nouveau contenu ? Supprimer et créer un nouveau site Web avec une nouvelle URL ? S’il vous plaît aviser!

Je ne sais pas quoi dire, Sonia. On dirait que vous venez de publier aveuglément du contenu d’auteurs externes sans examen ? Cela semble être une mauvaise idée, même sans l’aspect contenu de l’IA. Eh bien, quelles que soient les raisons et la source, si vous avez publié du contenu de mauvaise qualité sur votre site Web et que vous ne souhaitez plus y être associé, vous pouvez soit supprimer le contenu, soit le corriger. Je suggère d’examiner la situation dans son ensemble : un contenu comme celui-ci manque-t-il sur le Web et votre site pourrait-il apporter une valeur ajoutée significative à l’ensemble des utilisateurs ? Ou s’agit-il simplement d’un contenu remanié qui existe déjà sur le reste du Web ? Ou pensez-y de cette façon, si votre contenu est essentiellement le même que ce que d’autres ont déjà, pourquoi les moteurs de recherche devraient-ils même l’indexer, et encore moins l’afficher en bonne place dans les résultats de recherche ? Et bien sûr, créer un site Web de qualité nécessite plus que de bons articles, il faut une stratégie claire et des processus garantissant que tout le monde adhère à vos objectifs.

Nous avons constaté une augmentation du nombre d’URL indexées d’un jour à l’autre. Quelles sont les raisons?

Gary : Lorenzo demande : Nous avons constaté une augmentation du nombre d’URL indexées d’un jour à l’autre : quelles en sont les raisons ?

Peut-être avons-nous obtenu plus de disques durs, peut-être avons-nous libéré de l’espace, peut-être avons-nous simplement découvert ces nouvelles URL. C’est difficile à dire. Ouvrez quand même le pétillant ! Célébrer!

Google peut-il utiliser plusieurs tailles de fichier dans un seul fichier favicon ?

John : Dave demande : Google peut-il utiliser plusieurs tailles de fichier dans un seul fichier de favicon ? Comprend-il plusieurs icônes marquées avec l’attribut tailles et en choisit-il une appropriée ?

Salut Dave. Techniquement, le format de fichier .ico vous permet de fournir des fichiers dans plusieurs résolutions. Cependant, avec l’augmentation du nombre de tailles utilisées pour divers

À ces fins, je pense qu’il est généralement préférable de spécifier les tailles et les fichiers individuellement. Google prend en charge plusieurs tailles de favicon en HTML. Par conséquent, si vous souhaitez fournir des tailles spécifiques, j’opterais pour cela.

Google juge-t-il différemment certaines parties d’un site Web lorsqu’un CMS différent se trouve derrière elles ?

Gary : Vivienne demande : Google juge-t-il différemment les parties d’un site Web lorsqu’elles sont basées sur un autre CMS ?

Non.

Dans la recherche Google, notre site Web affiche un téléchargement PDF comme page principale. Le résultat de la recherche peut-il être modifié ?

John : Anna demande : Le résultat de recherche Google sur le site Web de notre fondation doit être réexploré, il affiche un téléchargement PDF comme page principale. Notre site Web est une fondation néerlandaise des droits de l’homme. Le résultat de la recherche peut-il être modifié ?

Bonjour Anna, j’ai jeté un œil à votre site Web et la raison pour laquelle d’autres pages s’affichent à la place de votre page d’accueil est que la page d’accueil comporte une balise <meta> noindex robots . Cette balise <meta> empêchera l’indexation de cette page. Une fois que vous l’aurez retiré, les choses devraient s’arranger rapidement.

Lorsque je recherche mon site Web dans la recherche Google, le premier résultat est une page produit et non ma page d’accueil. Pourquoi?

John : Julien demande : lorsque je recherche mon site Web dans la recherche Google, le premier résultat est une page produit et non ma page d’accueil ? Pourquoi donc? La page produit n’est même pas préparée avec le référencement mais ma page d’accueil l’est.

Salut Julien. Google utilise un certain nombre de facteurs pour tenter de déterminer quelles pages pourraient être les plus pertinentes pour les utilisateurs pour des requêtes spécifiques. Dans la recherche d’informations, l’un des concepts est basé sur l’intention perçue de l’utilisateur. En bref : qu’essayaient-ils de faire lorsqu’ils recherchaient cela ? Cherchent-ils plus d’informations sur un produit ou une entreprise ? Ou cherchent-ils à acheter ce produit maintenant ? Cela peut également changer au fil du temps pour la même requête. En bref, cela signifie que même lorsqu’une page n’est pas préparée pour le référencement, il se peut qu’elle apparaisse dans la recherche, si les systèmes pensent qu’elle est pertinente à ce moment-là. En pratique, ma recommandation est de comprendre les différentes manières dont les utilisateurs peuvent accéder à votre site et d’essayer de couvrir leurs besoins de manière appropriée, afin que, peu importe où ils arrivent, ils aient une bonne expérience.

J’ai reçu une alerte de la Search Console pour améliorer les problèmes INP. Comment calculez-vous cela et quelle est la solution la plus simple ?

John : Alejandro a posé une question : Bonjour John et l’équipe Google, aujourd’hui, j’ai reçu une alerte de la Search Console concernant l’amélioration des problèmes INP. Comment calculez-vous ces données et quelle est la manière la plus simple de les corriger ?

Je n’ai pas de réponse complète ici, mais il existe de nombreuses documentations sur l’interaction avec Next Paint, ou INP en abrégé, sur le site web.dev. Je vous recommande de vérifier cela si vous souhaitez améliorer les scores de votre site. Gardez à l’esprit qu’INP ne fait pas encore partie de Core Web Vitals et que Core Web Vitals n’est que l’un des nombreux éléments qui jouent un rôle dans notre expérience de page et nos systèmes de contenu utiles. Bien que l’amélioration de l’INP puisse certainement améliorer l’expérience utilisateur, je ne m’attendrais pas à ce que cela modifie visiblement le classement des recherches.

Comment puis-je supprimer 30 000 URL de Google Search Console suite à un piratage de mots clés japonais ?

John : Heather demande : Comment supprimer les 30 000 URL de GSC du piratage des mots clés japonais ?

Salut Heather, désolé d’apprendre que j’ai été piraté. J’espère que vous avez pu le résoudre entre-temps, mais nous avons un peu de contenu sur ce type de piratage sur web.dev, j’y ferai un lien à partir de la transcription. Gardez à l’esprit que ce piratage a tendance à masquer le contenu piraté à Google, vous aurez donc peut-être besoin d’aide pour vérifier qu’il est entièrement supprimé. Et en ce qui concerne les résultats de recherche, étant donné le nombre de pages impliquées, je vous recommande de vous concentrer sur les pages les plus visibles et de les résoudre manuellement en les supprimant ou en les réindexant, puis de laisser le reste disparaître de lui-même. Si vous recherchez explicitement le contenu piraté, vous pourrez toujours le trouver pendant un certain temps, mais l’utilisateur moyen recherchera votre site et l’objectif devrait être de rendre ces résultats de recherche corrects.

Pourquoi mes pages sont-elles désindexées après les avoir soumises pour indexation dans la Search Console ? Je l’ai fait plusieurs fois maintenant.

John : Grace demande : Pourquoi les pages sont-elles désindexées après les avoir soumises pour indexation dans la Search Console ? Je l’ai fait plusieurs fois maintenant.

Salut Grace. Je ne peux pas vraiment le dire sans connaître les pages impliquées, cependant, cela laisse entendre que nos systèmes ne sont pas convaincus de la valeur de votre site et de son contenu. Nous n’indexons presque jamais toutes les pages d’un site Web, il faut donc également s’y attendre. Vous pourrez peut-être demander l’indexation une fois, mais nos systèmes réévalueront le contenu et le site Web au fil du temps et pourront à nouveau supprimer ces pages. La meilleure solution n’est pas de continuer à essayer d’insérer ces pages, mais plutôt de faire en sorte que nos systèmes soient convaincus de la qualité globale de votre site Web, de la valeur unique qu’il ajoute au Web et de sa pertinence. les utilisateurs recherchent réellement. Ensuite, nous partirons et l’indexerons sur notre own.