Alien Road Company

Horaires de bureau Google SEO de mai 2023

Horaires de bureau Google SEO de mai 2023

Ceci est la transcription de l’édition de mai 2023 des heures de bureau Google SEO. Pour obtenir une aide spécifique au site, nous vous recommandons de publier votre question dans la communauté d’aide Google Search Central.

Si un domaine est pénalisé, cela affecte-t-il les liens qui en sortent ?

Duy : Kholizio a demandé : si un domaine est pénalisé, cela affecte-t-il les liens qui en sortent ?

Je suppose que par « pénaliser », vous entendez que le domaine a été rétrogradé par nos algorithmes anti-spam ou par des actions manuelles. En général, oui, nous ne faisons pas confiance aux liens provenant de sites dont nous savons qu’ils sont du spam. Cela nous aide à maintenir la qualité de nos signaux d’ancrage.

Les résultats sont-ils générés différemment dans les différents outils de test d’URL ?

Martin : Ellen Edmands demande : les résultats dans l’onglet HTML rendu de l’outil d’inspection d’URL et l’onglet HTML rendu de l’outil de test des résultats enrichis sont-ils générés différemment ?

D’une manière générale, ils sont générés de la même manière. Cependant, il existe deux manières de les créer : en utilisant le pipeline d’indexation lors de l’utilisation de l’onglet « Afficher la page explorée » dans la Google Search Console ou en utilisant le test en direct dans la Google Search Console ou le test en direct dans l’outil de test des résultats enrichis. Les tests en direct ignorent tous deux la mise en cache pour fournir un aperçu actuel de la façon dont la version actuelle de la page sera rendue. C’est donc sans mise en cache, et sans mise en cache, des délais d’attente peuvent survenir et affecter la sortie rendue. Selon l’endroit où ces délais d’attente se produisent, ou si ces délais d’attente se produisent, vous pouvez obtenir un rendu HTML différent. Mais la manière dont ils sont créés utilise exactement les mêmes chemins à travers notre infrastructure.

Est-ce que faire des soumissions de référencement hors page sur des sites d’annuaires et de bookmarking social en vaut la peine ?

Gary : Shantanu demandait : est-ce que les soumissions de référencement hors page vers des annuaires et des sites de bookmarking social en valent la peine ?

J’aime cette question car elle me rappelle l’époque où je faisais du référencement il y a 15 ans ! En bref, je ne perdrais pas mon temps avec les soumissions d’annuaires et les favoris sociaux. Vous perdez probablement du temps sur des choses qui ne vous aideront pas du tout.

Pourquoi les pages de collection sont-elles exclues en tant que noindex sur mon site ?

John : Pourquoi les pages de collection sont-elles exclues en tant que noindex sur mon site ?

J’ai jeté un œil au site que vous avez mentionné pour vérifier. En bref, il s’agit particulièrement des pages de catégories paginées de votre site, et elles comportent une balise <meta> noindex robots. Pour des choses comme celle-ci, je vérifierais l’URL exacte spécifiée dans la Search Console. Le moyen le plus court de vérifier consiste à ouvrir la page dans un navigateur et à utiliser View-Source, puis à rechercher « robots » pour trouver les balises <meta> de robots et « googlebot » pour trouver les balises <meta> de Googlebot. Certaines pages peuvent en contenir plusieurs. Dans votre cas, j’ai remarqué que vous avez deux balises <meta> robots distinctes, et la seconde a le noindex. Dans les cas avancés, vous souhaiterez utiliser l’émulation mobile dans Chrome et utiliser Inspecter l’élément dans les outils de développement pour examiner le DOM chargé, ou utiliser la fonctionnalité Inspecter l’URL de la Search Console. Dans ce cas particulier, je soupçonne que c’est un plugin ou un paramètre de la plate-forme de commerce électronique de votre site qui fait cela, et peut-être que cela vous convient de toute façon.

Les liens vers mon site semblent provenir de sites Web russes. Comment bloquer ces liens ?

Duy : Quelqu’un a demandé : les liens vers mon site semblent provenir de sites Web russes. Comment puis-je bloquer ces liens ? Je pense qu’ils veulent nuire à mon site en leur faisant perdre leur classement dans les recherches.

Nos algorithmes font généralement un très bon travail pour reconnaître et ignorer les liens spammés ou indésirables sur Internet. Dans certains cas, ils peuvent être nombreux. Vous ne devriez pas vraiment vous en soucier et simplement laisser nos systèmes faire leur travail et vous concentrer sur l’amélioration de votre site Web.

Le backend d’un site Web est-il important pour le classement ?

Martin : Eshragh demande : le backend d’un site Web est-il important pour le classement ? Par exemple, est-il important d’utiliser WordPress, un CMS personnalisé ou tout autre langage de programmation spécifique pour afficher le HTML ?

Non, cela n’a généralement pas d’importance. Cependant, ses performances et son comportement le sont. Par exemple, si votre serveur est particulièrement lent, cela peut avoir un impact sur le classement.

Envisagez-vous d’autoriser plusieurs noms de sites pour les extraits de code ?

John : Madeleine demande : envisagez-vous d’autoriser plusieurs noms de site pour les extraits de code (par exemple pour le domaine racine ET les sous-domaines) ?

Dans notre documentation sur les noms de sites, nous mentionnons qu’il s’agit actuellement uniquement du nom de domaine, et non des sous-domaines. Je ne peux pas promettre de futurs changements. Avec certains changements, l’équipe impliquée a tendance à commencer par une partie du problème, à évaluer son fonctionnement, puis à s’étendre à partir de là. Cependant, nous ne pouvons vraiment rien promettre pour l’avenir.

L’indexation de mes 16 000 pages devrait-elle prendre plus de six mois ?

Gary : Tom Baker demande : cela devrait-il prendre plus de six mois pour indexer mes 16 000 pages ? Je constate une augmentation de peut-être 5 à 15 par semaine et je trouve cela lent.

La rapidité avec laquelle un site est indexé dépend de nombreux facteurs, mais le plus important est la qualité du site, suivie de sa popularité sur Internet. Une fois que vous vous êtes assuré que votre contenu est de la plus haute qualité

La meilleure qualité que vous puissiez faire, essayez peut-être de lancer des promotions sur les réseaux sociaux afin que les gens commencent à parler de votre site. Cela aidera probablement.

Pour les permaliens, est-il préférable, avec les contractions, d’avoir « -will-not- » plutôt que « -wont- » dans l’URL ?

John : Michael demande : Pour les permaliens, est-il préférable, avec des contractions, d’avoir « -will-not- » plutôt que « -wont- » dans l’URL ? « Wont » a en fait une autre signification, mais en général, existe-t-il une bonne pratique pour ne pas « -do-not- » ou « -dont- » ?

Cela n’a pas d’importance. De manière générale, les mots contenus dans les URL ont un effet minime sur la recherche. Ma seule recommandation serait d’être cohérent, afin de ne pas créer accidentellement un lien vers la même page de différentes manières. De plus, étant donné que l’effet est minime et que la modification des URL sur un site est un changement assez important, je ne recommanderais pas, ou ne recommanderais pas, de modifier les URL d’un site uniquement pour une vague promesse de référencement que vous avez peut-être lu quelque part.

Est-il difficile pour les Googlebots d’explorer et d’indexer une image si son URL comporte plusieurs niveaux ?

Martin : Aman demande : est-il difficile pour les Googlebots d’explorer et d’indexer une image si son URL comporte plusieurs niveaux ? Par exemple, https://www.abc.com/ab/cd/content/category/image/hires/imagefilename.jpg

Eh bien, la bonne nouvelle est que non, ce n’est pas le cas.

De nombreux backlinks de spam pointent vers mon site Web. Comment les arrêter ?

Gary : Anonyme demande : De nombreux backlinks de spam pointent vers mon site Web, comment les arrêter ?

Facile : vous les ignorez. Internet est un endroit immense et vous obtenez probablement des liens provenant de ses coins pas si agréables. Nous sommes confrontés à de tels liens depuis 25 ans et nous sommes parvenus à les ignorer. Donc je les ignorerais. S’ils vous dérangent vraiment, vous pouvez utiliser l’outil de désaveu de la Search Console.

Est-il possible que Google Search Console me montre des requêtes erronées ?

John : Alexis demande : est-il possible que Google Search Console m’affiche des requêtes erronées ?

Les données de performances dans la Search Console sont collectées lorsque votre site est affiché pour des requêtes spécifiques. Les données ne sont pas théoriques, elles sont basées sur ce qui a été montré aux utilisateurs lors de leur recherche. Lorsque j’y vois des données que je ne comprends pas, j’essaie de restreindre les paramètres du rapport pour trouver les détails. Était-ce seulement dans un certain pays ? Ou peut-être un type de recherche spécifique ? Était-ce peut-être quelque chose dans un laps de temps très court ? Parfois, il est possible de reproduire les résultats de recherche affichés compte tenu de ces spécificités, mais il peut également s’agir de quelque chose qui n’est plus affiché ou qui n’est visible que de temps en temps. Parfois, ce sont des énigmes amusantes, et parfois, vous devez simplement accepter que vous ne pouvez pas les reproduire actuellement.

Page HTML complète via le rendu côté serveur pour les moteurs de recherche et le rendu côté client pour les utilisateurs. Est-ce correct?

Martin : Madeleine demande : nous fournissons le code HTML complet d’une page via le rendu côté serveur (SSR) pour tous les robots des moteurs de recherche et utilisons le rendu côté client pour l’utilisateur. Est-ce une solution adaptée en termes de référencement JavaScript ?

C’est une approche que nous appelons le rendu dynamique. Cela ajoute de la complexité à vos efforts de configuration et de maintenance, mais si cela fonctionne pour vous, vous pouvez le faire sans problème. Nous ne l’encourageons pas pour les nouveaux projets, en raison du coût de complexité que cela ajoute également du côté des propriétaires de sites Web. Ce n’est pas une solution optimale mais si cela fonctionne, je ne vois pas de raison de la changer.

Quelle est l’importance des noms de fichiers descriptifs pour les images ?

Gary : Al G. demande : quelle est l’importance des noms de fichiers descriptifs pour les images ?

Bonne question! Elles sont généralement un peu utiles, mais si vous avez beaucoup d’images, disons des millions, vous devrez à un moment donné vous demander si cet avantage en vaut la peine. Si vous n’en avez que quelques-uns ici et là, oui, ayez de bons noms de fichiers, mais vous ne devriez probablement pas vous embêter une fois que vous en avez un camion. Consultez également nos bonnes pratiques en matière de référencement d’images.

Quelle est la meilleure façon d’augmenter votre trafic après une refonte ?

John : La prochaine question est : quelle est la meilleure façon d’augmenter votre trafic après une refonte ?

Il existe de nombreuses façons différentes de procéder à des refontes. Certains sites sont essentiellement complètement nouveaux après une refonte, avec de nouvelles URL et des structures de pages complètement nouvelles. Dans de tels cas, vous devrez le traiter davantage comme un déplacement de site et inclure des redirections, sinon vous risquez de constater une baisse immédiate après la relance. Dans votre cas, il semble que la baisse soit plus lente au fil du temps. Pour moi, cela suggère que la refonte n’est pas principalement le problème, mais plutôt que la recherche, le Web ou les utilisateurs ont modifié leur comportement ou leurs attentes au fil du temps. Il s’agit généralement moins d’un problème technique que d’une question de compréhension du monde qui entoure votre site et de travail pour améliorer votre site en conséquence. Ce n’est pas toujours facile, désolé !

Googlebot pour l’exploration de la recherche organique affiche-t-il chaque page explorée ? Dans la négative, à quelle fréquence cela se produit-il ?

Martin : Jason demande : Googlebot pour l’exploration de la recherche organique affiche-t-il chaque page explorée ? Si non, à quelle fréquence cela se produit-il ?

Oui et non. Toutes les pages que nous explorons ne sont pas rendues. Par exemple, une exploration qui mène à une page d’erreur 404 ne sera pas affichée. Chaque page que je

C’est bien quand nous l’explorons, il est rendu.

Est-ce que cela peut faire du mal d’avoir un balisage de schéma sur une page invalide ?

Gary : Matthias demande : cela peut-il faire du mal d’avoir un balisage de schéma sur une page non valide ? (par exemple balisage du produit sans offre / avis / aggregateRating)

La réponse courte est non. La réponse longue est également non, car si nous ne pouvons pas l’analyser, nous ne l’utiliserons tout simplement pas. Cela peut signifier que vous manquerez certaines fonctionnalités de recherche, telles que les attributs riches sous vos extraits de code.

Comment passer d’une redirection 302 à une redirection 301 ?

John : Hazim demande : Comment passer d’une redirection 302 à une redirection 301 ?

C’est quelque chose que vous devrez examiner avec l’hébergeur ou le registraire de domaine de votre site. Cependant, la bonne nouvelle est que la recherche Google reconnaît les redirections temporaires de longue date comme des redirections permanentes. Ce n’est donc pas quelque chose de critique pour votre site pour le moment. Il est bon d’utiliser la redirection théoriquement correcte, mais Search essaie également de fonctionner avec tout ce que vous avez, à condition qu’il s’agisse d’une redirection.

Un contenu passe-partout étendu nuit-il au site Web ?

Gary : Anan demande : Bonjour, un contenu passe-partout étendu nuit-il au site Web ? Je ne fais pas référence aux coordonnées, à la politique de confidentialité, etc. Merci.

Généralement non, un modèle détaillé ne devrait pas avoir beaucoup d’effet sur la présence de votre site Web dans la recherche. Cela dit, vous voudrez peut-être réfléchir à la façon dont les utilisateurs perçoivent ce passe-partout étendu ; il y a une chance qu’ils n’aiment pas ça du tout.

Comment puis-je empêcher Googlebot d’appeler une API externe coûteuse lors du rendu du JavaScript sur une page ?

Martin : Matthew demande : Comment puis-je empêcher Googlebot d’appeler une API externe coûteuse lors du rendu du Javascript sur une page ?

Vous pouvez interdire l’API via robots.txt – mais attention : si vous utilisez le rendu côté client et que le contenu de la page dépend de ces API, Googlebot doit accéder à l’API pour voir le contenu. Sinon, vos pages n’auraient pas ce contenu lorsque Googlebot les consulterait. Pour les URL tierces externes pour lesquelles vous ne pouvez pas utiliser robots.txt pour interdire l’accès, vous pouvez charger ces API sous condition dans votre JavaScript et les ignorer lorsque Googlebot demande la page.

Existe-t-il une méthode spécifique pour changer de nom de domaine sans perdre le classement SEO ?

Gary : D.ray de mu.se demande : existe-t-il une certaine méthode pour modifier les noms de domaine sans perdre le classement SEO ?

Un déménagement de site bien exécuté, qui inclut des changements de domaine, ne devrait pas entraîner une perte de trafic durable, alors oui : il existe une méthode pour changer un nom de domaine sans perdre de classement. Consultez notre documentation sur les déplacements de sites ; nous avons également établi des liens avec d’autres guides élaborés par des experts.

Le favicon de ma marque a été téléchargé il y a plus d’un mois. Cependant, sur Google, mon icône de favori Webflow est toujours là ?

John : Josh demande : Le favicon de ma marque a été téléchargé il y a plus d’un mois. Cependant, sur Google, mon favicon Webflow est toujours là. Savez-vous comment résoudre ce problème afin que ce soit celui de ma marque que j’ai téléchargé précédemment ?

Nous avons un document d’aide sur les favicons, je vais le parcourir et vérifier les détails. Je m’assurerais également que l’ancien favicon n’est plus présent ou lié à votre site et, idéalement, que vous redirigez l’ancien fichier vers le nouveau. Bref, assurez-vous que tout est cohérent et qu’il n’y a pas de place à une mauvaise interprétation de la part des moteurs de recherche. Au-delà de cela, parfois ces changements mettent un certain temps à être visibles, un mois devrait suffire, mais si vous trouvez d’autres choses à corriger, je lui laisserais un peu plus de temps pour rattraper son retard. Et enfin, en dehors de Google, Glenn Gabe a élaboré un guide fantastique sur la résolution des problèmes de favicon. Vous y trouverez peut-être d’autres conseils.

Que se passe-t-il si un site Web rédige des articles dans plusieurs langues (traduits à la main), quelle est la meilleure pratique pour diviser le contenu ?

Gary : V demande : que se passe-t-il si un site Web rédige des articles dans plusieurs langues (traduits à la main), quelle est la meilleure pratique pour diviser le contenu ?

Cela dépend vraiment de vous. Que vous utilisiez des paramètres d’URL tels que notre centre d’aide, par exemple ?hl=ja, ou que vous mettiez le code de langue dans le chemin de l’URL, cela n’a pas d’importance du point de vue de la recherche. Assurez-vous simplement d’avoir une URL unique pour chaque version linguistique.

Google accepte-t-il les liens dans les listes déroulantes ?

John : Michał demande : Google accepte-t-il les liens tels que <select><option value= »https://www.examplepage.com »>Page</option>  ? Est-ce quelque chose qui fonctionne ?

Nous ne traiterions pas cela comme un lien, mais nous pourrions reconnaître l’URL et l’explorer séparément. Si vous souhaitez que quelque chose soit traité comme un lien, vous devez vous assurer qu’il s’agit d’un lien normal. Nous avons récemment publié des directives sur la création de liens, donc si votre développeur Web a des questions sur ce qui est pris en charge, je les enverrai ici. En passant, cette combinaison de HTML ne fonctionnerait pas nécessairement non plus comme un lien dans le navigateur, elle pourrait plutôt être utilisée dans une liste déroulante pour un formulaire.

Robots.txt inaccessible dans Google Search Console. Pourquoi?

Gary : Aslam Khan demande, en fait, en déclarant : Robots.txt inaccessible dans Google Search Console.

Si la Search Console signale des robots inaccessibles.

txt avec votre propriété, votre site ou votre serveur a un problème et vous devrez le résoudre si vous souhaitez voir votre site dans la recherche Google. Nous ne pouvons vraiment rien y faire de notre côté. La première chose que je vérifierais, ce sont les règles de pare-feu de votre serveur. Vérifiez s’il se passe quelque chose de bizarre dans les règles de blocage, puis accédez aux fichiers de configuration du serveur. Si vous ne savez pas comment procéder vous-même, ouvrez un ticket d’assistance auprès de votre fournisseur d’hébergement et il pourra très probablement vous aider.

Si un plan de site comporte des URL hreflang mentionnées, comment des propriétés telles que <lastmod> ou <priority> l’affectent-elles ?

John : Carlos demande : Si un plan de site comporte des URL hreflang mentionnées, comment des propriétés telles que <lastmod> ou <priority> l’affectent-elles ?

Lorsque les annotations hreflang sont spécifiées dans un fichier de plan de site, vous faites essentiellement référence à d’autres URL. Cela doit être confirmé sur toutes les URL de l’ensemble hreflang. Cependant, comprendre quand explorer une URL est différent. Pour l’exploration, entre autres choses, nous examinons les attributs de cette URL spécifique, par exemple sa date de dernière modification. Il peut arriver, par exemple, qu’une version linguistique change indépendamment, peut-être en raison d’un correctif de traduction. Cela dit, même la dernière date de modification n’est qu’un signal très approximatif parmi d’autres signaux, elle ne garantit pas à elle seule qu’une page sera réexplorée prochainement. Il convient également de noter qu’explorer davantage ne signifie pas qu’une page est mieux classée, vous n’avez donc pas besoin d’essayer de forcer une fréquence d’exploration plus élevée.

Dois-je bloquer les liens d’affiliation dans robots.txt ou lever l’interdiction et empêcher l’indexation des liens d’affiliation ?

Gary : Nick van Schaik demande : dois-je bloquer les liens d’affiliation dans robots.txt (pour gérer le budget d’exploration) ou lever l’interdiction et empêcher l’indexation des liens d’affiliation (en utilisant la balise noindex) ?

Bloquer les liens d’affiliation dans robots.txt semble judicieux. Bien que nous soyons également assez doués pour les reconnaître et les ignorer nous-mêmes, avec une interdiction robots.txt, vous avez le contrôle et vous pourriez en effet économiser beaucoup plus facilement un budget d’exploration.