Horário de expediente do Google SEO de maio de 2023


16
/ 100


Horário de expediente do Google SEO de maio de 2023

Horário de expediente do Google SEO de maio de 2023

Esta é a transcrição da edição de maio de 2023 do Google SEO Office Hours. Para obter ajuda específica do site, recomendamos postar sua pergunta na comunidade de ajuda da Central da Pesquisa Google.

Se um domínio for penalizado, isso afetará os links que saem dele?

Duy: Kholizio perguntou: se um domínio for penalizado, isso afetará os links que saem dele?

Presumo que por “penalizar” você queira dizer que o domínio foi rebaixado por nossos algoritmos de spam ou por ações manuais. Em geral, sim, não confiamos em links de sites que sabemos serem spam. Isso nos ajuda a manter a qualidade dos nossos sinais âncora.

Os resultados são gerados de forma diferente nas diversas ferramentas de teste de URL?

Martin: Ellen Edmands está perguntando: os resultados na guia HTML renderizada da Ferramenta de inspeção de URL e na guia HTML renderizada da Ferramenta de teste de pesquisa aprimorada são gerados de maneira diferente?

De modo geral, eles são gerados da mesma maneira. No entanto, há duas maneiras de criá-los: usando o pipeline de indexação ao usar a guia “Visualizar página rastreada” no Google Search Console ou usando o teste ao vivo no Google Search Console ou o teste ao vivo na ferramenta de teste de pesquisa aprimorada. Os testes ao vivo ignoram o cache para fornecer uma visão atual de como a versão atual da página será renderizada. Portanto, é sem cache, e sem cache podem ocorrer tempos limite que afetarão a saída renderizada. Dependendo de onde esses tempos limite acontecem, ou se esses tempos limites acontecem, você pode obter HTML renderizado diferente. Mas a forma como eles são criados usa exatamente os mesmos caminhos em nossa infraestrutura.

Vale a pena fazer envios de SEO fora da página para sites de diretórios e bookmarking social?

Gary: Shantanu estava perguntando: vale a pena fazer envios de SEO fora da página para diretórios e sites de bookmarking social?

Gosto dessa pergunta porque me lembra da época em que eu fazia SEO, há 15 anos! Resumindo, eu não perderia meu tempo com envios de diretórios e bookmarking social. Você provavelmente está perdendo tempo com coisas que não vão ajudar em nada.

Por que as páginas de coleção são excluídas como noindex no meu site?

John: Por que as páginas de coleção são excluídas como noindex no meu site?

Dei uma olhada no site que você mencionou para verificar. Resumindo, são principalmente as páginas de categoria paginadas do seu site, que têm uma tag noindex robots <meta>. Para coisas assim, eu verificaria o URL exato especificado no Search Console. A maneira mais rápida de verificar é abrir a página em um navegador, usar o código de visualização e, em seguida, pesquisar “robôs” para encontrar tags <meta> de robôs e ‘googlebot’ para encontrar tags <meta> do Googlebot. Algumas páginas podem ter vários destes. No seu caso, percebi que você tem duas tags robots <meta> separadas, e a segunda tem a tag noindex. Em casos avançados, convém usar a emulação móvel no Chrome e usar Inspecionar elemento nas ferramentas do desenvolvedor para examinar o DOM carregado ou usar o recurso Inspecionar URL do Search Console. Neste caso específico, suspeito que seja um plugin ou configuração na plataforma de comércio eletrônico do seu site que faz isso, e talvez esteja tudo bem para você de qualquer maneira.

Os links para o meu site parecem vir de sites russos. Como faço para bloquear esses links?

Duy: Alguém perguntou: Os links para meu site parecem vir de sites russos. Como faço para bloquear esses links? Acredito que eles querem prejudicar meu site, fazendo-os perder classificação nas pesquisas.

Nossos algoritmos geralmente fazem um ótimo trabalho ao reconhecer e ignorar links com spam ou lixo na Internet. Em alguns casos, pode haver muitos deles. Você realmente não deve se preocupar com eles e apenas deixar nossos sistemas fazerem seu trabalho e se concentrarem em melhorar seu site.

O back-end de um site é importante para a classificação?

Martin: Eshragh está perguntando: o back-end de um site é importante para a classificação? Por exemplo, faz diferença se estamos usando WordPress ou um CMS personalizado ou qualquer linguagem de programação específica para renderizar HTML?

Não, geralmente não importa. No entanto, o desempenho e o comportamento dele mudam. Por exemplo, se o seu servidor for particularmente lento, isso pode ter algum impacto na classificação.

Você planeja permitir mais de um nome de site para snippets?

John: Madeleine pergunta: Você planeja permitir mais de um nome de site para snippets (por exemplo, para o domínio raiz E subdomínios)?

Em nossa documentação sobre nomes de sites, mencionamos que atualmente isso se aplica apenas ao nome de domínio e não a subdomínios. Não posso prometer mudanças futuras. Com algumas mudanças, a equipe envolvida tende a começar por uma parte do problema, avaliar como está funcionando e depois expandir a partir daí. Nós realmente não podemos prometer nada voltado para o futuro.

Deveria levar mais de seis meses para indexar minhas 16.000 páginas?

Gary: Tom Baker está perguntando: deveria levar mais de seis meses para indexar minhas 16.000 páginas? Vejo um aumento de talvez 5 a 15 por semana e acho isso lento.

A rapidez com que um site é indexado depende de vários fatores, mas o mais importante é a qualidade do site, seguida de sua popularidade na internet. Depois de garantir que seu conteúdo seja de alta qualidade

melhor qualidade que você possa fazer, tente fazer algumas promoções nas redes sociais, talvez para que as pessoas comecem a falar sobre o seu site. Isso provavelmente ajudará.

Para links permanentes, é melhor com contrações ter “-will-not-” vs. “-wont-” no URL?

John: Michael pergunta: Para links permanentes, é melhor com contrações ter “-will-not-” versus “-wont-” no URL? “Não vou” na verdade tem outro significado, mas em geral existe uma prática recomendada para não “-não-” vs. “-não-“?

Não importa. De modo geral, as palavras nos URLs têm um efeito mínimo na Pesquisa. Minha única recomendação seria ser consistente, para que você não crie links acidentalmente para a mesma página de maneiras diferentes. Além disso, como o efeito é mínimo e como alterar URLs em um site é uma grande mudança, eu não recomendaria ou não recomendaria alterar os URLs de um site apenas por uma vaga promessa de SEO que você pode ter lido em algum lugar.

É difícil para o Googlebots rastrear e indexar uma imagem se ela tiver muitos níveis no URL da imagem?

Martin: Aman está perguntando: será difícil para o Googlebots rastrear e indexar uma imagem se ela tiver muitos níveis no URL da imagem? Por exemplo, https://www.abc.com/ab/cd/content/category/image/hires/imagefilename.jpg

Bem, a boa notícia é que não, não importa.

Muitos backlinks de spam apontam para meu site. Como evitá-los?

Gary: O Anonymous está perguntando: muitos backlinks de spam apontam para meu site, como impedi-los?

Fácil: você os ignora. A Internet é um lugar enorme e você provavelmente obterá links de cantos não tão agradáveis. Temos lidado com essas ligações há 25 anos e nos tornamos muito bons em ignorá-las. Então eu simplesmente os ignoraria. Se eles realmente incomodarem você, você pode usar a ferramenta de rejeição no Search Console.

É possível que o Google Search Console me mostre consultas erradas?

John: Alexis pergunta: é possível que o Google Search Console me mostre consultas erradas?

Os dados de desempenho no Search Console são coletados quando seu site é exibido para consultas específicas. Os dados não são teóricos, baseiam-se no que foi mostrado aos usuários durante a pesquisa. Quando vejo dados que não entendo, tento restringir as configurações do relatório para encontrar os detalhes. Foi apenas em um determinado país? Ou talvez um tipo de pesquisa específico? Foi talvez algo em um período de tempo muito curto? Às vezes é possível reproduzir os resultados da pesquisa mostrados dadas essas especificidades, mas também pode ser algo que não é mais mostrado ou que só é visível de vez em quando. Às vezes, esses são quebra-cabeças divertidos e, às vezes, você apenas precisa aceitar que atualmente não consegue reproduzi-los.

Página HTML completa via renderização no lado do servidor para mecanismos de pesquisa e renderização no lado do cliente para usuários. Está tudo bem?

Martin: Madeleine está perguntando: entregamos o HTML completo de uma página por meio de renderização no lado do servidor (SSR) para todos os bots de mecanismos de pesquisa e usamos a renderização no lado do cliente para o usuário. Esta é uma solução adequada em termos de JavaScript SEO?

Essa é uma abordagem que chamamos de renderização dinâmica. Isso adiciona complexidade aos seus esforços de configuração e manutenção, mas se funcionar para você, não há problema em fazê-lo. Não o incentivamos para novos projetos, pelo custo de complexidade que agrega também para os proprietários de sites. Não é uma solução ideal, mas se funcionar, não vejo razão para alterá-la.

Qual a importância dos nomes descritivos dos arquivos para imagens?

Gary: Al G. está perguntando: qual a importância dos nomes descritivos de arquivos para imagens?

Boa pergunta! Eles geralmente são um pouco úteis, mas se você tiver muitas imagens, digamos milhões, em determinado momento você terá que considerar se esse benefício vale a pena. Se você tiver apenas alguns aqui e ali, sim, tenha bons nomes de arquivos, mas provavelmente não deveria se preocupar quando tiver um caminhão cheio deles. Confira também nossas práticas recomendadas de SEO para imagens.

Qual é a melhor maneira de aumentar o tráfego após uma reformulação?

John: O próximo passo é: qual é a melhor maneira de aumentar seu tráfego após uma reformulação?

Existem muitas maneiras diferentes de fazer redesenhos. Alguns sites são essencialmente completamente novos após uma reformulação, com novos URLs e estruturas de páginas completamente novas. Em casos como esse, seria necessário tratá-lo mais como uma mudança de site e incluir redirecionamentos. Caso contrário, você poderá ver uma queda imediata após o relançamento. No seu caso, parece que o declínio é mais lento ao longo do tempo. Para mim, isso sugere que o redesenho não é o principal problema, mas sim que a pesquisa, a web ou os usuários mudaram seu comportamento ou expectativas ao longo do tempo. Geralmente, isso é menos uma questão técnica e mais uma questão de entender o mundo ao redor do seu site e trabalhar para aprimorá-lo para que ele corresponda. Nem sempre é fácil, desculpe!

O Googlebot para rastreamento de pesquisa orgânica renderiza todas as páginas rastreadas? Se não, com que frequência isso acontece?

Martin: Jason está perguntando: o Googlebot para rastreamento de pesquisa orgânica renderiza todas as páginas rastreadas? Se não, com que frequência isso acontece?

Sim e não. Nem todas as páginas que rastreamos são renderizadas. Por exemplo, um rastreamento que leva a uma página de erro 404 não será renderizado. Cada página que eu

tudo bem quando o rastreamos, ele é renderizado.

Pode ser prejudicial ter marcação de esquema em uma página inválida?

Gary: Matthias está perguntando: Pode ser prejudicial ter marcação de esquema em uma página inválida? (por exemplo, marcação de produto sem oferta/avaliação agregada)

A resposta curta é não. A resposta longa também é não, porque se não conseguirmos analisá-lo, simplesmente não o usaremos. Isso pode significar que você perderá alguns recursos de pesquisa, como atributos avançados em seus snippets.

Como mudar de um redirecionamento 302 para um redirecionamento 301?

John: Hazim pergunta: Como mudar de um redirecionamento 302 para um redirecionamento 301?

Isso é algo que você deve verificar com o hoster ou registrador de domínio do seu site. No entanto, a boa notícia é que a pesquisa do Google reconhece redirecionamentos temporários de longa data como permanentes, portanto, isso não é algo crítico para o seu site no momento. É bom usar o redirecionamento teoricamente correto, mas o Search tenta trabalhar com o que você tem também, desde que seja um redirecionamento.

O extenso conteúdo padronizado prejudica o site?

Gary: Anan está perguntando: Olá, conteúdo padronizado extenso prejudica o site? Não estou me referindo a informações de contato, política de privacidade, etc. Obrigado.

Geralmente não, um padrão extenso não deve ter muito efeito na presença do seu site na Pesquisa. Dito isso, você pode querer pensar em como os usuários percebem esse extenso padrão; há uma chance de que eles não gostem nada.

Como evito que o Googlebot chame uma API externa cara ao renderizar o JavaScript em uma página?

Martin: Matthew está perguntando: como evito que o Googlebot chame uma API externa cara ao renderizar o Javascript em uma página?

Você pode proibir a API por meio do robots.txt, mas cuidado: se você usar a renderização do lado do cliente e o conteúdo da página depender dessas APIs, o Googlebot precisará acessar a API para ver o conteúdo. Caso contrário, suas páginas não teriam esse conteúdo quando o Googlebot as analisasse. Para URLs externos de terceiros onde você não pode usar o robots.txt para proibir o acesso, você pode carregar condicionalmente essas APIs em seu JavaScript e ignorá-las quando o Googlebot solicitar a página.

Existe algum método específico para alterar nomes de domínio sem perder classificações de SEO?

Gary: D.ray do mu.se está perguntando: existe algum método específico para alterar nomes de domínio sem perder classificações de SEO?

Uma mudança de site bem executada, que inclui mudanças de domínio, não deve resultar em perda duradoura de tráfego, então sim: existe um método para alterar um nome de domínio sem perder classificações. Confira nossa documentação sobre mudanças de sites. também criamos links para outros guias elaborados por terceiros.

O favicon da minha marca foi carregado há mais de um mês. No entanto, no Google meu favicon de fluxo da Web ainda está lá?

John: Josh pergunta: o favicon da minha marca foi carregado há mais de um mês. No entanto, no Google meu favicon de webflow ainda está lá. Você sabe como resolver isso para que seja a minha marca que carreguei anteriormente?

Temos um documento de ajuda sobre favicons. Gostaria de analisá-lo e verificar os detalhes. Eu também garantiria que o favicon antigo não estivesse mais no seu site ou não estivesse vinculado a ele e, idealmente, que você redirecionasse o arquivo antigo para o novo. Resumindo, certifique-se de que tudo esteja consistente e que não haja espaço para interpretações erradas por parte dos mecanismos de busca. Além disso, às vezes essas mudanças demoram um pouco para serem visíveis, um mês deve ser suficiente, mas se você encontrar outras coisas para consertar, eu daria um pouco mais de tempo para atualizar. E, por fim, fora do Google, Glenn Gabe elaborou um guia fantástico sobre como solucionar problemas de favicon. Você pode encontrar mais algumas dicas lá.

E se um site escreve postagens em vários idiomas (traduzidas à mão), qual é a prática recomendada para dividir o conteúdo?

Gary: V está perguntando: e se um site escrever postagens em vários idiomas (traduzidos à mão), qual é a prática recomendada para dividir o conteúdo?

Isso realmente depende de você. Se você usa parâmetros de URL como nossa central de ajuda, por exemplo, ?hl=ja, ou coloca o código do idioma no caminho do URL, isso não importa do ponto de vista da pesquisa. Apenas certifique-se de ter um URL exclusivo para cada versão de idioma.

O Google aceita links em menus suspensos?

John: Michał pergunta: o Google aceita links como <select><option value=”https://www.examplepage.com”>Página</option> ? Isso é algo que funciona?

Não trataríamos isso como um link, mas poderíamos reconhecer o URL e rastreá-lo separadamente. Se quiser que algo seja tratado como um link, certifique-se de que seja um link normal. Publicamos recentemente diretrizes sobre como criar links. Portanto, se o seu desenvolvedor web tiver dúvidas sobre o que é compatível, eu as enviaria para lá. Além disso, essa combinação de HTML também não funcionaria necessariamente como um link no navegador; em vez disso, poderia ser usada em um menu suspenso para um formulário.

Robots.txt inacessível no Google Search Console. Por que?

Gary: Aslam Khan está perguntando, na verdade, afirmando: Robots.txt inacessível no Google Search Console.

Se o Search Console estiver reportando robôs inacessíveis.

txt com sua propriedade, seu site ou servidor tem um problema e você precisará corrigi-lo se quiser vê-lo na Pesquisa Google. Não há nada que possamos fazer sobre isso do nosso lado, na verdade. A primeira coisa que verifico são as regras de firewall do seu servidor. Veja se há algo estranho acontecendo nas regras de bloqueio e depois vá para os arquivos de configuração do servidor. Se você não sabe como fazer isso sozinho, abra um ticket de suporte com seu provedor de hospedagem e ele provavelmente poderá ajudá-lo.

Se um sitemap tiver URLs hreflang mencionados, como propriedades como <lastmod> ou <priority> o afetarão?

John: Carlos pergunta: se um sitemap tiver URLs hreflang mencionados, como propriedades como <lastmod> ou <priority> o afetarão?

Quando as anotações hreflang são especificadas em um arquivo de mapa do site, você está essencialmente se referindo a outros URLs. Isso precisa ser confirmado em todos os URLs do conjunto hreflang. No entanto, compreender quando rastrear um URL é diferente. Para rastreamento, entre outras coisas, analisamos os atributos desse URL específico, por exemplo, a data da última modificação. Pode acontecer, por exemplo, que a versão de um idioma mude de forma independente, talvez devido a correções de tradução. Dito isto, mesmo a data da última modificação é apenas um sinal muito aproximado entre outros sinais; por si só, não garante que uma página será rastreada novamente em breve. Também vale a pena notar que rastrear mais não significa que uma página tenha uma classificação melhor, então você não precisa tentar forçar uma frequência de rastreamento mais alta.

Devo bloquear links afiliados em robots.txt ou suspender a proibição e impedir que links afiliados sejam indexados?

Gary: Nick van Schaik está perguntando: devo bloquear links afiliados no robots.txt (para gerenciar o orçamento de rastreamento) ou suspender a proibição e impedir que links afiliados sejam indexados (usando a tag noindex )?

Bloquear links afiliados em robots.txt parece sensato. Embora também sejamos muito bons em reconhecê-los e ignorá-los, com uma proibição de robots.txt você está no controle e pode realmente economizar algum orçamento de rastreamento com muito mais facilidade.