Alien Road Company

Horário comercial do Google SEO de setembro de 2023

Horário comercial do Google SEO de setembro de 2023

Esta é a transcrição da edição de setembro de 2023 do Google SEO Office Hours. Para obter ajuda específica do site, recomendamos postar sua pergunta na comunidade de ajuda da Central da Pesquisa Google.

O Google está indexando incorretamente a versão www do meu site?

John: Wan pergunta: O Google indexa incorretamente a versão www do meu site. A página correta deve ser HTTP e o nome de domínio .my sem www.

Olá Wan! Dei uma olhada em suas páginas e parece que seu servidor está redirecionando automaticamente da versão não www para a versão www e definindo o elemento canônico link rel adequadamente. À primeira vista, se você estiver usando o Chrome, pode parecer que ele não tem www na frente, mas se você clicar duas vezes no URL na parte superior do navegador, ele se expande para o URL completo, com www. Na prática, isso é bom – tanto a versão www quanto a não www de um site são totalmente compatíveis com a Pesquisa Google. Uau, são muitos wwws!

Por que os dados filtrados são superiores aos dados gerais no Search Console?

Gary: Ornella está perguntando: por que os dados filtrados são superiores aos dados gerais no Search Console? Isso não faz sentido.

Em primeiro lugar, adoro esta pergunta, mas provavelmente pela razão errada. A resposta curta é que fazemos uso intenso de algo chamado filtros Bloom porque precisamos lidar com muitos dados, e os filtros Bloom podem nos poupar muito tempo e armazenamento. A resposta longa ainda é que fazemos uso intenso de filtros Bloom porque precisamos lidar com muitos dados, mas também quero dizer algumas palavras sobre filtros Bloom: quando você lida com um grande número de itens em um conjunto, e quero dizer bilhões de itens, se não trilhões, procurar coisas rapidamente torna-se muito difícil. É aqui que os filtros Bloom são úteis: eles permitem consultar um conjunto diferente que contém um hash de possíveis itens no conjunto principal e pesquisar os dados lá. Como você está procurando hashes primeiro, é muito rápido, mas o hash às vezes vem com perda de dados, propositalmente ou não, e esses dados ausentes são o que você está enfrentando: menos dados para analisar significam previsões mais precisas sobre se algo existe no conjunto principal ou não. Basicamente, os filtros Bloom aceleram as pesquisas prevendo se algo existe em um conjunto de dados, mas às custas da precisão, e quanto menor o conjunto de dados, mais precisas serão as previsões.

Por que as páginas do meu site do Google Sites não estão sendo indexadas corretamente?

John: Houve uma pergunta enviada em francês que basicamente pergunta por que as páginas do meu site do Google Sites não estão sendo indexadas corretamente.

É ótimo receber perguntas em outros idiomas. Dando um passo atrás, os sites criados no Google Sites podem e são indexados na Pesquisa Google. No entanto, os URLs usados no Google Sites são um pouco difíceis de rastrear, pois a versão pública pode ser diferente do URL que você vê quando está conectado. Para ser franco, embora seja tecnicamente indexável, não é ideal para fins de SEO e pode ser complexo para rastreamento no Search Console. Se SEO for sua consideração principal, pode valer a pena explorar outras opções e verificar os prós e os contras antes de se comprometer. Para monitorar o desempenho no Search Console, você também pode usar seu próprio nome de domínio para o conteúdo do Google Sites. Usar seu próprio nome de domínio facilita a migração, caso você opte por fazê-lo, e permite verificar a propriedade de todo o domínio no Search Console.

Nosso site possui diversos botões, ao clicar neles eles buscam links para outras páginas. O Google pode rastrear esses links?

Gary: Sarabjit está perguntando: Nosso site tem vários botões. Ao clicar neles, buscamos links para outras páginas. O Google conseguirá rastrear esses links?

De modo geral, o Googlebot não clica em botões.

Uma “postagem de convidado” (para obter um backlink) é contra as diretrizes do Google se eu estiver escrevendo conteúdo valioso?

John: Brooke pergunta: Atualmente, a maioria dos sites só oferece a opção de comprar um “guest post” (para obter um backlink). Isso é contra as diretrizes do Google se estou escrevendo conteúdo valioso?

Olá Brooke, obrigado por postar sua pergunta. Parece que você já está no caminho certo. Sim, usar postagens de convidados para links é contra nossas políticas de spam. Em particular, é importante que esses links sejam qualificados de forma a sinalizar que não afetam os resultados da pesquisa. Você pode fazer isso com os atributos rel=nofollow ou rel=patrocinado nos links. Não há problema em usar publicidade para promover seu site, mas os links devem ser bloqueados conforme mencionado.

O conteúdo de uma página de categoria de comércio eletrônico é valioso para melhorar a classificação geral?

Gary: Brooke está perguntando: o conteúdo de uma página de categoria de comércio eletrônico é valioso para melhorar as classificações gerais?

Você pode adicionar qualquer conteúdo que desejar às suas páginas; afinal, elas são suas páginas. Mas, por favor, não faça aquelas sinopses de texto repetidas e de baixa qualidade geradas automaticamente em todas as páginas de sua categoria. Parece bobo, mesmo para a pessoa comum. Se você precisar de conteúdo em suas páginas, adicione conteúdo que as pessoas realmente acharão útil

ful, não adicione conteúdo porque a pesquisa pode exigir isso ou assim você pensa. Confira também nossas recomendações de comércio eletrônico.

As tags semânticas incorretas fazem com que o Google tenha uma compreensão pior do conteúdo do site?

John: As tags semânticas incorretas fazem com que o Google tenha uma compreensão geral pior do conteúdo do site e, portanto, uma capacidade menor de atribuí-lo a uma filial? Em particular, as tags <hr> sinalizam uma mudança de tópico, mas posso usá-las apenas para fins de design.

Essa é uma pergunta interessante. Em geral, usar HTML semântico corretamente pode ajudar os mecanismos de busca a entender melhor o conteúdo de uma página e seu contexto. Por exemplo, se você marcar títulos em uma página, isso é um sinal claro de que você acredita que seu conteúdo se enquadra nesse título. Não é um caminho secreto para o ranking número um, mas se tivermos dificuldade em entender o que você quer dizer no texto, fornecer um resumo claro na forma de títulos ajuda. Como é uma coisa sutil que depende de quão bem entendemos a página, eu consideraria uma boa prática garantir que você tenha tudo coberto. Reverter isso, passando de HTML semanticamente correto para HTML semanticamente incorreto, também é sutil. Os mecanismos de pesquisa ainda conseguem entender sua página? Então provavelmente você não veria diferença em como eles entendem isso. O significado ficou repentinamente confuso? Então, bem, talvez torne-o menos embaçado, talvez com alguma estrutura semântica. Para seu exemplo específico de tags <hr> , não consigo pensar em uma situação em que haveria uma diferença na compreensão de uma página devido ao uso incorreto delas. Existem infinitas maneiras de usar algo incorretamente, mas acho que aquelas que um web designer pode encontrar acidentalmente com tags <hr> parecem bastante seguras. Acho que é um longo caminho para dizer ‘depende’, de nada.

No Google Search Console, o relatório de páginas 404 tem muitos URLs que parecem ser de JSON ou JavaScript. Devemos ignorar?

Gary: Reza está perguntando: no Google Search Console, o relatório de 404 páginas é preenchido com URLs que parecem ter sido obtidos por engano de algum código JSON ou JavaScript. Devemos ignorar isso?

Você pode ignorá-los ou apenas adicionar um cabeçalho HTTP noindex para eles.

Os arquivos de índice de sitemap podem ter links para arquivos de sitemap em outros domínios?

John: Dhruv pergunta: O arquivo de índice de sitemap pode ter links para arquivos de sitemap em outros domínios?

Olá Dhruv, pergunta interessante. A resposta do lado do Google é definitivamente talvez e, por isso, minha sugestão é não usar uma configuração como essa. Você pode enviar sitemaps para URLs que não estão no mesmo domínio em duas situações: enviar o sitemap por meio do robots.txt ou verificar a propriedade de todos os domínios no Search Console. Especialmente a propriedade do Search Console pode ser sutil e não ser imediatamente visível quando você analisa o site, por isso é fácil esquecer essa conexão. Se você estiver trabalhando em arquivos de sitemap e decidir usar uma configuração como essa, minha dica seria adicionar um comentário XML ao arquivo de sitemap para que você se lembre desses requisitos e não os quebre acidentalmente no futuro. Como o Search Console é específico do Google, você também gostaria de verificar os requisitos que outros mecanismos de pesquisa podem ter sobre isso.

Como reduzir a probabilidade de o Google escolher suas próprias meta-descrições para sites?

Gary: Sam Bowers está perguntando: como reduzir a probabilidade de o Google escolher suas próprias metadescrições para sites?

Boa pergunta: nem sempre, mas geralmente nossos algoritmos usarão sua meta descrição quando não houver muito conteúdo na página ou quando a meta descrição for mais relevante para a consulta de um usuário do que o conteúdo real da página. Saiba mais sobre descrições e snippets.

Existe uma maneira de especificar que os bots dos mecanismos de pesquisa não rastreiem determinadas seções de uma página?

John: Existe uma maneira de especificar que os bots do mecanismo de pesquisa não rastreiem determinadas seções de uma página (caso contrário, a página pode ser rastreada e indexada). Eles ainda mencionam que têm muita duplicação em “mega-menus” e gostariam de bloqueá-los.

Sim, há coisas que você pode fazer para impedir a indexação de partes de uma página, mas especialmente para elementos comuns da página, como cabeçalhos, menus, barras laterais e rodapés, não é necessário bloquear a indexação. Os mecanismos de pesquisa lidam com a web como ela é e, às vezes, há megamenus gigantes ou rodapés, tudo bem. Para outras partes do conteúdo de uma página, você pode usar um iframe com uma fonte não permitida pelo robots.txt ou extrair conteúdo com JavaScript bloqueado de forma semelhante pelo robots.txt. Se você quiser apenas evitar que algo seja mostrado em um snippet, usar o atributo data-nosnippet é uma boa maneira de fazer isso. Mas, novamente, não há necessidade de adicionar tanta complexidade apenas para ocultar um menu. A complexidade desnecessária traz o risco de as coisas quebrarem inesperadamente, por isso é bom limitar isso aos casos em que é realmente necessário.

Você recomenda rolagem infinita em páginas da web? Há alguma implicação para o tráfego orgânico

ou Googlebot?

Gary: Jeethu está perguntando: você recomenda rolagem infinita nas páginas da web? Há alguma implicação para o tráfego orgânico ou para o GoogleBot se eu adicionar esse recurso?

Depende de como você implementa a rolagem infinita. se cada parte ou página virtual também for acessível e localizável por meio de um URL exclusivo, geralmente não há problema em ter rolagem infinita

Tenho links exibidos na versão da Web para dispositivos móveis, mas ocultos na versão para computador. O Google irá desvalorizá-los?

John: Ryan pergunta: se uma página inicial tiver links que são exibidos na Web para dispositivos móveis, mas ocultos atrás de um botão JavaScript no computador e não incluídos no HTML, a menos que sejam clicados, o Google os desvalorizará?

Olá, Ryan. Com a indexação mobile first, usamos a versão móvel de uma página como base para indexação e descoberta de links. Se a versão móvel tiver o conteúdo completo, está tudo pronto. Parece-me surpreendente que você tenha menos conteúdo no desktop, mas acho que há motivos para isso.

O Google indexa arquivos PDF salvos no Google Drive que não estão hospedados em um site?

Gary: O Anonymous está perguntando: o Google indexa arquivos PDF salvos no Google Drive que não estão hospedados em um site? Em caso afirmativo, quanto tempo demora?

Sim, o Google pode indexar arquivos PDF públicos hospedados no Google Drive, é apenas mais um URL em um site. Como acontece com qualquer URL, pode levar alguns segundos para que esses PDFs nunca sejam indexados.

Como o Google rastreia o conteúdo do Scrolljacking e essa abordagem para a experiência do usuário impactará as classificações?

John: Matt enviou uma pergunta dizendo: “Scrolljacking” está ganhando popularidade na Web. Geralmente, isso é visto como uma experiência ruim para o usuário. Como o Google rastreia esse conteúdo e essa abordagem de UX impactará as classificações? Eles também adicionaram um link para um artigo sobre scrolljacking, ao qual colocarei um link na transcrição.

Olá Matt, essa é uma pergunta interessante. Não sabia que se chamava “Scrolljacking”, obrigado pelo link. Não acho que consideraríamos essa configuração abusiva, então não haverá um efeito direto. No entanto, pode haver efeitos técnicos de segunda ordem que você poderá ver. Por exemplo, o Google renderiza páginas carregando-as em um dispositivo móvel teoricamente muito grande. Se a página não exibir o conteúdo devido a travessuras com eventos de rolagem, nossos sistemas poderão presumir que o conteúdo não está devidamente visível. Resumindo, eu veria isso mais como um problema potencial de renderização do que de qualidade.

Por que o URL está indexado, embora bloqueado pelo robots.txt no meu Google Search Console?

Gary: Deniz Can Aral está perguntando: por que indexado, embora bloqueado por robots.txt no meu Google Search Console?

Esta é uma pergunta relativamente comum: o Google pode indexar o URL, e apenas o URL, e não o conteúdo, mesmo que o URL esteja bloqueado para rastreamento por meio do robots.txt. O número desses URLs em nosso índice é pequeno, porque isso acontece apenas se o URL bloqueado for muito procurado na Internet. Se isso for problemático para você, permita o rastreamento do URL e use uma regra noindex nos cabeçalhos HTTP ou uma tag <meta> .

Temos conteúdo de IA indesejado! Como posso corrigir ou removê-lo do meu site?

John: Sonia pergunta: Contratamos alguns redatores de conteúdo, mas eles nos deram conteúdo de IA. Como posso consertar isso? Eu simplesmente excluo o conteúdo de IA? Substituir por novo conteúdo? Descartar e criar um novo site com um novo URL? Por favor, avise!

Não sei o que dizer, Sônia. Parece que você publicou cegamente conteúdo de autores externos sem revisão? Parece uma má ideia, mesmo sem o aspecto do conteúdo de IA. Bem, independentemente dos motivos e da fonte, se você publicou conteúdo de baixa qualidade em seu site e não deseja mais ser associado a ele, você pode remover o conteúdo ou corrigi-lo. Eu sugiro olhar para o panorama geral: está faltando conteúdo como esse na web e seu site pode agregar valor significativo para os usuários em geral? Ou é apenas conteúdo refeito que já existe no resto da web? Ou pense desta forma: se o seu conteúdo é essencialmente igual ao que outros já possuem, por que os mecanismos de busca deveriam indexá-lo, e muito menos mostrá-lo bem nos resultados da busca? E, claro, fazer um ótimo site exige mais do que apenas bons artigos, é preciso uma estratégia clara e processos que garantam que todos estejam de acordo com seus objetivos.

Tivemos um aumento nos URLs indexados de um dia para outro. Quais são as razões?

Gary: Lorenzo está perguntando: tivemos um aumento nos URLs indexados de um dia para outro: quais são os motivos?

Talvez tenhamos conseguido mais discos rígidos, talvez tenhamos liberado algum espaço, talvez tenhamos descoberto esses novos URLs. É difícil dizer. Mesmo assim, abra o espumante! Comemoro!

O Google pode usar vários tamanhos de arquivo em um arquivo favicon?

John: Dave pergunta: o Google pode usar vários tamanhos de arquivo em um arquivo favicon? Ele entende vários ícones marcados com o atributo de tamanhos e escolhe um apropriado?

Olá Dave. Tecnicamente, o formato de arquivo .ico permite fornecer arquivos em várias resoluções. No entanto, com o aumento do número de tamanhos usados para vários

Para isso, suspeito que geralmente seja melhor especificar os tamanhos e arquivos individualmente. O Google suporta vários tamanhos de favicon em HTML. Portanto, se houver tamanhos específicos que você deseja fornecer, eu aceitaria.

O Google julga partes de um site de maneira diferente quando um CMS diferente está por trás delas?

Gary: Vivienne está perguntando: o Google julga partes de um site de maneira diferente quando um CMS diferente está por trás delas?

Não.

Na Pesquisa Google, nosso site exibe um download de PDF como página principal. O resultado da pesquisa pode ser alterado?

John: Anna pergunta: O resultado da pesquisa do Google no site da nossa fundação precisa ser rastreado novamente. Ele exibe um download de PDF como página principal. Nosso site é uma fundação holandesa de direitos humanos. O resultado da pesquisa pode ser alterado?

Olá Anna, dei uma olhada no seu site e o motivo pelo qual outras páginas estão sendo exibidas em vez da sua página inicial é que a página inicial tem uma tag noindex robots <meta> . Essa tag <meta> impedirá a indexação dessa página. Depois de removê-lo, as coisas devem se acalmar rapidamente.

Quando pesquiso meu site na Pesquisa Google, o primeiro resultado é uma página de produto, e não minha página de boas-vindas. Por que?

John: Julien pergunta: Quando pesquiso meu site na Pesquisa Google, o primeiro resultado é uma página de produto e não minha página de boas-vindas? Por que é que? A página do produto nem está preparada com SEO, mas minha página de boas-vindas está.

Olá, Julien. O Google usa vários fatores para tentar descobrir quais páginas podem ser mais relevantes para os usuários em consultas específicas. Na recuperação de informações, um dos conceitos é baseado na intenção percebida do usuário. Resumindo: o que eles estavam tentando fazer quando procuraram por isso? Eles estão procurando mais informações sobre um produto ou empresa? Ou eles estão querendo comprar esse produto agora? Isso também pode mudar com o tempo para a mesma consulta. Resumindo, isso significa que mesmo quando uma página não está preparada para SEO, ainda pode ser que ela apareça na pesquisa, se os sistemas acharem que é relevante no momento. Na prática, minha recomendação é entender as diferentes maneiras pelas quais os usuários podem chegar ao seu site e tentar atender às suas necessidades de forma adequada, para que, independentemente de onde eles vão, tenham uma boa experiência.

Recebi um alerta do Search Console para melhorar problemas de INP. Como você calcula isso e qual é a solução mais fácil?

John: Alejandro enviou uma pergunta: Olá, John e equipe do Google, hoje recebi um alerta do Search Console sobre como melhorar os problemas de INP. Como você calcula esses dados e qual a maneira mais fácil de corrigi-los?

Não tenho uma resposta completa aqui, mas há bastante documentação sobre Interaction to Next Paint, ou INP, para abreviar, no site web.dev. Eu recomendo verificar isso, se você estiver interessado em melhorar a pontuação do seu site lá. Tenha em mente que o INP ainda não faz parte do Core Web Vitals e que o Core Web Vitals é apenas uma das muitas coisas que desempenham um papel em nossa experiência de página e sistemas de conteúdo úteis. Embora melhorar o INP possa definitivamente ajudar a experiência do usuário, não esperaria que isso mudasse visivelmente a classificação de pesquisa.

Como faço para remover 30 mil URLs do Google Search Console após um hack de palavra-chave japonesa?

John: Heather pergunta: como remover 30 mil URLs do GSC do hack de palavras-chave japonesas?

Olá Heather, lamento saber que fui hackeado. Espero que você tenha conseguido resolver o problema enquanto isso, mas temos um pouco de conteúdo sobre esse tipo de invasão no web.dev. Vou criar um link para ele na transcrição. Lembre-se de que esse hack tende a ocultar o conteúdo hackeado para o Google, portanto, você pode precisar de ajuda para verificar se ele foi totalmente removido. E com relação aos resultados da pesquisa, dado o número de páginas envolvidas, recomendo focar nas páginas mais visíveis e resolvê-las manualmente, removendo-as ou reindexando-as, e depois deixar o resto desaparecer por conta própria. Se você estiver procurando explicitamente pelo conteúdo hackeado, ainda poderá encontrá-lo por algum tempo, mas o usuário médio estaria procurando pelo seu site, e o objetivo deveria ser tornar esses resultados de pesquisa corretos.

Por que minhas páginas estão sendo desindexadas após enviá-las para indexação no Search Console? Já fiz isso várias vezes.

John: Grace pergunta: por que as páginas são desindexadas depois de serem enviadas para indexação no Search Console? Já fiz isso várias vezes.

Olá, Graça. Na verdade, não posso dizer sem conhecer as páginas envolvidas, no entanto, para mim, isso indica que nossos sistemas não estão convencidos sobre o valor do seu site e de seu conteúdo. Quase nunca indexamos todas as páginas de um site, então parte disso também é esperado. Você pode solicitar a indexação uma vez, mas nossos sistemas reavaliarão o conteúdo e o site ao longo do tempo e poderão descartar essas páginas novamente. O melhor curso de ação não é continuar tentando inserir essas páginas, mas sim fazer com que nossos sistemas estejam convencidos da qualidade geral do seu site, do valor exclusivo que ele está agregando à web e da correspondência com o que os usuários estão realmente procurando. Então iremos indexá-lo em nosso own.