Google recomenda bloquear páginas de resultados de pesquisa interna para evitar indexação

John Mueller, do Google, fez um desabafo no Reddit sobre a indexação de páginas de resultados de pesquisa interna.

Como é de conhecimento geral, o Google não quer indexar resultados de pesquisa, especialmente quando não há resultados encontrados.

John disse que se não for possível selecionar quais páginas de resultados de pesquisa devem ser indexáveis, todas elas devem ser bloqueadas para indexação usando o robots.txt ou a meta tag noindex.

John afirmou que muitos CMSs, plataformas de hospedagem e comércio eletrônico ainda não bloqueiam as páginas de resultados de pesquisa por padrão.

Ele aconselha que, especialmente quando uma página de resultados de pesquisa não retorna nenhum resultado, não há razão para que ela seja indexável.

E mesmo para outras páginas de resultados de pesquisa, é uma boa prática bloquear todas elas ou permitir que apenas um conjunto selecionado seja indexado.

Se não for possível limitar as páginas de resultados de pesquisa indexáveis, John recomenda fortemente o uso de noindex ou robots.txt para bloquear todas as páginas de pesquisa.

Em 2007, o Google orientou os webmasters a bloquear os resultados de pesquisa internos de serem indexados.

Agora, a orientação é “Use o arquivo robots.txt em seu servidor da web para gerenciar seu orçamento de rastreamento, impedindo o rastreamento de espaços infinitos, como páginas de resultados de pesquisa”.

John explicou que essas páginas criam espaços infinitos para rastreamento, são frequentemente de baixa qualidade e podem levar a resultados de pesquisa vazios ou a soft-404s.

Ele também falou que esses tipos de páginas podem causar problemas de diluição e resultar em respostas de soft 404 no Search Console.

Em suma, John Muller enfatiza a importância de bloquear todas as páginas de resultados de pesquisa interna para indexação, a menos que elas sejam cuidadosamente selecionadas para serem indexadas.

Comente!

You May Also Like