Liberem seus CSS e JS para Indexação – Technical Webmaster Guideline Update

O Google anunciou há pouco tempo que seu sistema já estava renderizando as páginas da Web de maneira similar aos mais modernos navegadores disponíveis no mercado, realizando agora por padrão a leitura do CSS e JavaScript.
No último dia 27 de outubro, a empresa divulgou, em seu blog oficial, a atualização das diretrizes técnicas para webmasters.

Atualizacao do Googlebot agora le CSS e JS
Com essa nova atualização webmasters de todo o mundo precisam agora realizar algumas ações e verificar se o Googlebot está realmente acessando suas páginas da maneira que ele deveria.
Uma dica muito boa para verificar isso de forma fácil é utilziar a ferramenta “Buscar como o Google” que fica dentro do webmaster tools e te mostra exatamente como o robô do está enchergando aquela página de acordo com as suas configurações atuais.

Segundo às instruções, o texto alerta que desativar o acesso ao JavaScript ou CSS no arquivo robots.txt (arquivo texto utilizado pelos webmasters para controlar a permissão de acesso dos robôs às páginas do site) a partir de agora não é mais recomendado e que isso pode até prejudicar como o robô interpreta seu site e influenciar em seus rankings.

Disallowing crawling of Javascript or CSS files in your site’s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.

Além dessas orientações, na divulgação, os webmasters receberam outras para mais bem aproveitar os recursos oferecidos, bem como se aproximarem da indexação ideal. Quais sejam:

  1. Verificar se o design de cada página segue os princípios de Melhoria Incremental (Progressive Enhancement – um princípio mundialmente aplicado na estratégia da construção de um site; Com isso, tanto o Google quanto outros navegadores realizarão suas tarefas mais facilmente ao visualizarem os conteúdos interessantes, as ferramentas básicas e os recursos incompatíveis;
  2. Aplicar as práticas recomendadas para a otimização do desempenho da página.
    Velocidade de carregamento é importante hoje não só para o seu usuário, mas também para ajudar na indexação. Considere remover requisições e downloads desnecessários e compactar arquivos CSS e JavaScript; e, por fim
  3. Verificar se o servidor suporta o carregamento de arquivos JavaScript e CSS para o Googlebot.
    Isso é algo que se aplica a sites muito grandes que precisam verificar o quando de consumo extra eles teriam ao liberar a indexação do Googlebot pelo site inteiro e quando isso pode influenciar em custo e infra.

Num ambiente cada vez mais complexo – esse tipo de atualização deixa claro que muitos fatores como usabilidade e experiencia do usuário estão crescendo em importancia em diversos mercados e principalmente em Search Marketing.

E você já fez as atualizações?

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.