Estudo aponta erros que impedem sites de estarem bem-posicionados em buscadores
São Paulo – SP 20/9/2021 – Falhas comprometem o resultado em buscas orgânicas e, mesmo com um site bonito, empresas deixam de aparecer
Buscas orgânicas impulsionam a visibilidade das empresas na internet, mas falhas na estratégia de SEO comprometem o bom desempenho
Aparecer bem-posicionado em buscadores é uma vantagem que empresa alguma pode prescindir em um mundo conectado e digital. Estudo da WebPeak, desenvolvedora de tecnologia para análise de marketing digital e SEO (otimização de sites para mecanismos de busca), rastreou os principais erros de sites corporativos que os impedem de estar nas primeiras posições em buscadores como Google e Bing.
“Estas falhas comprometem o resultado nas buscas orgânicas e, mesmo com um site bonito, empresas deixam de aparecer, podendo perder espaço para concorrentes mais bem-preparados em estratégias de SEO”, comenta o CEO da WebPeak, Marcos Custódio, que explica: “os erros nas páginas corporativas estão relacionados a como os robôs dos buscadores enxergam esses sites para qualificá-los ou não nas buscas feitas pelos usuários.”
A WebPeak identificou 15 erros comuns que impedem que sites corporativos estejam bem-posicionados nos buscadores:
- Falta de palavra-chave no h1
O h1 é o título mais importante da página. É ele que vai ditar o tema do restante do conteúdo. Ele pode ser comparado ao título de um livro (capa).
- Título otimizado
Consiste em um título com a presença da palavra-chave estratégica, que também deve aparecer em outros campos (como os itens h2, h3, h4, description, URL, alt, conteúdo).
- Falta de h2 na otimização de páginas
O h2 é um subtítulo que também precisa estar otimizado. Ele é o segundo mais importante dentro da página. Essa otimização não é feita em 80% dos sites. O mesmo acontece com os h3, h4, h5 e h6, que são títulos com menos força, mas relevantes para melhorar a organização do conteúdo.
- h3 a h6
Títulos com menos força na página, mas que devem estar otimizados para impulsionar o ranqueamento de um site nos buscadores.
- Páginas com erros 404
Esse erro ocorre quando páginas de um site estão “quebradas”. Podem ser páginas que não existem mais ou troca de URL. Um exemplo é em uma loja online, quando um produto não está mais disponível e é tirado do ar ou quando muda o nome e, então, há uma quebra de URL. São páginas que não estão mais acessíveis. “A tratativa deste erro é redirecionar para páginas mais relevantes para que ele não aconteça”, menciona o executivo. Esse é um ponto crítico e apenas 33% dos sites não apresentam esse tipo de erro.
- Tag title com mais de 70 caracteres
As meta tags têm limite de caracteres que são expostos nos resultados de buscas. Fazer um texto seguindo este limite garante que a informação do campo seja exibida por completo.
- Falta de palavra-chave na tag description
Esse campo pode apresentar informações mais atraentes para o usuário e para o robô buscador, sendo indispensável a repetição da palavra-chave nesse texto. Cerca de 93% dos sites ignoram esse fator, e aqui pode estar mais uma oportunidade de otimização e, consequentemente, melhora na posição nos resultados das buscas.
- Excesso de caracteres na tag description
O excesso de caracteres nesse campo impossibilita que as informações sejam apresentadas por completo nos resultados de busca.
- URLs não otimizadas
As URLs nada mais são que os endereços das páginas na internet, então, quanto mais fácil for o endereço, mais fácil de encontrá-lo. Portanto, evitar códigos, números, e caracteres sem sentido e, se possível, manter a URL igual ao nome da página (exceto home) ajuda a empresa a se posicionar melhor em buscas orgânicas.
- Ausência de sitemap.xml e robots.txt
O arquivo robots.txt funciona como um porteiro do site. Ele vai dizer quem pode ou não entrar, quem pode ou não acessar e quem pode ler determinado tipo de conteúdo. Por isso, adicionar o sitemap dentro do arquivo robots auxilia na leitura do mapa de todas as páginas disponíveis, facilita e agiliza o entendimento do robô para encontrar esse endereço e essas páginas, já que o robots é primeiro arquivo a ser lido.
- Ferramentas Google e tags
Cada site deve ter contas do Google para acompanhar e analisar o comportamento dos usuários no site. Basicamente é preciso um Tag Manager que deve ser o centro de todas as tags de acionamento, incluindo um analytics (vinculado com o GSC) e demais tags como Facebook, hotjar, chats etc.
- Alt nas imagens
Esse problema ocorre quando as imagens usadas em uma página estão sem palavras-chave na descrição auxiliar. Esse fator auxilia no SEO de imagens.
13. Páginas com lentidão no carregamento
Quando o carregamento da página é inferior a 79% acarreta a baixa performance do site. Isso significa que quando o buscador identifica sites mais ágeis, dá prioridade para eles pois, além de agradar os robôs, o SEO preza para que a experiência do usuário seja fluida.
- Conteúdo único
Os buscadores priorizam conteúdos únicos nas buscas. Nesses casos, o ideal é a criação de conteúdos autênticos para cada página, enriquecendo-os com títulos e melhores práticas de SEO.
- Links internos otimizados
Toda estratégia de SEO é baseada em palavras-chave e isso envolve os links internos. Ou seja, os links internos como âncoras, menus e rodapés, devem estar equalizados com a estratégia de palavras-chave.
Sobre o levantamento:
O estudo foi feito pela WebPeak, com ferramenta de SEO, 100% brasileira, que faz diversas análises. E identificou problemas nas páginas corporativas de diversos segmentos (pet shop, semijoia, calçados femininos, gráfica, geek, decoração). Esses erros afetam os resultados em pesquisas orgânicas e mostram que não estão restritos a um nicho apenas.
Website: https://www.webpeak.com.br/