Uma Investigação Sobre O Google’s Maccabees Update-Moz

Dezembro nos trouxe a última peça de atualização de algoritmo divertida. O Google rolou uma atualização que foi rapidamente nomeada a atualização do Maccabees e os artigos começaram a rodar em (SEJ , SER).

As reclamações de webmaster começaram a vir em grossa e rápida, e comecei meu plano normal de ação: sentar, relaxar, e rir de todas as pessoas que construíram links ruins, derramar conteúdo de baixa qualidade, ou escolher um modelo de negócio que o Google tem rancor (olá, afiliados).

Então eu verifiquei um dos meus sites e vi que tinha sido atingido por ele.

Hmm.

Hora de verificar o óbvio

Eu não tive acesso a muitos sites que foram atingidos pela atualização do Maccabees, mas eu tenho acesso a um número relativamente grande de sites, permitindo que eu tente identificar alguns padrões e trabalhar fora o que estava acontecendo. Disclaimer completo: Esta é uma investigação relativamente grande de um único site; ele pode não generalizar para o seu próprio site.

Meu primeiro ponto de chamada foi verificar que não havia questões realmente óbvias, do tipo que o Google não olhou gentilmente no passado. Isso não é qualquer tipo de lista oficial; é mais um conjunto interno de coisas que eu vou e confira quando as coisas vão mal, e mal.

Links de Dodgy & thin content

Eu conheço bem o site, então eu poderia descartar links dodgy e sérios problemas de conteúdo fino bem rápido.

(Para aqueles de vocês que gostariam de alguns ponteiros sobre os tipos de coisas para verificar, siga este link até o apêndice! Haverá um para cada seção.)

Índice de bloat

O bloat de Index é onde um website conseguiu, acidentalmente, obter um grande número de páginas não valiosas no Google. Ele pode ser sinal de problemas de crawling, problemas de cannabalização ou problemas de conteúdo fino.

Eu liguei para o problema de conteúdo fino muito cedo? Na verdade eu tinha um bloat de índice bastante severo. O site que tinha sido atingido de pior por este tinha o seguinte gráfico de URLs indexadas:

imagem21-08-2020-02-08-02

No entanto, eu realmente tinha visto que a função de passo-esque index bloat em um casal outros sites clientes, quem não tinha sido atingido por esta atualização.

imagem21-08-2020-02-08-02

Em ambos os casos, gastamos um tempo razoável tentando resolver por que isso tinha acontecido e onde estava acontecendo, mas depois de muita análise de arquivo de log e do site do Google: buscas, nada de perspicaz surgiu dele.

O melhor palpite que acabamos foi que o Google tinha mudado como eles mediram URLs indexadas. Talvez agora inclua URLs com um status não 200 até que eles parem de checá-los? Talvez agora inclua imagens e outros arquivos estáticos, e não estivesse contando com eles anteriormente?

Eu não vi nenhuma evidência de que tenha relação com m. URLs ou bloat de índice real-Estou interessado em ouvir as experiências das pessoas, mas neste caso eu a classifiquei como não relevante.

Anexo de ajuda do Apêndice

Experiência de usuário deficiente / site lento

Nope, tampouco o caso. Poderia ser mais rápido ou mais amigável ao usuário? Absolutamente. A maioria dos sites pode, mas eu ainda classificaria o site como bom.

Anexo de ajuda do Apêndice

Sobrecarregamento de anúncios ou monetização?

Nope, sem anúncios em todos.

Anexo de ajuda do Apêndice

O checklist de sanidade imediata não apareceu nada de útil, então onde se virar próximo para pistas?

teorias da Internet

Time to plow through Várias teorias na Internet:

  • A atualização do Maccabees é mobile-first relacionada
    • Nope, nada aqui; é um site responsivo mobile-friendly. (Ambos esses primeiros pontos são resumidos aqui.)
  • E-commerce / afiliado relacionado
    • Eu vi este batalhado por aí também, mas nem aplicado neste caso, como o site também não era.
  • Sites visando as permutações de palavra-chave
    • Eu vi este de Barry Schwartz; este é aquele que vem mais próximo de aplicando. O site não tinha um vasto número de landing pages de combinação (por exemplo, uma para cada combinação única de tamanho e cor do vestido), mas tem um monte de conteúdo gerado pelo usuário.
  • Nada conclusivo aqui também; hora de olhar para alguns mais dados.

    Trabalhando através de dados do Search Console

    Estamos armazenando todos os nossos dados de console de busca na ferramenta de análise de dados baseada em nuvem do Google BigQuery por algum tempo, o que me dá o luxo de ser imediatamente capaz de arrancar uma tabela e ver todas as palavras-chave que caíram.

    Havia um casal palavras-chave permutações / temas que foram particularmente mal atingidos, e eu comecei a cavar neles. Uma das alegrias de ter todos os dados em uma tabela é que você pode fazer coisas como enredo a classificação de cada página que se classifica para uma única palavra-chave ao longo do tempo.

    E isso finalmente me conseguiu algo útil.

    A linha amarela é a página que eu quero classificar e a página que eu vi o melhor resultado do usuário de (ou seja, menores taxas de bounce, mais páginas por sessão, etc.):

    imagem21-08-2020-02-08-04

    Outro exemplo: novamente, o linha amarela representa a página que deve ser classificação corretamente.

    imagem21-08-2020-02-08-05

    Em todos os casos que encontrei, minha página de pouso primário-que antes tinha ranqueado consistentemente-estava agora sendo cannabalizada por artigos que eu escreveria sobre o mesmo tópico ou por conteúdo gerado pelo usuário.

    Tem certeza de que é uma atualização do Google?

    Você nunca pode ter 100% de certeza, mas eu não fiz nenhuma alteração nessa área por vários meses, então eu não esperaria que fosse devido a mudanças recentes, ou mudanças atrasadas que vêm por aí. O site havia migrado recentemente para o HTTPS, mas não viu flutuações de tráfego em torno desse tempo.

    Atualmente, eu não tenho mais nada para atribuir isso a mas a atualização.

    Como eu estou tentando consertar isso?

    A correção ideal seria aquela que me recebe todo o meu tráfego de volta. Mas isso é um pouco mais subjetivo do que “eu quero que a página correta se classifica para a palavra-chave correta”, então, em vez disso, é o que eu estou mirando aqui.

    E é claro que a palavra crucial em tudo isso é “tentar”; eu só comecei a fazer essas mudanças recentemente, e o júri ainda está de fora se algum vai dar certo.

    No-indexante o conteúdo gerado pelo usuário

    Este parece like um pouco de no-brainer. Eles trazem uma porcentagem incrivelmente pequena de tráfego de qualquer maneira, que então executa pior do que se os usuários pousarem em uma landing page adequada.

    Eu gostava de tê-los indexados porque eles ocasionalmente começariam a classificação para algumas ideias de palavra-chave que eu nunca tinha tentado por mim mesmo, o que eu poderia então migrar para as landing pages. Mas esta foi uma ocorrência relativamente baixa e no-equilíbrio talvez não valesse a pena fazer mais, se eu for sofrer cannabalização nas minhas principais páginas.

    Fazer melhor uso da propriedade Schema.org “Sobre”

    Eu estive esperando um tempo para um lugar convincente para dar uma chance a essa ideia.

    Broadly, você pode resumi-lo como usando o Schema.org Sobre a propriedade apontando de volta para várias fontes autorais (como Wikidata, Wikipédia, Dbpedia, etc.) a fim de ajudar o Google a entender melhor o seu conteúdo.

    Por exemplo, você pode adicionar a seguinte JSON a um artigo an sobre a posse de Donald Trump.

    [{“@type”: “Pessoa”, “name”: “President-eleger Donald Trump”, “sameAs”: [“https: //en.wikipedia.org/wikiDonald_Trump”, “http://dbpedia.org/page/Donald_Trump”, “https: //www.wikidata.org/wiki/Q22686”]}, {“@type”: “Thing”, “name”: “US”, “sameAs”: [“https: //en.wikipedia.org/wiki/United_States”, “http://dbpedia.org/page/United_States”, “https: //www.wikidata.org/wiki/Q30”]}, {“@type”: “Thing”, “name”: “Inauguration Day”, “sameAs”: [“https: //en.wikipedia.org/wiki/United_States_presidential_inauguration”, “http://dbpedia.org/page/United_States_presidential_inauguration”, “https: //www.wikidata.org/wiki/Q263233”]}]

    Os artigos que venho tendo classificação são muitas vezes sub-artigos específicos sobre o tópico maior, talvez explicando-os explicitamente, o que pode ajudar o Google a encontrar lugares melhores para usá-los.

    Você deve absolutamente ir e ler este artigo / apresentação por Jarno Van Driel, que é de onde eu tirei essa ideia.

    Combinando intentos informativos e transacionais

    Não tem muita certeza de como me sinto sobre este. Eu já vi muito disso, geralmente onde existem dois termos, um mais transacional e outro mais informativo. Um site colocará um grande guia na página transacional (muitas vezes uma página da categoria) e depois tentará agarrar os dois de uma vez.

    É aqui que as linhas começaram a borrar. Eu já tinha estado anteriormente ao lado de ter duas páginas, uma para destinar o transacional e outra para destinar o informativo.

    Atualmente começar a considerar se esta é ou não a maneira correta de fazer isso. Provavelmente vou tentar isso de novo em um casal de lugares e ver como ele joga fora.

    Pensamentos finais

    Eu só consegui qualquer insight sobre este problema por causa de armazenar dados do Search Console. Eu absolutamente recomendaria armazenar os dados do seu Search Console, para que você possa fazer esse tipo de investigação no futuro. Atualmente eu recomendaria paginar a API para obter esses dados; não é perfeito, mas evita muitas outras dificuldades. Você pode encontrar um script para fazer isso aqui (um garfo do script anterior do Search Console que eu falei) que eu então uso para despejar no BigQuery. Você também deve conferir os Paul Shapiro e JR Oakes, que ambos fornecaram soluções que vão um passo além e também fazem a poupança de banco de dados.

    Meu melhor palpite no momento para a atualização do Maccabees é que houve algum tipo de mudança de peso que agora valoriza mais a relevância da relevância e testa mais páginas que possivelmente são topicamente relevantes. Essas novas páginas testadas eram notadamente menos fortes e pareciam se apresentar como você esperaria (menos bem), o que parece ter levado ao meu trafego cair.

    É claro que essa análise é atualmente baseada em um único site, de modo que a conclusão pode se aplicar apenas ao meu site ou não em todos se houver múltiplos efeitos acontecendo e eu estou apenas vendo um deles.

    Alguém viu alguma coisa parecida ou fez algum mergulho profundo em onde isso tenha acontecido em seu site?

    Apêndice

    Spotting thin content & dodgy links

    Para aqueles de vocês que estão olhando para novos sites, há algumas maneiras rápidas de se cavar nisso.

    Para links dodgy:

    • Dê uma olhada em algo como Searchmetrics / SEMRush e veja se eles já tiveram alguma gotinha anterior de pinguim.
    • Dê uma olhada em ferramentas Majestic e Ahrefs. Você pode muitas vezes obter este gratuito, Majestic lhe dará todos os links para o seu domínio por exemplo se você verificar.

    Para spotting thin content:

    • Executar um crawl
      • Dê uma olhada em qualquer coisa com uma contagem de palavras curtas; vamos arbitrariamente dizer menos de 400 palavras.
      • Procure a repetição pesada em títulos ou meta descrições.
      • Use a visualização de árvore (que você pode encontrar no Sapo de Grito, por exemplo) e faça uma broca em onde ele tenha encontrado tudo. Isso rapidamente deixará você ver se há páginas em que você não espera que haja alguma.
      • Veja se o número de URLs encontradas é notavelmente diferente para o relatório de URL indexado.
    • Em breve você poderá dar uma olhada no novo relatório de cobertura de índice do Google. (AJ Kohn tem um belo writeup aqui).
    • Procurar em torno de um plugin de SEO chrome que mostrará a indexação. (SEO Meta em 1 Click é útil, eu escrevi Traffic Light SEO para isso, realmente não importa o que você usa embora.)

    Bloat de Index

    O único lugar real para o spot index bloat é o URLs indexadas report em Search Console. Depurando-o no entanto é difícil, eu recomendaria uma combinação de arquivos de log, “site:”, buscas no Google, e sitemaps ao tentar diagnosticar isso.

    Se você conseguir obtê-los, os arquivos de log geralmente serão os mais perspicazes.

    Experiência de usuário pobre / site lento

    Este é um hard para julgar. Praticamente todo site tem coisas que você pode aula como uma experiência de usuário pobre.

    Se você não tiver acesso a qualquer pesquisa de usuário sobre a marca, eu vou sair do meu intestino combinado com uma varredura rápida para comparar com alguns concorrentes. Eu não estou procurando uma experiência perfeita ou em qualquer lugar próximo, eu só quero não odiar tentando usar o site nos principais modelos que estão expostos à busca.

    Para velocidade, eu costumo usar o WebPageTest como uma regra super geral de polegar. Se o site carrega abaixo de 3 seconds, eu não estou preocupado; 3-6 eu estou um pouco mais nervoso; qualquer coisa sobre isso, eu tomaria como sendo bem ruim.

    Eu percebo que essa não é a seção mais específica e muitas dessas verificações vêm de experiência acima de tudo mais.

    Sobrepor anúncios ou monetização?

    Falando em experiência de usuário pobre, o mais óbvio é desligar qualquer que seja o bloqueio de anúncios que você está executando (ou se ele for construído em seu navegador, para mudar para um sem esse recurso) e tente usar o site sem ele. Para muitos sites, será claro corte. Quando não for, eu vou embora e busco outros exemplos específicos.

    Fonte: moz.com/blog/an-investigation-into-googles-maccabees-update

    error: Content is protected !!