Índice
ToggleUma mudança no Nofollow
No mês passado, o Google anunciado eles iriam mudar a forma como tratavam o nofollow, movendo-o de uma diretiva para uma dica. Como parte disso, eles também anunciaram o lançamento de atributos paralelos rel=”sponsored” para links patrocinados e rel=”ugc” para conteúdo gerado pelo usuário em áreas como fóruns e comentários de blog.
Por que não ignorar completamente esses links, como foi o caso com nofollow? Os links contêm informações valiosas que podem nos ajudar a melhorar a pesquisa, como a forma como as palavras dentro dos links descrevem o conteúdo para o qual apontam. Olhar para todos os links que encontramos também pode nos ajudar a entender melhor os padrões de links não naturais. Ao mudar para um modelo de dica, não perdemos mais essas informações importantes, ao mesmo tempo em que ainda permitimos que os proprietários do site indiquem que alguns links não devem receber o peso de um endosso de primeira parte.
Em muitos mercados emergentes, a web móvel é efetivamente a web inteira. Poucas pessoas criam links HTML na web móvel fora das redes sociais, onde os links são tipicamente nofollow por padrão. Isso reduz o sinal potencial disponível para rastrear o que as pessoas fazem diretamente e/ou mudar como o atributo nofollow é tratado.
A mudança no tratamento do nofollow pelo Google é uma admissão geral de que o Penguin e outros elementos da “guerra dos links” foram talvez um pouco eficazes demais e começaram a roubar sinais valiosos do Google.
O Google sugeriu que a mudança em como o nofollow é tratado não levará a nenhum spam adicional de comentários de blog. Quando anunciaram o nofollow, sugeriram que isso reduziria o spam de comentários de blog. O spam de comentários de blog continua sendo um mercado em crescimento muito depois que a gravidade da web mudou dos blogs para as redes sociais.
Mudar como o nofollow é tratado só torna qualquer tipo de análise de link externo muito mais difícil. Aqueles que se especializam em auditorias de link (eca!) historicamente ignoraram links nofollow, mas agora esse é mais um conjunto de coisas para analisar. E a boa notícia para auditores de link profissionais é que isso aumenta o custo efetivo que eles podem cobrar dos clientes pelo serviço.
Alguns tipos maldosos perceberão quando os concorrentes forem penalizados e então acionarão o Xrummer para ajudar a promover o site penalizado, garantindo que o auditor de links leve o negócio concorrente à falência ainda mais rápido que o Google.
Links, engajamento ou outra coisa…
Quando o Google foi lançado, eles não eram donos do Chrome ou do Android. Eles ainda não eram espionando de forma generalizada milhares de milhões de pessoas:
Se, como a maioria das pessoas, você pensou que o Google parou de rastrear sua localização quando você desativou o Histórico de Localização nas configurações da sua conta, você estava errado. De acordo com uma investigação da AP publicada na segunda-feira, mesmo se você desabilitar o Histórico de Localização, o gigante das buscas ainda rastreia você toda vez que você abre o Google Maps, obtém certas atualizações automáticas do clima ou pesquisa coisas no seu navegador.
Assim, o Google teve que dependem de sinais externos como seu principal fator de classificação:
O motivo pelo qual o PageRank é interessante é que há muitos casos em que a contagem simples de citações não corresponde à nossa noção de senso comum de importância. Por exemplo, se uma página da web tem um link na página inicial do Yahoo, pode ser apenas um link, mas é muito importante. Esta página deve ser classificada mais alto do que muitas páginas com mais links, mas de lugares obscuros. O PageRank é uma tentativa de ver o quão boa uma aproximação de “importância” pode ser obtida apenas a partir da estrutura do link. … A definição de PageRank acima tem outra base intuitiva em caminhadas aleatórias em gráficos. A versão simplificada corresponde à distribuição de probabilidade permanente de uma caminhada aleatória no gráfico da Web. Intuitivamente, isso pode ser pensado como modelagem do comportamento de um “surfista aleatório”.
A dependência do Google em links transformou os links em uma mercadoria, o que levou a todos os tipos de alarmismo, penalidades manuais, nofollow e a atualização do Penguin.
À medida que o Google coletava mais dados de uso, aqueles que se concentravam demais em links muitas vezes acabavam marcando um gol contra, criando sites que não seriam classificados.
O Google não investe mais pesadamente em alarmismo porque não é mais necessário. A busca é tão complexa que a maioria das pessoas não consegue entendê-la.
Muitos SEOs reduziram seus esforços de construção de links à medida que o Google aumentou a ponderação nas métricas de engajamento do usuário, embora pareça que a maré agora pode estar indo na outra direção. Alguns sites que tinham métricas de engajamento decentes, mas pouco em termos de construção de links, caíram na atualização no final do mês passado.
Por mais que o Google deseje relevância no curto prazo, eles também preferem um sistema complexo o suficiente para observadores externos que a engenharia reversa parece impossível. Se eles desencorajam o investimento em SEO, eles aumentam o crescimento do AdWords enquanto ganham maior controle sobre a relevância algorítmica.
Em breve, o Google coletará ainda mais dados de uso roteando usuários do Chrome por meio de seu serviço DNS: “O Google não está realmente forçando os usuários do Chrome a usar apenas o serviço DNS do Google e, portanto, não está centralizando os dados. Em vez disso, o Google está configurando o Chrome para usar conexões DoH por padrão, caso o serviço DNS do usuário ofereça suporte a isso.”
Se o tráfego for roteado pelo Google, isso é semelhante a eles hospedarem a página em termos de poder rastrear muitos aspectos do comportamento do usuário. É semelhante ao AMP ou YouTube em termos de poder rastrear usuários e normalizar métricas de engajamento relativas.
Uma vez que o Google hospeda a experiência do usuário de ponta a ponta, ele pode criar um número quase infinito de sinais de classificação dado o seu avanço no poder de computação: “Desenvolvemos um novo processador de 54 qubits, chamado “Sycamore”, que é composto de portas lógicas quânticas rápidas e de alta fidelidade, para realizar o teste de benchmark. Nossa máquina realizou a computação alvo em 200 segundos e, a partir de medições em nosso experimento, determinamos que o supercomputador mais rápido do mundo levaria 10.000 anos para produzir uma saída semelhante.”
Confiar em abordagens do tipo “um truque simples para…” muitas vezes não dará resultado.
EMDs chutados mais uma vez
Eu fui um dos primeiros promotores de domínios de correspondência exata quando a indústria em geral não acreditava neles. Também fui rápido em mencionar quando senti que os algoritmos tinham se movido na outra direção.
O layout móvel do Google, que agora eles estão testando em computadores de mesa também, substitui nomes de domínio verdes por palavras cinzas que são fáceis de perder. E os ícones favicon meio que fazem os resultados orgânicos parecerem anúncios. Qualquer impulso que um nome de domínio como CreditCards.ext pode ter obtido no passado devido à correspondência da palavra-chave certamente desapareceu com esse novo layout que deprecia ainda mais o impacto de nomes de domínio de correspondência exata.
Em um ponto no tempo, CreditCards.com era visto como um destino de consumidor. Agora é visto… abaixo da dobra.
Se você tem um nome de domínio memorável e voltado para a marca, o favicon pode ajudar a compensar um pouco o impacto acima, mas a correspondência de palavras-chave está se tornando uma abordagem muito mais precária para sustentar classificações, pois o peso no reconhecimento da marca, no engajamento do usuário e na autoridade aumenta em relação ao peso no texto âncora.