Um site sendo removido por um mecanismo de pesquisa é, sem dúvida, um golpe fatal para qualquer webmaster. No entanto, seja rebaixamento ou remoção, muitas vezes há uma razão para tal situação. Caso contrário, os mecanismos de pesquisa não irão K seu site sem motivo. , por isso precisamos analisar e corrigir os motivos que fizeram com que nosso site fosse arrancado. Somente desta forma o mecanismo de busca poderá incluir novamente nosso site.
Em primeiro lugar, precisamos entender os motivos que fazem com que nosso site seja depilado. O autor aqui resume alguns motivos e soluções comuns para sua referência.
(1) O site coleta conteúdo excessivamente.
Hoje em dia, webmasters individuais têm quatro ou cinco sites em mãos, e alguns até têm dezenas deles. É claro que uma pessoa definitivamente não tem energia suficiente para mantê-los um por um, então muitos webmasters compram alguns plug-ins de coleção online para carregá-los. O efeito da coleta de conteúdo de outros sites pode ser bom no início, especialmente para a coleta, o que é muito poderoso porque já construí um site de coleta antes, então o conheço muito bem. No entanto, depois de um período de tempo, o Baidu começou a incluir cada vez menos conteúdo coletado de seu site, até que ele não fosse mais incluído e o site fosse K-ed ou arrancado.
Em relação à situação acima, sugiro que você faça uma pequena coleta, e é melhor comprar alguns programas pseudo-originais ao comprar alguns plug-ins de coleção para fazer trabalhos pseudo-originais, para que os mecanismos de busca sejam mais amigáveis. Claro, se você tiver um site com bastante tempo, embora seja longo, o autor ainda recomenda fazer sua própria criação original. Afinal, aranhas gostam de comida fresca.
(2) Otimização interna excessiva do site.
Com a popularidade da otimização de SEO nos últimos anos, todo webmaster conhece mais ou menos algum conhecimento de otimização. No entanto, entre essas pessoas, há muitos webmasters que têm um entendimento errado de otimização e fazem muito trabalho de otimização em seus sites. bastante comum que um site seja superotimizado, rebaixado por mecanismos de pesquisa, K-ed ou arrancado. Em circunstâncias normais, isso ocorre principalmente porque muitos webmasters criam um grande número de links internos no site, resultando em otimização excessiva de links internos e sendo tratados como trapaceiros pelos mecanismos de pesquisa.
Solução: personalize um plano de otimização razoável para o seu próprio site, tenha uma boa compreensão da densidade de palavras-chave do site, atualize o conteúdo regularmente e reenvie-o para o login do site do Baidu antes que possa ser incluído novamente.
(3) Otimização externa excessiva do site.
Pela afirmação de que a otimização externa do site é excessiva, muitas vezes é para novos sites. Como um novo site está online, precisamos enviar alguns links externos para atrair spiders para rastrear e rastrear, para que nosso site possa ser incluído rapidamente. No entanto, o ditado de que se trata de uma “nova estação” é frequentemente ignorado. Publique um grande número de links externos para atrair spiders. Quando os spiders rastreiam nosso site em grande número, os mecanismos de pesquisa irão registrá-lo. Para um novo site ter tantas entradas, ele sem dúvida será visto pelos mecanismos de pesquisa, especialmente. para alguns webmasters que usam software de envio em massa para enviar links externos.
Solução: Planeje bem a quantidade e a qualidade dos links externos. Não use software de envio em massa para enviar links externos para novos sites, caso contrário as consequências serão desastrosas. muito em quantidade. Aumente lentamente o número de links externos lançados todos os dias e submeta-os aos motores de busca da mesma forma. Normalmente, neste caso, você pode responder à inclusão novamente dentro de uma semana.
(4) O site foi invadido por cavalos de Tróia.
Não importa qualquer CMS, não há garantia de que não haja brechas. O mais comum é o DEDECMS, que tem muitas brechas. Portanto, é bastante comum que muitos sites sejam invadidos por cavalos de Tróia. Especialmente para alguns vírus, geralmente nós, visitantes, não podemos vê-los em condições normais de navegação. Além disso, existem links pretos no site. Não podemos vê-los na superfície, mas quando rastreados por aranhas, podem ser rastreados, o que sem dúvida causará. nosso site será rebaixado. Por exemplo, um dos meus sites, www.QQyjx.com , foi bloqueado por um hacker há alguns dias devido a uma vulnerabilidade e redirecionado diretamente para alguns sites ilegais, e isso não foi resolvido. em tempo hábil, resultando no rebaixamento do site pelos motores de busca, o que é muito trágico.
Solução: Em primeiro lugar, você deve tomar boas medidas de segurança para o servidor do site. A outra é definir algumas permissões para o programa CMS do próprio site e prestar mais atenção às atualizações oportunas de alguns patches de vulnerabilidade lançados pelo site oficial. . É claro que, afinal, não existe uma parede hermética, por isso devemos usar regularmente algumas ferramentas para webmasters para detectar se há alguma anormalidade em nosso site e, frequentemente, ir ao nosso próprio servidor para verificar os logs do site, observar o status dos spiders que fazem login. seus próprios servidores, e oportuna A descoberta será tratada prontamente!
Este artigo foi originalmente compartilhado pelo webmaster do QQ Yijingxuan. Por favor, indique ao reimprimir. Obrigado!
Editor-chefe: Espaço pessoal de Yangyang