Sin duda, un sitio web seleccionado por un motor de búsqueda es un golpe fatal para todos los webmasters. Sin embargo, ya sea que se trate de una degradación o un retiro, a menudo hay una razón para tal situación. De lo contrario, los motores de búsqueda no buscarán su sitio sin ningún motivo. , por lo que debemos analizar y corregir los motivos que provocaron que nuestro sitio web esté arrancando. Sólo así el buscador podrá volver a incluir nuestro sitio web.
En primer lugar, debemos comprender las razones que hacen que nuestro sitio esté depilado. Aquí el autor resume algunas razones y soluciones comunes para su referencia.
(1) El sitio web recopila contenido en exceso.
Hoy en día, los webmasters individuales tienen cuatro o cinco sitios a mano, y algunos incluso tienen docenas de ellos. Por supuesto, una persona definitivamente no tiene suficiente energía para mantenerlos uno por uno, por lo que muchos webmasters compran algunos complementos de colección en línea para llevarlos. El efecto de recopilar contenido de otros sitios puede ser bueno al principio, especialmente para la recopilación, lo cual es muy poderoso porque ya he creado un sitio de recopilación antes, por lo que lo conozco bastante bien. Sin embargo, después de un período de tiempo, Baidu comenzó a incluir cada vez menos contenido recopilado de su sitio web, hasta que ya no se incluyó y el sitio web fue eliminado o eliminado.
Con respecto a la situación anterior, le sugiero que haga una pequeña cantidad de recopilación, y es mejor comprar algunos programas pseudooriginales al comprar algunos complementos de colección para realizar trabajos pseudooriginales, para que los motores de búsqueda sean más amigables. Por supuesto, si tienes un sitio web con mucho tiempo, aunque sea largo, el autor recomienda hacer tu propia creación original. Después de todo, a las arañas les gusta la comida fresca.
(2) Optimización interna excesiva del sitio web.
Con la popularidad de la optimización SEO en los últimos años, cada webmaster tiene más o menos conocimientos de optimización. Sin embargo, entre estas personas, hay muchos webmasters que tienen una comprensión errónea de la optimización y realizan mucho trabajo de optimización en sus sitios web. Es bastante común que un sitio web esté sobreoptimizado, degradado por los motores de búsqueda, K-ed o eliminado. En circunstancias normales, se debe principalmente a que muchos webmasters crean una gran cantidad de enlaces internos dentro del sitio web, lo que resulta en una optimización excesiva de los enlaces internos y los motores de búsqueda los tratan como una trampa.
Solución: personalice un plan de optimización razonable para su propio sitio web, comprenda bien la densidad de palabras clave del sitio web, actualice el contenido con regularidad y vuelva a enviarlo al inicio de sesión del sitio web de Baidu antes de que pueda volver a incluirse.
(3) Optimización externa excesiva del sitio web.
La afirmación de que la optimización externa del sitio web es excesiva suele referirse a sitios nuevos. Debido a que hay un sitio nuevo en línea, debemos enviar algunos enlaces externos para atraer a las arañas a rastrear y rastrear, de modo que nuestro sitio pueda incluirse rápidamente. Sin embargo, a menudo se ignora el dicho de que es una "estación nueva". Publique una gran cantidad de enlaces externos para atraer arañas. Cuando las arañas rastrean nuestro sitio en gran número, los motores de búsqueda lo registrarán. Para que un sitio nuevo tenga tantas entradas, sin duda será visto por los motores de búsqueda. para algunos webmasters que utilizan software de envío masivo para enviar enlaces externos.
Solución: planifique bien la cantidad y calidad de los enlaces externos. No utilice software de envío masivo para enviar enlaces externos a nuevos sitios; de lo contrario, las consecuencias serán desastrosas. Cree tantos enlaces externos de alta calidad como sea posible y no se concentre demasiado. mucho en cantidad. Aumente lentamente la cantidad de enlaces externos publicados todos los días y envíelos a los motores de búsqueda de la misma manera. Generalmente, en este caso, podrá responder a la inclusión nuevamente dentro de una semana.
(4) El sitio web ha sido pirateado con caballos de Troya.
No importa cuál sea el CMS, no hay garantía de que no haya lagunas. El más común es DEDECMS, que tiene bastantes lagunas. Por lo tanto, es bastante común que muchos sitios web sean pirateados con caballos de Troya. Especialmente para algunos virus, generalmente los visitantes no podemos verlos en condiciones normales de navegación. Además, hay enlaces negros en el sitio web que no podemos ver desde la superficie, pero cuando son rastreados por arañas, pueden ser rastreados, lo que sin duda causará. nuestro sitio web será degradado. Por ejemplo, uno de mis sitios web, www.QQyjx.com , fue bloqueado por un pirata informático hace unos días debido a una vulnerabilidad y fue redirigido directamente a algunos sitios web ilegales, y esto no se trató en. de manera oportuna, lo que resultó en que el sitio fuera degradado por los motores de búsqueda, lo cual es muy trágico.
Solución: en primer lugar, debe tomar buenas medidas de seguridad para el servidor del sitio web. La otra es establecer algunos permisos para el programa CMS del sitio web y prestar más atención a las actualizaciones oportunas de algunos parches de vulnerabilidad publicados por el sitio web oficial. . Por supuesto, después de todo, no existe un muro hermético, por lo que debemos usar regularmente algunas herramientas para webmasters para detectar si hay alguna anomalía en nuestro sitio web y, a menudo, ir a nuestro propio servidor para verificar los registros del sitio web, observar el estado de las arañas que inician sesión. sus propios servidores y oportunos ¡El descubrimiento se solucionará con prontitud!
Este artículo fue compartido originalmente por el webmaster de QQ Yijingxuan. Indíquelo al reimprimir. ¡Gracias!
Editor en jefe: el espacio personal de Yangyang