Sebuah situs web yang dipetik oleh mesin pencari tidak diragukan lagi merupakan pukulan fatal bagi setiap webmaster. Namun, apakah itu penurunan pangkat atau pemetikan, sering kali ada alasan untuk situasi seperti itu. Jika tidak, mesin pencari tidak akan meng-K situs Anda tanpa alasan , jadi kita perlu menganalisis dan memperbaiki alasan yang menyebabkan website kita dipetik. Hanya dengan cara inilah mesin pencari dapat memasukkan kembali website kita.
Pertama-tama, kita perlu memahami alasan yang menyebabkan situs kita dicabut. Penulis di sini merangkum beberapa alasan umum dan solusi untuk referensi Anda.
(1) Situs web mengumpulkan konten secara berlebihan.
Saat ini, setiap webmaster memiliki empat atau lima situs, dan beberapa bahkan memiliki lusinan situs. Tentu saja, satu orang pasti tidak memiliki cukup energi untuk memeliharanya satu per satu, sehingga banyak webmaster membeli beberapa plugin koleksi secara online untuk dibawa. keluar sejumlah besar Efek mengumpulkan konten dari situs lain mungkin bagus pada awalnya, terutama untuk koleksi, yang sangat ampuh karena saya sudah membuat situs koleksi sebelumnya, jadi saya cukup mengetahuinya. Namun, setelah jangka waktu tertentu, Baidu mulai semakin sedikit memasukkan konten yang dikumpulkan dari situs webnya, hingga konten tersebut tidak lagi disertakan, dan situs web tersebut di-K-ed atau dipetik.
Mengenai situasi di atas, saya menyarankan agar Anda melakukan sedikit pengumpulan, dan yang terbaik adalah membeli beberapa program pseudo-asli saat membeli beberapa plug-in koleksi untuk melakukan pekerjaan pseudo-asli, sehingga mesin pencari akan lebih ramah. Tentu saja jika Anda memiliki website dengan banyak waktu, Meski panjang, penulis tetap menyarankan untuk membuat kreasi orisinal sendiri. Lagipula, laba-laba menyukai makanan segar.
(2) Optimasi internal situs web yang berlebihan.
Dengan popularitas optimasi SEO dalam beberapa tahun terakhir, setiap webmaster mengetahui sedikit banyak beberapa pengetahuan optimasi. Namun, di antara orang-orang ini, banyak webmaster yang memiliki pemahaman yang salah tentang optimasi dan melakukan banyak pekerjaan optimasi di situs web mereka cukup umum bagi sebuah situs web untuk dioptimalkan secara berlebihan, diturunkan oleh mesin pencari, K-ed, atau dipetik. Dalam keadaan normal, hal ini terutama karena banyak webmaster membuat tautan internal dalam jumlah besar di dalam situs web, sehingga mengakibatkan pengoptimalan tautan internal yang berlebihan dan dianggap curang oleh mesin pencari.
Solusi: Sesuaikan rencana pengoptimalan yang masuk akal untuk situs web Anda, pahami dengan baik kepadatan kata kunci situs web, perbarui konten secara berkala, dan kirimkan kembali ke login situs web Baidu sebelum dapat dimasukkan kembali.
(3) Optimalisasi eksternal situs web yang berlebihan.
Pernyataan bahwa optimasi eksternal situs web berlebihan sering kali ditujukan untuk situs baru. Karena situs baru sedang online, kita perlu mengirimkan beberapa tautan eksternal untuk menarik laba-laba agar merayapi dan merayapi, sehingga situs kita dapat dengan cepat disertakan. Namun, pepatah bahwa ini adalah "stasiun baru" sering kali diabaikan. Publikasikan tautan eksternal dalam jumlah besar untuk menarik laba-laba. Ketika laba-laba merayapi situs kita dalam jumlah besar, mesin pencari akan mencatatnya. Agar situs baru memiliki begitu banyak pintu masuk, niscaya akan dilihat oleh mesin pencari untuk beberapa webmaster yang menggunakan perangkat lunak pengiriman massal untuk mengirim tautan eksternal.
Solusi: Rencanakan kuantitas dan kualitas tautan eksternal dengan baik. Jangan gunakan perangkat lunak pengiriman massal untuk mengirim tautan eksternal ke situs baru, jika tidak, konsekuensinya akan menjadi bencana. Buatlah sebanyak mungkin tautan eksternal berkualitas tinggi, dan jangan terlalu fokus banyak pada kuantitas. Tingkatkan jumlah tautan eksternal yang dirilis secara perlahan setiap hari, dan kirimkan ke mesin pencari dengan cara yang sama. Biasanya, dalam hal ini, Anda dapat membalas penyertaan itu lagi dalam waktu seminggu.
(4) Situs web telah diretas dengan kuda Troya.
CMS apa pun, tidak ada jaminan bahwa tidak ada celah. Yang paling umum adalah DEDECMS, yang memiliki cukup banyak celah. Oleh karena itu, sangat umum bagi banyak situs web untuk diretas dengan kuda Troya. Khusus untuk beberapa virus, biasanya kita pengunjung tidak dapat melihatnya dalam kondisi browsing normal. Selain itu, terdapat link hitam di website yang tidak dapat kita lihat dari permukaan, namun bila dirayapi oleh laba-laba, dapat dirayapi, yang niscaya akan menyebabkan situs web kami akan diturunkan. Misalnya, salah satu situs web saya, www.QQyjx.com , diblokir oleh peretas beberapa hari yang lalu karena kerentanan dan dialihkan langsung ke beberapa situs web ilegal, dan ini tidak ditangani tepat waktu, mengakibatkan situs tersebut diturunkan oleh mesin pencari, yang sangat tragis.
Solusi: Pertama-tama, Anda harus mengambil langkah-langkah keamanan yang baik untuk server situs web. Yang lainnya adalah mengatur beberapa izin untuk program CMS situs web itu sendiri, dan lebih memperhatikan pembaruan tepat waktu dari beberapa patch kerentanan yang dirilis oleh situs web resmi. . Tentu saja, tidak ada tembok kedap udara, jadi kita harus secara teratur menggunakan beberapa alat webmaster untuk mendeteksi apakah ada kelainan di situs web kita, dan sering kali pergi ke server kita sendiri untuk memeriksa log situs web, mengamati status laba-laba yang masuk ke dalam. server mereka sendiri, dan tepat waktu Penemuan akan segera ditangani!
Artikel ini awalnya dibagikan oleh webmaster QQ Yijingxuan. Harap sebutkan saat mencetak ulang!
Pemimpin Redaksi: ruang pribadi Yangyang