1.為什麼說空間非常重要?
搜尋引擎的爬蟲(百度的爬蟲叫做蜘蛛,谷歌的爬蟲叫做機器人)是一種依靠網址爬取所在網址的網站的頁面的程序,我們稱之為爬蟲,它是自動運行的,它收集網址並且下載這個網站的頁面的程式並對頁面上的所有連結進行統計這包括內鍊和外鏈,統計之後再次進行爬取以txt文字的形式進行保存到它的伺服器。
收錄是分為2個過程;1、先透過爬取到某個頁面(你提交的搜尋引擎的鏈接)收集鏈接,2、爬到你網頁並且下載該網頁。 1、快取伺服器(快照)2、SITE伺服器(收錄)3、索引清單伺服器(排名)他們不是在同一個伺服器上的這也是為什麼我們的快照日期不同的原因。因為在不同伺服器上所以會有不同步的現象例如:我們SITE一下網域沒有首頁,但是直接搜尋網域卻又有首頁,這就是資料沒有進行同步。
為什麼說空間的穩定性非常重要呢?因為搜尋引擎爬蟲是模擬使用者的行為習慣的來爬去網站內容。如果伺服器不穩定或開啟速度很慢,爬蟲來爬取網站的時候出現資料遺失或爬去不到內容的時候它將對這個網站失去興趣。所以無娽提醒SEOer們伺服器的不穩定是會對SEO優化有直接負面影響的。
2、那我們該如何來進行預防呢?
1.一定要經常性進行網站資料備份(網頁資料和資料庫資料),資料庫備份網站檔案整體打包下載到本地。萬一被攻擊掛馬我們可以直接恢復數據,並修改FTP密碼伺服器密碼或空間後台控制密碼,並且暫時取消網站資料夾的寫入權,FTP密碼越複雜越好!
2.空間開啟速度超過6秒鐘對SEO相當不利,如果是因為網站圖片太多Flash太多的,建議你將圖片壓縮處理最好不要超過50KB,flash能不用就不用吧,另外建議啟用伺服器的壓縮傳送功能。還有一個原因是因為調用,尤其是調用天氣預報,只要調用的網站打開網站較慢,自己的網站也會很慢,那種在線留言軟體和網站統計有一個就行了,多了也會影響網站的開啟速度。記住一點:呼叫代碼用大越多打開速度越慢!如果都不是以上原因那極有可能是空間或伺服器打開速度慢,請與空間商或機房溝通解決如果不能解決一定果斷更換,如果更換空間或伺服器請記住幾個要點:
第一先把資料(網頁檔案和資料庫)然後再轉移,
第二轉移前測試空間或伺服器速度,
第三先啟用二級網域進行調試或是用這個空間商送的三級網域進行調試,
第四進行網域解析網域解析最好在使用者訪問量最少的時間,
第五解析域名以後,原空間要保障24小時穩定,原空間不能關閉,原空間資料不能清除,因為DNS解析全球生效時間為5分鐘到24小時,很多老用戶都存有原ip的快取且每個地區DNS解析生效時間是不同的,而且蜘蛛也是有快取的。
3、如何選擇合理的空間?
第一要支援偽靜態的空間,現在大多數網站原始碼都是動態偽靜態的,所以必須支援偽靜態。
第二最好能夠提供IIS日誌查詢,如果想了解爬蟲在網站上的動向就必須查看IIS日誌,並且IIS日誌最好能夠分每個小時產生一份。
第三最好支援php+MySQL 空間,大部分站長用的都是php+mysql的網站原始碼。
第四要支援空間後台線上解壓縮功能,如果不支援後台線上解壓縮與壓縮我們上傳檔案或備份將耗費我們很多很多時間。
第五要支援301重定向和404錯誤頁面綁定,301重定向能夠讓我們的網站權重集中或權重轉移,404錯誤頁面是對使用者和爬蟲的友善表現。
第六最好不限制IIS並發數,限制IIS並發數的空間只要被線程攻擊就會直接癱瘓。
第七有問題技術能夠在12小時左右能夠解決。
責任編輯:陳龍作者無娽的個人空