Das für Webmaster am stärksten Kopfschmerz induzierende Ding ist, dass der Inhalt zusätzlich zu der Programm- und Serversicherheit als gesammelt angesehen werden kann. Natürlich ist das Netzwerk selbst die Ressourcenfreigabe jetzt. Ich werde hier nicht über das Richtige oder Unrecht der Sammlung sprechen, sondern nur über persönliche Meinungen zur Verhinderung der Sammlung sprechen.
1. wie man Suchcrawler unterscheidet
In der Vergangenheit habe ich im Internet Codes über die Verwendung von ASP -Code zum Erfassen von Suchcrawlern gesehen und die Zugriffsdatensätze des Crawlers über den Code in Dateien aufgenommen. Ich habe Änderungen an diesem Code vorgenommen (der ursprüngliche Autor ist unbekannt) und ihn dem Programm hinzugefügt, um die Sammlung zu verhindern. Jetzt wird es zu einer Funktion gemacht und direkt auf der Seite aufgerufen.
Die Codekopie lautet wie folgt:
FunctionCheckssearchrobots (SearchrobotsAgent)
CheckSearchrobots = false
'Custom Search Crawler aufgrund der Länge ist dies nur ein Teil der Aufzeichnungen von Crawlern in den wichtigsten häuslichen Suchmaschinen
DimSearchrobots: Searchrobots = "baidu@baidu | google@google | crawler@axa | yahoo@yahoo | sohu@sohu | msn@msn | qihoobot@qihoo"
DimarSearchrobots, arrSearchrobots2, SearchrobotStrue, Searchrobotsname, Isearchrobots
SearchrobotStrue = false
ArrSearchrobots = split (Searchrobots, Chr (124))
Forisearchrobots = 0ToUbound (arrSearchrobots)
ArrSearchrobots2 = split (arrSearchrobots (isearchrobots), "@")
IFInstr (Lase (SearchrobotsAgent), Lase (arrSearchrobots2 (0)))> 0Then
SearchrobotStrue = true: Searchrobotsname = arrSearchrobots2 (1): exitfor
Endif
Nächste
IfSearchrobotSruandlen (SearchrobotsName)> 0Then'wi, wenn es sich um einen Crawler handelt, aktualisieren Sie die Crawler -Informationen
Checksearchrobots = true
Endif
Endfunktion
Fügen Sie den obigen Code in das ASP -Programm ein (finden Sie im entsprechenden Artikel, um Einzelheiten zum Platzieren zu erhalten) und tätigen Sie dann den folgenden Anruf, bei dem Sie anrufen müssen: ifcheckssearchrobots (SearchrobotsAgent) = falsethen
Antwort. Zum Beispiel beträgt die Zugangsgeschwindigkeit unter normalen Umständen n -mal/minute. Wenn diese Zahl überschreitet (außergewöhnlicher Zugriff), kann sie eingeschränkt werden.