一、判斷一個IP在一定時間內對本站頁面的訪問次數,如果明顯超過了正常人浏覽速度,就拒絕此IP訪問
弊端:
1、此方法只適用於動態頁面,如:asp\jsp\php等...靜態頁面無法判斷某個IP一定時間訪問本站頁面的次數。
2、此方法會嚴重影響搜索引擎蜘蛛對其收錄,因為搜索引擎蜘蛛收錄時,浏覽速度都會比較快而且是多線程。此方法也會拒絕搜索引擎蜘蛛收錄站內文件
采集對策:只能放慢采集速度,或者不采
建議:做個搜索引擎蜘蛛的IP庫,只允許搜索引擎蜘蛛快速浏覽站內內容。搜索引擎蜘蛛的IP庫的收集,也不太容易,一個搜索引擎蜘蛛,也不一定只有一個固定的IP地址。
評論:此方法對防采集比較有效,但卻會影響搜索引擎對其收錄。
二、用javascript加密內容頁面
弊端:此方法適用於靜態頁面,但會嚴重影響搜索引擎對其收錄情況,搜索引擎收到到的內容,也都是加密後的內容
采集對策:建議不采,如非要采,就把解密碼的JS腳本也采下來。
建議:目前沒有好的改良建議
評論:建議指望搜索引擎帶流量的站長不要使用此方法。
三、把內容頁面裡的特定標記替換為”特定標記+隱藏版權文字“
弊端:此方法弊端不大,僅僅會增加一點點的頁面文件大小,但容易反采集
采集對策:把采集來的含有隱藏版權文字內容的版權文字替掉,或替換成自己的版權。
建議:目前沒有好的改良建議
評論:自己感覺實用價值不大,就算是加上隨機的隱藏文字,也等於畫蛇添足。
四、只允許用戶登陸後才可以浏覽
弊端:此方法會嚴重影響搜索引擎蜘蛛對其收錄
采集對策:目前落伍已經有人發了對策文章 ,具體對策就看這個吧《ASP小偷程序如何利用XMLHTTP實現表單的提交以及cookies或session的發送》
建議:目前沒有好的改良建議
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的采集程序,還是有點效果的。
五、用javascript、vbscript腳本做分頁
弊端:影響搜索引擎對其收錄
采集對策:分析javascript、vbscript腳本,找出其分頁規則,自己做個對應此站的分頁集合頁即可。
建議:目前沒有好的改良建議
評論:感覺懂點腳本語言的人都能找出其分頁規則
六、只允許通過本站頁面連接查看,如:Request.ServerVariables("HTTP_REFERER")
弊端:影響搜索引擎對其收錄
采集對策:不知道能不能模擬網頁來源。。。。目前我沒有對應此方法的采集對策
建議:目前沒有好的改良建議
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的采集程序,還是有點效果的。
從以上可以看出,目前常用的防采集方法,要麼會對搜索引擎收錄有較大影響,要麼防采集效果不好,起不到防采集的效果。那麼,還有沒有一種有效防采集,而又不影響搜索引擎收錄的方法呢?那就請繼續往下看吧!