本文目錄一覽:
- 1、robots.txt可不可以屏蔽js或者css?
- 2、如何防止js和css緩存
- 3、iphone的微信內置瀏覽器網頁,怎樣用js或者css禁止複製內容
- 4、在css裡面怎麼過濾JS腳本
- 5、有沒有辦法讓網頁禁止另存JS和CSS
robots.txt可不可以屏蔽js或者css?
本帖最後由 ccutu 於 2015-4-26 03:12 編輯
最近發現百度蜘蛛每日抓取網站的js和css文件非常頻繁,甚至能占每日抓取量的五分之一,百度蜘蛛每日抓取5000次,其中單獨抓取js和css文件就有一千多次。
遇到這種情況,是否應該屏蔽蜘蛛抓取上述文件??
已經收到比較正確的答案,來源自版主:lvxianlei2010
需要說明,下面為個人見解:
1、robots全部屏蔽掉不太建議,因為隨着網頁的發展,資源種類越來越多,蜘蛛需要分析;
2、根據之前看到的百度對網頁主體內容模板的專利的簡單介紹可以得出下面幾個觀點:
A、百度能夠根據前台頁面的鏈接布局、框架,判斷出一個站點的主要頁面類型,及各頁面適合用戶瀏覽的主體內容;
B、因此如果js、css等如果對蜘蛛判斷站點的主體內容沒有什麼影響,比如遮罩、跟蹤用戶行為返回區域內容變化,那麼屏蔽完全可以,但是從實際的例子來說可能對站點其他主體內容頁面的抓取頻次沒有多大幫助,因為主體內容與js、css本來就互不相關的兩類東西;
C、如果js、css等如果對蜘蛛判斷站點的主體內容有影響,如包含較多網址、圖片地址、有效資源地址、文字資源等建議不屏蔽,蜘蛛爬取js/css文件的同時可以爬取裡面的內容,並且盡量簡單處理,不要採用ajax或多重邏輯判斷的代碼;
經過上述處理後,如果發現有價值的js、css抓取次數還是較多,那麼建議使用百度的抓取頻次工具,反饋提高下,對一個站點的抓取頻次現在可以對百度進行反饋。
如何防止js和css緩存
解決辦法一:每次修改js或css文件後,都要手工修改那個版本號,注意:是每修改一次(哪怕僅僅是改了一個字符)都要修改版本號;
解決辦法二:如果嫌手工修改太麻煩,那可以通過程序來自動修改(用隨機數做版本號)。如果你的網站是動態的,那可以通過後台程序來改,比如ASP的:
link rel=”stylesheet” href=”static/mimi/css/main.css?v=%=rnd()%” type=”text/css”/
PHP的:
link rel=”stylesheet” href=”static/mimi/css/main.css?v=?php echo mt_rand(); ?” type=”text/css”/
如果是靜態網站那就要js腳本來實現了,這個稍微麻煩點,這裡就不說了。
其實上述方法一和方法二的目的都是為了使每次打開的js或css的url不同,這樣瀏覽器就不會去緩存區取數據,而是直接到網站下載。
如果上述方法仍然無效,那就是你的瀏覽器的緩存機制存在問題,比如“從不檢查網頁的新版本,除非手動刷新”,這個就要你自己去設置了。
iphone的微信內置瀏覽器網頁,怎樣用js或者css禁止複製內容
添加css樣式,html,body{-webkit-user-select:none},整個網頁就不能複製內容了,或者定義類或id,給特定的內容設置不能複製
在css裡面怎麼過濾JS腳本
CSS3也沒這能力,估計CSS100也木有這能力。[:338:]呵呵知道你在下啥了。ABP擋不了,因為是彈出窗口,還真沒法擋,我試過給頁面加入干擾讓 openpage() 失效,可是沒成功。在找找Chrome擋彈窗的CRX吧~找到分離哦~
有沒有辦法讓網頁禁止另存JS和CSS
沒有……除非用另一種載入的辦法。讓想下載的找不到下載路徑
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/291924.html