網(wǎng)站避免蜘蛛爬行隱秘文件之robots.txt爬行語法規(guī)則

[重要通告]如您遇疑難雜癥,本站支持知識付費(fèi)業(yè)務(wù),掃右邊二維碼加博主微信,可節(jié)省您寶貴時間哦!

網(wǎng)站避免蜘蛛爬行隱秘文件之robots.txt爬行語法規(guī)則
================================
網(wǎng)站蜘蛛robots.txt爬行語法規(guī)則如下哈:
robots.txt語法其實(shí)很簡單,robots.txt是一個最簡單的.txt文件,
用以告訴搜索引擎哪些網(wǎng)頁可以收錄,哪些不允許收錄。
那今天本博客就先為大家介紹robots.txt語法基礎(chǔ)知識,
然后再提供幾個經(jīng)常要用到的robots.txt語法例子給朋友們參考。
robots.txt語法規(guī)則
最簡單的 robots.txt 語法使用兩條規(guī)則:
  User-Agent: 后面為搜索機(jī)器人的名稱,后面如果是*,則泛指所有的搜索機(jī)器人
  Disallow: 限制搜索引擎不能訪問網(wǎng)站中的哪些部分,Disallow后可以寫目錄名,文件擴(kuò)展名,特定的程序文件結(jié)構(gòu)。
robots.txt語法示例
讓所有機(jī)器人訪問所有文件(通配符”*”表示所有的意思)
1、攔截所有的機(jī)器人訪問網(wǎng)站
User-agent: *
Disallow: /
2、禁止所有機(jī)器人訪問特定目錄:
User-agent: *
Disallow: /public/
Disallow: /images/
Disallow: /temp/
Disallow: /include/
3、禁止特定搜索引擎蜘蛛訪問特定目錄(這里我們以百度蜘蛛為例說明)
User-agent: Baiduspider
Disallow: /test/
上面的robots.txt語法示例的意思是禁止百度蜘蛛爬行根目錄下的test目錄
4、僅禁止Baiduspider抓取.jpg格式圖片的robots.txt語法
User-agent: Baiduspider
Disallow: .jpg$
大家在學(xué)習(xí)robots.txt語法時,可能會感到納悶的是:有那么多搜索引擎,那我不是要知道所有搜索引擎蜘蛛的名字。并不是這樣的,我們只要知道常見的搜索引擎名字就可以了。下面就帶大家來認(rèn)識幾大個搜索引擎蜘蛛名稱。
1、Google爬蟲名稱: Googlebot
2、百度(Baidu)爬蟲名稱:Baiduspider
3、雅虎(Yahoo)爬蟲名稱:Yahoo Slurp
4、有道(Yodao)蜘蛛名稱:YodaoBot
5、搜狗(sogou)蜘蛛名稱:sogou spider
6、MSN的蜘蛛名稱(微軟最新搜索引擎Bing蜘蛛名也是這個):Msnbot

問題未解決?付費(fèi)解決問題加Q或微信 2589053300 (即Q號又微信號)右上方掃一掃可加博主微信

所寫所說,是心之所感,思之所悟,行之所得;文當(dāng)無敷衍,落筆求簡潔。 以所舍,求所獲;有所依,方所成!

支付寶贊助
微信贊助

免責(zé)聲明,若由于商用引起版權(quán)糾紛,一切責(zé)任均由使用者承擔(dān)。

您必須遵守我們的協(xié)議,如您下載該資源,行為將被視為對《免責(zé)聲明》全部內(nèi)容的認(rèn)可->聯(lián)系老梁投訴資源
LaoLiang.Net部分資源來自互聯(lián)網(wǎng)收集,僅供用于學(xué)習(xí)和交流,請勿用于商業(yè)用途。如有侵權(quán)、不妥之處,請聯(lián)系站長并出示版權(quán)證明以便刪除。 敬請諒解! 侵權(quán)刪帖/違法舉報/投稿等事物聯(lián)系郵箱:service@laoliang.net
意在交流學(xué)習(xí),歡迎贊賞評論,如有謬誤,請聯(lián)系指正;轉(zhuǎn)載請注明出處: » 網(wǎng)站避免蜘蛛爬行隱秘文件之robots.txt爬行語法規(guī)則

發(fā)表回復(fù)

本站承接,網(wǎng)站推廣(SEM,SEO);軟件安裝與調(diào)試;服務(wù)器或網(wǎng)絡(luò)推薦及配置;APP開發(fā)與維護(hù);網(wǎng)站開發(fā)修改及維護(hù); 各財務(wù)軟件安裝調(diào)試及注冊服務(wù)(金蝶,用友,管家婆,速達(dá),星宇等);同時也有客戶管理系統(tǒng),人力資源,超市POS,醫(yī)藥管理等;

立即查看 了解詳情