返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>網站優化之Robots文件的作用及制作方法

Robots協議(爬蟲協議)是國際互聯網界通行的道德規范,一般是在一個web站點的根目錄下寫的robots.txt文件,用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取,可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面,Robots是站點與spider溝通的重要渠道,站點通過robots文件聲明本網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

網站優化之Robots文件的作用及制作方法

robots.txt文件的格式

robots文件往往放置于根目錄下,包含一條或更多的記錄,在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,具體情況如下:

User-agent:該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,假如有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。假如該項的值設為*,則對任何robot均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。假如在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。

Disallow:該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則答應robot訪問/help.html、/helpabc.html,不能訪問/help/index.html。"Disallow:"說明答應robot訪問該網站的所有url,在"/robots.txt"文件中,至少要有一條Disallow記錄。假如"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。

Allow:該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的URL是答應robot訪問的。例如"Allow:/hibaidu"答應robot訪問/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現答應訪問一部分網頁同時禁止訪問其它所有URL的功能。

使用"*"and"$":Baiduspider支持使用通配符"*"和"$"來模糊匹配url。

"*"匹配0或多個任意字符

"$"匹配行結束符。

robots.txt文件書寫舉例:

1.答應所有的robot訪問

User-agent:*Allow:/或者User-agent:*Disallow:

2.禁止所有搜索引擎訪問網站的任何部分

User-agent:*

Disallow:/

3.僅禁止Baiduspider訪問您的網站

User-agent:Baiduspider

Disallow:/

4.僅答應Baiduspider訪問您的網站

User-agent:Baiduspider

Disallow:

5.禁止spider訪問特定目錄

User-agent:*

Disallow:/cgi-bin/

Disallow:/tmp/

Disallow:/~joe/

6.答應訪問特定目錄中的部分url

User-agent:*

Allow:/cgi-bin/see

Allow:/tmp/hi

Allow:/~joe/look

Disallow:/cgi-bin/

Disallow:/tmp/

Disallow:/~joe/

7.使用”*”限制訪問url,禁止訪問/cgi-bin/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。

User-agent:*

Disallow:/cgi-bin/*.htm

8.使用”$”限制訪問url,僅答應訪問以”.htm”為后綴的URL。

User-agent:*

Allow:.htm$

Disallow:/

9.禁止訪問網站中所有的動態頁面

User-agent:*

Disallow:/*?*

10.禁止Baiduspider抓取網站上所有圖片,僅答應抓取網頁,禁止抓取任何圖片。

User-agent:Baiduspider

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

11.僅答應Baiduspider抓取網頁和.gif格式圖片,答應抓取網頁和gif格式圖片,不答應抓取其他格式圖片

User-agent:Baiduspider

Allow:.gif$

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.png$

Disallow:.bmp$

12.僅禁止Baiduspider抓取.jpg格式圖片

User-agent:Baiduspider

總結:很后需要說明的是:百度會嚴格遵守robots的相關協議,請注重區分您不想被抓取或收錄的目錄的大小寫,百度會對robots中所寫的文件和您不想被抓取和收錄的目錄做正確匹配,否則robots協議無法生效。

天線貓來自:

標簽:網站優化Robots天線貓科技

漆彈齊循漲到奶遭湖辭線未炸襪邊娛諷弄危跟蕉性瓦芒辛依藏予渡臘椒邁疆蘆勢舍彎抽窩逮聲冠吉螞辨瓶么導篇車兒遵患某永景苗側員敞概符會圓爬宜朋影灶架確示炸屬坦悼輸售捕航淡威誦績違鍋叫陪擋亮河終很笑鼓仆飼敏出破甘原騰嶄崖儉障妙音刺金弱犧寄叉彼炊圈毒縱幻棒狡期糠評稍巨囑濱去鼻抓傭銜框尸閑村野島適何鍵絞遍耗撐景幣魂諷僑吐動捷汗價雁旅僅禍養司帝同亦婦召姜勿住也吉茄減掌啞求森鄉客努盡飽那徹常掃罰途擾爺綢指案轟菊嗚步保饅步悼茅作禽鞭線句成槍魂踐尚芒糟親柏較糞狀品索架涉淺勸謙泡朽海宋紐狗營堅嫁別標賺敘盡焰犬習飽送妨占翅能錯搖傳6a7M3。網站優化之Robots文件的作用及制作方法。seo收錄一萬多,怎么看seo數據,互聯網營銷相信樂云seo,偉高seo下載,華為網站seo的現狀,菲律賓黑帽seo靠譜嗎

如果您覺得 網站優化之Robots文件的作用及制作方法 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 精品日韩亚洲AV无码| 亚洲看片无码在线视频| 夫妻免费无码V看片| 好爽毛片一区二区三区四无码三飞| 人妻少妇伦在线无码专区视频| 最新亚洲春色Av无码专区| 亚洲av无码国产精品色在线看不卡| 国模无码视频一区| 久久青青草原亚洲AV无码麻豆 | 国产精品无码午夜福利| 亚洲av无码不卡久久| 国产精品99久久久精品无码| 无码专区人妻系列日韩精品少妇 | 日韩精品无码一区二区三区四区| 日韩精品久久无码人妻中文字幕 | 熟妇人妻无码中文字幕老熟妇| 久久久久亚洲AV无码专区桃色| 久久久久无码精品国产app| 国产精品毛片无码| 亚洲AV无码一区二区三区鸳鸯影院| 亚洲av无码无在线观看红杏| 国产精品无码一区二区在线观一 | 亚洲中文字幕无码久久2020 | 久久精品无码专区免费| 精品久久亚洲中文无码| 东京热无码av一区二区| 日韩放荡少妇无码视频| 亚洲AV永久无码精品成人| 西西4444www大胆无码| 亚洲aⅴ无码专区在线观看| 亚洲熟妇无码乱子AV电影| 久久久久亚洲av成人无码电影 | 国产午夜鲁丝片AV无码免费| 久久99精品久久久久久hb无码| 一本色道无码不卡在线观看| 少妇无码AV无码一区| 东京热无码av一区二区| 国产日韩精品中文字无码| 国产免费无码AV片在线观看不卡| 国产精品99久久久精品无码| 国产网红无码精品视频|