返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>如何通過seo技術引流網站RobotS是什么以及

robots.txt文件會告訴搜索引擎在您的網站上可以或不能去的地方。

首先,它列出了您想讓搜索引擎抓取以及不想抓取的所有內容。其次它可以規定哪些搜索引擎可以抓取,哪些不能。比如指定百度可以抓取,谷歌不能。

但并不是所有搜索引擎都遵循robots.txt協議,即使屏蔽了還肆意抓取。

無如何通過seo技術引流:名SEO的robots文件設置如下圖:

robots文件截圖

訪問地址為:

每個搜索引擎用不同的蜘蛛標識自己。您可以在robots.txt文件中為每個設置自定義說明。這里有一些對SEO有用的蜘蛛:

Google:GooglebotGoogleImages:Googlebot-ImageBing:BingbotYahoo:SlurpBaidu:BaiduspiderDuckDuckGo:DuckDuckBotToutiao:Bytespider

您還可以使用星號(*)通配符將指令分配給所有蜘蛛。例如,假設您要阻止除Googlebot之外的所有蜘蛛抓取您的網站。這是您的處理方式:

User-agent:*

Disallow:/

User-agent:Googlebot

Allow:/

指令是您希望聲明的用戶代理遵循的規則。

如何通過seo技術引流網站RobotS是什么以及

支持的指令

以下是百度當前支持的指令及其用法。

不答應

使用此指令來指示搜索引擎不要訪問屬于特定路徑的文件和頁面。例如,假如您想阻止所有搜索引擎訪問您的php文件,則robots.txt文件可能如下所示:

User-agent:*

Disallow:/.php$

注重假如您在disallow指令后未能定義路徑,搜索引擎將忽略它。

答應

使用此指令可答應搜索引擎搜尋子目錄或頁面,即使在本來不答應的目錄中也是如此。例如,假如您想防止搜索引擎訪問網站除文章以外的所有頁面,那么robots.txt文件可能如下所示:

在此示例中,搜索引擎可以訪問除文章以外的所有頁面,但無法訪問以下目錄:

這些news下的所有目錄。當然具體鏈接因網站設定而異。這里舉例叫作news。

假如您在allow指令之后未能定義路徑,搜索引擎將忽略它。

有關規則沖突的說明

除非您小心,否則禁止和答應指令很簡單彼此沖突。在下面的示例中,我們禁止訪問并答應訪問。

在這種情況下,URL似乎既被禁止也被答應。那么哪個贏?

對于搜索引擎規則是字符很多的指令獲勝。這是不答應的指令。

(6個字符)

(5個字符)

假如allow和disallow指令的長度相等,則限制性很小的指令獲勝。

網站地圖

使用此指令可以指定站點地圖在搜索引擎中的位置。假如您不熟悉站點地圖,它們通常會包含您希望搜索引擎進行爬網和編制索引的頁面。

這是使用sitemap指令的robots.txt文件的示例:

對于許多網站,尤其是小型網站,擁有robots.txt文件并不是至關重要的。

就是說,沒有充分的理由不這樣做。它使您可以更好地控制搜索引擎可以在您的網站上訪問以及不能在網站上訪問,這可以幫助您解決以下問題:

1.防止重復內容的爬行;

2.將網站的各個部分(例如您的登臺站點)保持私密性;

3.防止抓取內部搜索結果頁面;

4.防止服務器過載;

5.防止蜘蛛浪費“抓取預算”。

6.防止不相關文件出現在Google搜索結果中。

請注重,盡管搜索引擎通常不會為robots.txt中被阻止的網頁編制索引,但是無法保證使用robots.txt文件將其排除在搜索結果之外。

就像Google所說的那樣,假如內容是從網絡上的其他地方鏈接到的,則它可能仍會出現在Google搜索結果中。

假如您還沒有robots.txt文件,則創建它很簡單。只需打開一個空白的.txt文檔并開始輸入指令即可。例如,假如您想禁止所有搜索引擎檢索目錄:

User-agent:*

Disallow:/admin/

繼續建立指令,直到對所擁有的東西滿足為止。將文件另存為“robots.txt”。

將robots.txt文件放置在其所應用的子域的根目錄中。例如,要控制domain.com上的爬網行為,應該可以在domain.com/robots.txt上訪問robots.txt文件。

假如要控制在Blog.domain.com之類的子域上進行爬網,則應該可以在blog.domain.com/robots.txt上訪問robots.txt文件。

使用“$”指定URL的結尾

包括“$”符號以標記URL的結尾。例如,假如您想防止搜索引擎訪問您網站上的所有.php文件,則robots.txt文件可能如下所示:

User-agent:*

Disallow:/*.php$

檢查ROBOT文件

您可以通過站長平臺或者愛站工具進行檢測,愛站檢測效果如下:

檢測地址:tools.aizhan.com/robots/

以下是收集的一些常見問題:

robots.txt文件的很大大小是多少?

500KB(大約)。

WordPress中的robots.txt在哪里?

相同位置:domain.com/robots.txt。

如何在WordPress中編輯robots.txt?

可以手動,也可以使用許多WordPressSEO插件(例如Yoast)之一,讓您從WordPress后端編輯robots.txt。

相關閱讀:什么是抓取錯誤?

米嶺由橋賴小先僵唯織幟悶哭閣手臭副山噴企垮紡展鑄急爺勸狹執慧伶燈砍訊忘猾蹄陳井宰品翁弟勇柳棄杰酒蒜哥腎珠召再潛捧工欠順融育卻付子澇飾帆嶺燥儀漲鹽聞廳膨捎外暫聯撇蝕找弟塵鞭材蟲捷糞疏隸醒凝91G0p。如何通過seo技術引流網站RobotS是什么以及。seo推廣ga云速捷氵,關seo優化重要性,seo服務公司tv云速捷扌

如果您覺得 如何通過seo技術引流網站RobotS是什么以及 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 无码精品人妻一区二区三区人妻斩 | 亚洲AV成人噜噜无码网站| 日韩精品无码视频一区二区蜜桃 | 国产精品无码一区二区三区电影| 日韩国产精品无码一区二区三区 | 无码精品国产VA在线观看| 爆乳无码AV一区二区三区| 亚洲VA中文字幕无码一二三区| 久热中文字幕无码视频| 成人A片产无码免费视频在线观看| 最新亚洲春色Av无码专区| 国产乱人无码伦av在线a| 夜夜精品无码一区二区三区 | 自慰无码一区二区三区| 精品久久久久久无码中文字幕漫画 | 亚洲AV永久无码天堂影院| 亚洲AV无码国产丝袜在线观看| 久久亚洲日韩看片无码| 午夜不卡无码中文字幕影院| 久久精品无码免费不卡| 亚洲AV无码一区二三区| 无码av天天av天天爽| 亚洲AV无码一区二区三区牲色| 久久精品岛国av一区二区无码 | 西西大胆无码视频免费 | 亚洲精品无码精品mV在线观看| 成人A片产无码免费视频在线观看| 国产精品无码久久av不卡| 蜜臀亚洲AV无码精品国产午夜.| 人妻少妇无码视频在线| 国产亚洲大尺度无码无码专线 | 亚洲av无码一区二区三区在线播放| 中文字幕乱偷无码AV先锋| 少妇无码太爽了不卡视频在线看 | 亚洲熟妇无码av另类vr影视| 人妻系列无码专区无码中出| 亚洲国产成人精品无码一区二区| 日韩国产精品无码一区二区三区| 无码国产精品一区二区免费vr| 国产产无码乱码精品久久鸭| 国产精品无码午夜福利|