網(wǎng)站基礎(chǔ)優(yōu)化有很多,其中robots協(xié)議就是其中之一,今天就來談?wù)劙俣?strong>robots協(xié)議解析,關(guān)于robots協(xié)議寫法的相關(guān)問題。寫好robots協(xié)議文件有助于我們的網(wǎng)站更快的收錄及保護(hù)好網(wǎng)站。
?
一、什么是robots協(xié)議?
?
它是給于網(wǎng)站與蜘蛛之間的一種協(xié)議文件,所以其也可以稱之為爬蟲協(xié)議或者機(jī)器人協(xié)議。而百度站長平臺給出的官方叫法是“網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)”,通過這個文件網(wǎng)站管理員可以規(guī)定蜘蛛來到網(wǎng)哪里可以爬取,哪里不能爬取。
?
二、robots協(xié)議的意義
?
整個網(wǎng)站是由網(wǎng)站內(nèi)容,程序,數(shù)據(jù)庫信息等等相關(guān)的組合在一起搭建起來的,而網(wǎng)站里面的東西不是什么都需打百度蛛蛛爬取收錄的,有的東西不能讓其收錄,如網(wǎng)站后臺地址、登錄信息,網(wǎng)站模板文件等等,這些東東西如果被蜘蛛爬收錄了,不僅會降低網(wǎng)站排名的收錄頁面得分,還會泄露網(wǎng)站重要信息。
?
為了避免這一情況的出現(xiàn),robots協(xié)議就在中間起到了重要的作用。
?
三、robots協(xié)議文件的格式及寫法
?
User-agent:
?
該項(xiàng)的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受到該協(xié)議的限制,對該文件來說,至少要有一條User-agent記錄。
?
如果該項(xiàng)的值設(shè)為*,則該協(xié)議對任何機(jī)器人均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。
?
一般都是用"User-agent:*",允許所有引擎蜘蛛到網(wǎng)站收錄頁面。
?
Disallow :
?
該項(xiàng)的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開頭的URL均不會被robot訪問到。
?
例如:
?
"Disallow: /help"
對/help.html和/help/index.html都不允許搜索引擎訪問,
?
而"Disallow:/help/"
則允許robot訪問/help.html,而不能訪問/help/index.html。
?
任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問,在"robots.txt"文件中,至少要有一Disallow記錄。
?
如果"robots.txt"是一個空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。
?
四、robots.txt文件放在哪里?
?
robots協(xié)議應(yīng)該放在網(wǎng)站根目錄下面,當(dāng)蜘蛛來了網(wǎng)站時第一時間是查看robots文件協(xié)議,然后會根據(jù)這個文件的協(xié)議規(guī)則來對網(wǎng)站內(nèi)容進(jìn)行爬取及收錄頁面。
?