很多時(shí)候我們網(wǎng)站中的一些頁面不想被搜索引擎收錄,哪些頁面呢?比如自己網(wǎng)站中內(nèi)部網(wǎng)站,僅供內(nèi)容員工使用的網(wǎng)站功能模塊,這些模塊是我們?cè)?/span>網(wǎng)站建設(shè)的時(shí)候就要做好規(guī)劃的,這部分我們可以使用ROBOTS的方式讓搜索引擎不收錄。
robots.txt正確寫法
正如前面提到的,一些頁面我們不想讓百度和google收錄,那怎么辦?我們可以告訴搜索引擎,和搜索引擎達(dá)成一個(gè)約定,如果我們按約定那樣做了,它們就不要收錄,寫一個(gè)robots.txt文件。
這個(gè)寫約定的的文件命名為:robots.txt。robots.txt是一個(gè)最簡(jiǎn)單的.txt文件,用以告訴搜索引擎哪些網(wǎng)頁可以收錄,哪些不允許收錄。
網(wǎng)站建設(shè)時(shí)robots.txt需要注意以下幾點(diǎn):
如果你的站點(diǎn)對(duì)所有搜索引擎公開,則不用做這個(gè)文件或者robots.txt為空就行。文件名字必須命名為:robots.txt,都是小寫,并且要注意拼寫的正確性,robot后面加"s"。很多網(wǎng)站制作的朋友比較大意,拼寫錯(cuò)誤讓工作白做了。
再就是robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下。如:通過http://www.....cn/robots.txt 可以成功訪問到,這就說明我們的文件的位置放置正確。一般情況下,robots.txt里只寫著兩個(gè)函數(shù):User-agent和 Disallow。有幾個(gè)需要禁止,就得有幾個(gè)Disallow函數(shù),并分行描述。至少要有一個(gè)Disallow函數(shù),如果都允許收錄,則寫: Disallow: ,如果都不允許收錄,則寫:Disallow: / (注:只是差一個(gè)斜桿)。
以上是上海網(wǎng)站制作公司總結(jié)出來的幾個(gè)要點(diǎn),針對(duì)不允許搜索引擎收錄的處理方式,供大家參考。
本文由上海藝覺網(wǎng)絡(luò)科技有限公司(http://dcbbl.cn)原創(chuàng)編輯轉(zhuǎn)載請(qǐng)注明。