如何使用robots禁止各大搜索引擎爬蟲(chóng)爬取網(wǎng)站
1、搜索引擎在爬取網(wǎng)站前會(huì)做什么?
一般來(lái)說(shuō)搜索引擎爬取網(wǎng)站時(shí)都會(huì),先讀取下robots.txt文件,并依照里面所設(shè)定的規(guī)則去爬取網(wǎng)站(當(dāng)然是指沒(méi)用登錄限制的頁(yè)面)
2、robots.txt文件的內(nèi)容和結(jié)構(gòu)是怎樣的?
1).robots.txt文件必須是放在文件根目錄上:
例如:
├─admin
│ └─templates
│ header.tpl.php
│ task_add.tpl.php
│ └─robots.txt
2 ) .首先常用的命令為
User-agent : 可以具體制定User-agent適用,即搜索引擎的名字,如果為 * 的話則為通配
Disallow : 可以設(shè)定檔案或文件夾,不允許被爬蟲(chóng)爬取,且為 / 時(shí)禁止爬取整站 ,也可以指定文件路徑,不可爬取
Crawl-delay: 延時(shí)爬取,防止爬蟲(chóng)短時(shí)間內(nèi)爬取網(wǎng)站過(guò)快導(dǎo)致網(wǎng)站崩潰,則可以設(shè)置該延時(shí)
Allow : 允許爬取指定頁(yè)面, 為 / 時(shí)爬取整站
3) 搜索引擎別稱
Googlebot 谷歌
Baiduspider 百度
等等
3、搜索引擎的好處和壞處是什么?
不好的地方會(huì)增加網(wǎng)站的訪問(wèn)負(fù)荷;有時(shí),還會(huì)涉及到用戶的隱私;
好的地方也是增加了訪問(wèn)流量;
4、一般徹底防止爬蟲(chóng)用什么方法?
如果需要防止的話,就需要監(jiān)測(cè)網(wǎng)站,把一些不良網(wǎng)絡(luò)爬蟲(chóng)的給堵止掉,一般是封IP。
robots.txt只能防止有品的爬蟲(chóng)來(lái)爬
5、如何使用robots禁止各大搜索引擎爬蟲(chóng)爬取網(wǎng)站
1.原來(lái)一般來(lái)說(shuō)搜索引擎爬取網(wǎng)站時(shí)都會(huì),先讀取下robots.txt文件,并依照里面所設(shè)定的規(guī)則去爬取網(wǎng)站(當(dāng)然是指沒(méi)用登錄限制的頁(yè)面)
2.下面我們就來(lái)說(shuō)一說(shuō)如何設(shè)置robots.txt文件
1).robots.txt文件必須是放在文件根目錄上:
例如:
├─admin
│ └─templates
│ header.tpl.php
│ task_add.tpl.php
│ └─robots.txt
2 ) .首先常用的命令為
User-agent : 可以具體制定User-agent適用,即搜索引擎的名字,如果為 * 的話則為通配
Disallow : 可以設(shè)定檔案或文件夾,不允許被爬蟲(chóng)爬取,且為 / 時(shí)禁止爬取整站 ,也可以指定文件路徑,不可爬取
Crawl-delay: 延時(shí)爬取,防止爬蟲(chóng)短時(shí)間內(nèi)爬取網(wǎng)站過(guò)快導(dǎo)致網(wǎng)站崩潰,則可以設(shè)置該延時(shí)
Allow : 允許爬取指定頁(yè)面, 為 / 時(shí)爬取整站
3) 搜索引擎別稱
Googlebot 谷歌
Baiduspider 百度
等等
類似我們測(cè)試環(huán)境就設(shè)置了
User-agent : / 所有搜索引擎
Disallow : / 禁止整站
總結(jié)
User-agent: *
Disallow: /
就可以了..