怎样写robots.txt,才能不让爬虫抓取某个文件夹中的其中一个文件?

文件夹blog该文件夹内文件photo.asp和journal.asp、speak.asp、dy.asp我想让爬虫抓取photo.asp和journal.asp,只屏蔽s... 文件夹blog
该文件夹内文件photo.asp和journal.asp、speak.asp、dy.asp
我想让爬虫抓取photo.asp和journal.asp,只屏蔽speak.asp和dy.asp
怎么写robots.txt?
展开
 我来答
风驰电掣happy
2019-07-08 · TA获得超过136个赞
知道小有建树答主
回答量:226
采纳率:63%
帮助的人:79.8万
展开全部
robots.txt
这只是网页开发者写的一个robots协议,我们爬虫可以遵守也可以不准守说白了只是个声明罢了
你要真要写就
User-agent: *
Disallow: 一般是接口,或者网页文本的匹配格式
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式