网站添加robots.txt后为什么百度蜘蛛还能爬行?

robots.txt是限制抓取内容还是限制爬行的... robots.txt是限制抓取内容还是限制爬行的 展开
 我来答
逍遥乱弹互联网说
2012-12-01 · TA获得超过549个赞
知道小有建树答主
回答量:611
采纳率:0%
帮助的人:445万
展开全部
限制爬行和抓取,如果添加robots之后,日志显示还在爬行,有两种情况:
1.robots还未生效,因为robots文件需要百度抓取之后才能生效,有一个过程;
2.robots生效了,但是robots规则没有写对。

理论上robots生效了并且规则对的话,是不会爬行的。但是robots屏蔽了爬行,不代表没有索引,索引的标题来源有很多种:一种是外部链接的锚文本,一种是旧的快照的标题和内容,还有一种是网址导航中的标题和描述等。所以不代表robots屏蔽了,就搜不到了。
来自:求助得到的回答
生安惠K
2012-12-01 · 贡献了超过188个回答
知道答主
回答量:188
采纳率:0%
帮助的人:44.3万
展开全部
你要看一下返回码是什么,如果是200,那就是抓取到了。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式