织梦robots文件怎么写利于seo优化

 我来答
百度网友b297f2881
2016-02-20 · TA获得超过933个赞
知道小有建树答主
回答量:1093
采纳率:100%
帮助的人:483万
展开全部
robots文件,是网站和搜索引擎之间用来进行交流的一个协议
里面告诉搜索引擎什么内容不要去抓取,什么是可以抓取的,可以充分的利于蜘蛛抓取配额
不会浪费蜘蛛去抓取网站上面,没有意义的内容,让蜘蛛更多的去抓取想要被抓取的内容。
楼主可以到seo 十万个为什么里面去多了解下robots方面的知识哦。
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式