网站robots文件是做什么的?

对网站有什么作用?... 对网站有什么作用? 展开
 我来答
帐号已注销
2018-04-07
知道答主
回答量:13
采纳率:50%
帮助的人:2.5万
展开全部
我们先来了解一下什么是robots.txt?

搜索引擎使用spider程序自动访问互联网上的网页并获取网页 信息。spider在访问一个网站时,会首先会检查该网站的根域 下是否有一个叫做robots.txt的纯文本文件。您可以在您的网 站中创建一个纯文本文件robots.txt,在文件中声明该网站中 不想被robot访问的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当您的网站包含不希望被搜索引擎收录的内容时, 才需要使用robots.txt文件。如果您希望搜索引擎收录网站上 所有内容,请勿建立robots.txt文件或者创建一个内容为空的 robots.txt文件。

robots.txt 放置位置

robots.txt文件应该放置在网站根目录下。举例来说,当 spider访问一个网站比如企腾动力时,首先会检查该网站中是否存在qitengdongli.com/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式