robots文件是什么意思?他对网站的优化能起到什么作用?

 我来答
匿名用户
2013-10-12
展开全部
Rbots.txt 是什么:
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
语法:最简单的 robots.txt 文件使用两条规则:
User-Agent: 适用下列规则的漫游器
Disallow: 要拦截的网页
下载该robots.txt文件
robots.txt 有几个常用的写法;
全部开放或全部禁止
{
User-agent: * //表示站内针地所有搜索引擎开放;
Allow: / //允许索引所有的目录;
User-agent: * //表示站内针地所有搜索引擎开放;
Disallow: / //禁止索引所有的目录;
User-agent: * //表示站内针地所有搜索引擎开放;
Disallow: //允许索引所有的目录;
}
这里呢,可以把[网站地图(Sitemap)] 也加进来,引导搜索引擎抓取网站地图里的内容。
Sitemap:
Robots.txt 使用方法:
例1. 禁止所有搜索引擎访问网站的任何部分
Disallow: /
例2. 允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
例3. 仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
例4. 仅允许Baiduspider访问您的网站
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
例5. 禁止spider访问特定目录
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
例6.要阻止 Googlebot 抓取特定文件类型(例如,.gif)的所有文件
User-agent: Googlebo
tDisallow: /*.gif$
例7.要阻止 Googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串)
User-agent: Googlebot
Disallow: /*? 更多有才资料: http://www.seorv.com
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
博阳精讯
2024-07-25 广告
端到端优化(End-to-end Optimization)是指在机器学习或深度学习中,通过优化整个系统的性能来提高最终的输出结果。这种优化方法侧重于整个系统的端到端性能,而不是单独优化每个组件或模块。在深度学习中,端到端优化通常指的是将整... 点击进入详情页
本回答由博阳精讯提供
匿名用户
2013-10-12
展开全部
简单的说就是否允许搜索引擎(所有的)访问你的网站,并且访问网站的哪些目录,哪些文件。对网站优化的作用就是让搜索引擎按照你的方式来访问你网站的内容
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 1条折叠回答
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式