网站robots文件的作用是什么?

 我来答
miniappfvH6vzhWHJ6BS
2014-11-17 · TA获得超过5524个赞
知道小有建树答主
回答量:1441
采纳率:57%
帮助的人:921万
展开全部

Robots.txt文件的作用:

1、屏蔽网站内的死链接。

2、屏蔽搜索引擎蜘蛛抓取站点内重复内容和页面。

3、阻止搜索引擎索引网站隐私性的内容。

因此建立robots.txt文件是很有必要的,网站中重复的内容、页面或者404信息过多,搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常听到的“降低权重”,这样网站的排名就不好了。

robots.txt文件需要注意的最大问题是:必须放置在一个站点的根目录下,而且文件名必须全部小写。

robots.txt文件的基本语法只有两条,第一条是:User-agent,即搜索引擎蜘蛛的名称;第二条是:Disallow,即要拦截的部分。

下面我们看一下撰写基本的robots.txt文件所需要知道的一些语法和作用。

(1),允许所有的搜索引擎访问网站的所有部分或者建立一个空白的文本文档,命名为robots.txt。

User-agent:*Disallow:或者User-agent:*Allow:/

(2),禁止所有搜索引擎访问网站的所有部分。

User-agent:*Disallow:/

(3),禁止百度索引你的网站。

User-agent:BaiduspiderDisallow:/

(4),禁止Google索引你的网站。

User-agent:GooglebotDisallow:/

(5),禁止除百度以外的一切搜索引擎索引你的网站。

User-agent:BaiduspiderDisallow:User-agent:*Disallow:/

(6),禁止除Google以外的一切搜索引擎索引你的网站。

User-agent:GooglebotDisallow:User-agent:*Disallow:/

(7),禁止和允许搜索引擎访问某个目录,如:禁止访问admin目录;允许访问images目录。

User-agent:*Disallow:/admin/Allow:/images/

(8),禁止和允许搜索引擎访问某个后缀,如:禁止访问admin目录下所有php文件;允许访问asp文件。

User-agent:*Disallow:/admin/*.php$Allow:/admin/*.asp$

(9),禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,如:index.php?id=8)。

User-agent:*Disallow:/*?*

深圳联雅网络科技有限公司
2023-08-27 广告
作为深圳联雅网络科技有限公司的工作人员,我认为网站搭建需要经过以下步骤:1. 确定网站的目的和主题,以及目标受众群体。2. 选择适合的网站平台和域名,并购买和注册域名。3. 设计网站的页面布局和风格,并编写HTML和CSS代码。4. 添加网... 点击进入详情页
本回答由深圳联雅网络科技有限公司提供
我是姑苏才子
2016-11-01 · TA获得超过443个赞
知道小有建树答主
回答量:471
采纳率:100%
帮助的人:33.4万
展开全部

spider(蜘蛛)在访问一个网站时,会首先会检查该网站目录是否有一个文件叫做robots.txt的纯文本文件,这个文件用于指定spider(蜘蛛)在你网站是的抓取的范围.比如SEO研究中心的robots.txt文件


下面是robots视频教程

已赞过 已踩过<
你对这个回答的评价是?
评论 收起
time紫襟
2014-11-17
知道答主
回答量:41
采纳率:0%
帮助的人:9.8万
展开全部
网站加了Robots文件后,可以阻挡搜索引擎对相关链接的搜索。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
lifetime20
2014-11-17
知道答主
回答量:7
采纳率:0%
帮助的人:2.7万
展开全部
通过该文件,搜索引擎就可以知道在你的网站中哪些文件是可以被索引的,哪些文件是被拒绝索引的啊
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 2条折叠回答
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式