网站不想让搜索引擎抓取怎么做?

 我来答
zyp71081097
推荐于2019-10-14 · TA获得超过2483个赞
知道小有建树答主
回答量:192
采纳率:100%
帮助的人:9.4万
展开全部

网站robots.txt设置好即可

怎么写Robots.txt文件?

遵循语法的Robots.txt才可能被机器人识别,至于语法,介绍起来很繁琐,现简单举例如下:

1)禁止所有搜索引擎访问网站的任何部分(也就是网站彻底的拒绝所有搜索引擎收录)

User-agent: * 

Disallow: /

2)允许所有的robot访问(也就是网站允许所有搜索引擎收录)

User-agent: * 

Disallow:

3)禁止某个搜索引擎的访问(比如禁止百度收录,按如下的方式写)

User-agent: baiduspider 

Disallow: /

4)允许某个搜索引擎的访问(比如允许百度收录,按如下的方式写)

User-agent: baiduspider

Disallow: 

User-agent: * 

Disallow: /

5)禁止搜索引擎访问某些目录 

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /images/

使用方法:很简单,将代码存为一个文本文件,命名为Robots.txt ,放在网页根目录即可。

单飞网400电话
2020-12-25
知道答主
回答量:69
采纳率:0%
帮助的人:4万
展开全部

网站排名优化小课堂

已赞过 已踩过<
你对这个回答的评价是?
评论 收起
百度网友e616974
2018-04-14 · TA获得超过3087个赞
知道答主
回答量:30
采纳率:100%
帮助的人:4783
展开全部

1、新建一个命名为“robots”的文本文件,robots文件是搜索引擎和网站之间的一个协议。

2、设置搜索引擎和网站之间的协议,User-agent:*表示和所有搜索引擎协议适用;Disallow:/表示禁止抓取收录全站。

3、如果只是禁止某一个搜索引擎抓取收录网站的某一个目录,比如要禁止百度抓取收录jinzhi目录,则如图设置。

4、保存文件后,把文件上传到服务器根目录,即表示搜索引擎和网站之间的协议生效,可以禁止搜索引擎抓取收录网站内容。

5、除了设置robots协议之外,还可以在网页代码里面设置。在网页<head></head>之间加入<meta name="robots" content="noarchive">代码。表示紧致所有搜索引擎抓取网站和显示快照。

6、如果要针对某一个搜索引擎禁止抓取,在网页<head></head>之间加入<meta name="baidspider" content="noarchive">代码,表示禁止百度抓取,<meta name="googlebot" content="noarchive">表示禁止谷歌抓取,其他的搜索引擎一样原理。

已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 更多回答(1)
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式