SEO 怎么禁止百度蜘蛛爬某个文件夹?

怎么禁止百度蜘蛛爬某个文件夹?这个tenz文件夹我不想让百度蜘蛛爬,代码改怎么写?麻烦给写详细一些谢谢了补充一下,然后将蜘蛛引导至index.asp首页文件我要代码... 怎么禁止百度蜘蛛爬某个文件夹?这个tenz文件夹我不想让百度蜘蛛爬,代码改怎么写?麻烦给写详细一些 谢谢了
补充一下,然后将蜘蛛引导至index.asp首页文件 我要代码
展开
 我来答
博丨弈
推荐于2017-12-15 · 超过49用户采纳过TA的回答
知道小有建树答主
回答量:117
采纳率:0%
帮助的人:157万
展开全部
首页不需要引导!你建立一个文本文档,以robots命名,把下面这段代码粘贴进去,传到网站根目录,就好了!
User-agent: *
Disallow: /tenz/
本回答被提问者采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
瓮彦露0Fr
2012-03-16 · TA获得超过1613个赞
知道大有可为答主
回答量:2622
采纳率:33%
帮助的人:1098万
展开全部
禁止spider访问特定目录
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
如果想禁止爬行某一文件夹,你可以这么写:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
an9t
2012-03-16 · TA获得超过302个赞
知道小有建树答主
回答量:369
采纳率:0%
帮助的人:247万
展开全部
需要写robots.txt,写robots.txt可以禁止搜索引擎爬行某个文件或者允许搜索引擎爬行哪个文件,具体的写法,网上有,你可以自己搜索看看!

《★你还有其他问题吗?★如果没有请将本答案★选为满意答案★吧!》
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
薇洛迪兰
2012-03-16 · TA获得超过2288个赞
知道大有可为答主
回答量:1754
采纳率:0%
帮助的人:995万
展开全部
Disallow: /tenz/ 把这一行加到robots.txt里面去就可以了啊!
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
古人132
2012-03-17
知道答主
回答量:18
采纳率:0%
帮助的人:5.5万
展开全部
写robots.txt文件 去同类网站看看人家的写法
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 更多回答(4)
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式