网站上线之前需要禁止蜘蛛抓取,如何写robots文件? 我来答 2个回答 #热议# 发烧为什么不能用酒精擦身体来退烧? miniapp27leTbKTYiKKl 2019-10-23 · TA获得超过1186个赞 知道小有建树答主 回答量:486 采纳率:47% 帮助的人:88.3万 我也去答题访问个人页 关注 展开全部 禁止所有搜索引擎访问网站的任何部分 User-agent: * Disallow: / 备注:robots.txt只是给蜘蛛提要求,蜘蛛还是会过来,还是会抓取,只是你要求他不会展示出来。就像淘宝也禁止蜘蛛抓取了,不是还有会有吗 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 功夫牛网 互联网爱好者 2019-12-30 · 互联网情报员 知道小有建树答主 回答量:1058 采纳率:62% 帮助的人:57.9万 我也去答题访问个人页 关注 展开全部 最好是上线不限制吧,正常都是要在本地把网站搭建好,调试好,一切都完成后再上线,上线就立马引蜘蛛效果要好一些 ,实在要禁就User-agent: *Disallow: / 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 广告您可能关注的内容蜘蛛?教你几个小妙招qcqc10.ycyshang.cn查看更多 其他类似问题 2023-04-03 网站上线之后被收录了,再添加robots文件屏蔽蜘蛛,对于seo有意义吗? 2023-04-03 网站上线之后被收录了,再添加robots文件屏蔽蜘蛛,对于seo有意义吗? 2023-04-29 有个网站的robots协议写了一些路径下的文件禁止爬虫,不小心爬了一个文件怎么办(一开始不知道) 2023-04-29 有个网站的robots协议写了一些路径下的文件禁止爬虫,不小心爬了一个文件怎么办(一开始不知道) 2012-12-01 网站添加robots.txt后为什么百度蜘蛛还能爬行? 更多类似问题 > 为你推荐: