怎样才能让百度搜索不到指定网站

 我来答
深圳装修设计案例大全
2016-09-19 · TA获得超过1040个赞
知道小有建树答主
回答量:353
采纳率:0%
帮助的人:219万
展开全部
  • 在网站的根目录下上传robots文件;禁止百度抓取网站所有页面。

  • robots文件的写法:

    新建一个TXT文档,命名为robots,双击打开,输入以下内容保存:

    User-agent: Baiduspider

    Disallow: /

扩展:

  • Baiduspider是指百度蜘蛛,不让百度抓取,如果是不希望所有的搜索引擎(比如还有360,搜狗,谷歌等)抓取,可把Baiduspider换成 * 号

  • Disallow: /中的/是指根目录下所有文件,如果只是不喜欢抓取一个文件或者文件夹里面的内容,换成对应的目录即可。比如/admin/是不希望抓取网站根目录下admin文件夹下面的所有内容

硒农会电子商务
2016-07-31 · 超过21用户采纳过TA的回答
知道答主
回答量:53
采纳率:100%
帮助的人:25.9万
展开全部
在网站的根目录下设置robots文件;禁止百度抓取网站所有页面。
本回答被网友采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
那年那天那谁谁
2016-08-31
知道答主
回答量:50
采纳率:0%
帮助的人:20万
展开全部
这个很简单,没一个网站都有一个对应的robots协议,如果你懂一点SEO技术就会知道怎么弄了
建立一个robots.txt文件
将robots.txt文件放置在网站根目录下
添加下面这段代码到robots.txt文件中
仅禁止Baiduspider访问您的网站

User-agent: Baiduspider

Disallow: /
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
百度网友a7e1921
2016-08-17 · TA获得超过159个赞
知道答主
回答量:357
采纳率:0%
帮助的人:84.2万
展开全部
在网站的根目录下设置robots文件;禁止百度抓取网站所有页面。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
小曹杂谈
2016-08-02 · TA获得超过186个赞
知道小有建树答主
回答量:168
采纳率:50%
帮助的人:45.7万
展开全部
  这有很多种方法的。不过一般这种情况大多出现在竞价问题,你可以去屏蔽他的ip 在百度助
  手或凤巢中去操作
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 更多回答(3)
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式