怎样才能让百度搜索不到指定网站
展开全部
在网站的根目录下上传robots文件;禁止百度抓取网站所有页面。
robots文件的写法:
新建一个TXT文档,命名为robots,双击打开,输入以下内容保存:
User-agent: Baiduspider
Disallow: /
扩展:
Baiduspider是指百度蜘蛛,不让百度抓取,如果是不希望所有的搜索引擎(比如还有360,搜狗,谷歌等)抓取,可把Baiduspider换成 * 号
Disallow: /中的/是指根目录下所有文件,如果只是不喜欢抓取一个文件或者文件夹里面的内容,换成对应的目录即可。比如/admin/是不希望抓取网站根目录下admin文件夹下面的所有内容
展开全部
在网站的根目录下设置robots文件;禁止百度抓取网站所有页面。
本回答被网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
这个很简单,没一个网站都有一个对应的robots协议,如果你懂一点SEO技术就会知道怎么弄了
建立一个robots.txt文件
将robots.txt文件放置在网站根目录下
添加下面这段代码到robots.txt文件中
仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
建立一个robots.txt文件
将robots.txt文件放置在网站根目录下
添加下面这段代码到robots.txt文件中
仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
在网站的根目录下设置robots文件;禁止百度抓取网站所有页面。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
这有很多种方法的。不过一般这种情况大多出现在竞价问题,你可以去屏蔽他的ip 在百度助
手或凤巢中去操作
手或凤巢中去操作
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询