如何让自己制作的网页或者博客以及QQ空间不要在百度中搜索到相关内容?

我自己制作的某些空间或者博客涉及到严重的个人隐私,不想让别人在百度中随便搜索到,怎么办啊?问题采纳者奖励20分!... 我自己制作的某些空间或者博客涉及到严重的个人隐私,不想让别人在百度中随便搜索到,怎么办啊?问题采纳者奖励20分! 展开
 我来答
460906606
2009-03-06 · TA获得超过220个赞
知道小有建树答主
回答量:367
采纳率:0%
帮助的人:215万
展开全部
如何让我的网页不被百度收录?

百度严格遵循搜索引擎Robots协议(详细内容,参见http://www.robotstxt.org/)。
您可以设置一个Robots文件以限制您的网站全部网页或者部分目录下网页不被百度收录。具体写法,参见:如何撰写Robots文件。
如果您的网站在被百度收录之后才设置Robots文件禁止抓取,那么新的Robots文件通常会在48小时内生效,生效以后的新网页,将不再建入索引。需要注意的是,robots.txt禁止收录以前百度已收录的内容,从搜索结果中去除可能需要数月的时间。
如果您的拒绝被收录需求非常急迫,也可以发邮件给webmaster@baidu.com请求处理。

为什么我的网站内一些不设链接的私密性网页,甚至是需要访问权限的网页,也会被百度收录?

百度Spider对网页的抓取,是通过网页与网页之间的链接实现的。
网页之间的链接类型,除了站点内部的页面链接之外,还有不同网站之间的互相链接。因此,某些网页即便通过您的网站内部链接无法访问到,但是,如果别人的网站上有指向这些页面的链接,那么这些页面还是会被搜索引擎所收录。
百度Spider的访问权限,和普通用户是一样的。因此,普通用户没有权限访问的内容,Spider也没有权限访问。之所以看上去某些访问权限限制内容被百度收录,原因有两点:
A. 该内容在Spider访问时是没有权限限制的,但抓取之后,内容的权限发生了变化
B. 该内容有权限限制,但是由于网站安全漏洞问题,导致用户可以通过某些特殊路径直接访问。而一旦这样的路径被公布在互联网上,则Spider就会循着这条路径抓出受限内容
如果您不希望这些私密性内容被百度收录,一方面可以通过Robots协议加以限制;另一方面,也可以联系webmaster@baidu.com进行解决。
QQ763478847
2009-03-06 · TA获得超过563个赞
知道小有建树答主
回答量:819
采纳率:0%
帮助的人:0
展开全部
在你的空间根目录下,新建一个robot.txt文本文件,写入
User-agent: *
Disallow: /
然后保存就可以了。意思是禁止所有搜索引擎访问网站的任何部分。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
德国博客就是好
2009-03-06 · TA获得超过1.2万个赞
知道小有建树答主
回答量:2306
采纳率:0%
帮助的人:1124万
展开全部
到国外的博客上建博客。并在博客代码里加屏蔽搜索引擎代码;
或者用自动翻译网页---worldlingo翻译成德文;
博客文章里的内容使用生僻表达方法,包括使用比较纯正的文言文。
本回答被网友采纳
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 更多回答(1)
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式