网站新站大量、长期不被百度收录是什么原因?

提交百度快一个月了,连续好几个网站都没有收录... 提交百度快一个月了,连续好几个网站都没有收录 展开
 我来答
牟雅珺0o
2017-08-15 · TA获得超过109个赞
知道答主
回答量:68
采纳率:100%
帮助的人:16.1万
展开全部
原载于 http://www.admin5.com/article/20170710/764048.shtml
网站优化中一般情况下,再烂的网站,百度也不会一点都不收录的。如果网站上线很长时间了,百度一直没有收录,只能有这几个原因。
第一、使用了被百度惩罚的域名
好多人喜欢使用老域名,当然使用老域名做网站排名有一定的优势,如果老域名本身就有权重,而且网站内容和你现在的内容相关,那么就很利于你网站的排名。但是如果你使用老域名曾经被百度惩罚过,那么结果就相反了。如果你选了一个心仪的域名,但是已被注册使用过,那么就要小心了,最好是先去百度查查看有没有什么记录,有没有受到了百度惩罚!之前也写过一遍文章“最近接了一个刷百度权重的客户”清楚的讲道,怎么刷权重的,所以在买老域名的时候要小心啊。
第二、网站服务器不稳定
现在好多人,为了方便省事,在网站前期选择服务器时,选择国外不备案的空间,国外服务器不稳定对于网站发展来说是致命的要害,想要网站在搜索引擎中获得长久的发展,必须保证服务器的稳定性。使用的空间不稳定,打开非常慢或常常崩溃,这样的网站体验度很低,研究表明当一个网站页面打开速度超过三秒,那么90%的人会直接关闭。而且网站服务器不稳定,空间打开速度慢会给站长管理网站带来不便,之前做的一个站,就是因为打开速度特慢,别人无法访问,自己没信心经营就放弃了!你如果目前使用的空间质量极差,或是访问速度特别慢,那么本人建议你尽量早点换个质量比较好的空间,否则不管你在怎么优化网站,在怎么发布高原创质量内容跟外链都没用!
第三、网站上线初期,robots文件设置为不允许抓取
一般新站上线前都会设置robots文件,禁止百度蜘蛛抓取,但是上线后要解除这个禁止,这个问题就不用说明了吧,只要你网站上面有robots.txt文件禁止了百度的抓取,网站将不会被百度收录。
第四、网站原创度低,被百度视为垃圾站
大家都知道的搜索引擎喜欢原创内容,所以嘛好多采集内容的网站,内容很丰富但是被收录的特慢。网站最好是有规律的更新,而且是原创更新,如果没有原创也可以是伪原创,但是百度对伪原创的内容判别越来越智能了。最近这段时间百度稍微调整了一些算法,那就是对于那些重复性过高的内容或是网站将不在收录,或是收录了也不给予什么权重,因此你要是想让百度继续收录你的网站,那么你在发布内容的时候最好修改一下,稍微做下伪原创,尽量让这篇内容与原文不太一样!
第五、网站使用了灰帽或黑帽优化手段
相信做到一定程度的人,都会寻求做灰帽或黑帽手法,那么哪些算作弊手段呢?比如关键词堆砌、黑链、软件群发,链接买卖等等,新站建议不要急于求成,用白帽的手段做站。除非你做的站本身就是特殊行业,不用考虑网站长久排名。如果你是大牛可以考虑(正规的方法:在自己的主网站,优化网站结构、写原创文章,更新正常内容,正常外链。作弊的方法:建立很多个推广的辅助网站,并进行大量的群发外链、采集文章、伪原创文章、购买文章、购买友链、购买外链、使用黑链、使用网站站群、使用百度电击器软件、点击同行竞价、雇佣国外黑客攻击同行、脚本挟持等等作弊行为。)
第六、网站类型不符合国家法律
这点应该不用多少,在牛逼的SEOer优化也不肯能把违反国家法律的网站优化上去,搜索引擎也不敢收录啊。所以,不管网站的任何地方甚至内页或者是导出链接,都不能出现任何违法信息,否则可能导致网站不被百度收录,但是相信各位也不没有那个胆量去做这种违法网站。
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式