网站内容不收录的原因是什么
4个回答
展开全部
网站内容不收录的原因以及解决方式:
一、搜索引擎是否知道页面的存在
搜索引擎要收录该页面,必须知道有这个页面。如果蜘蛛都不知道页面,就收录不了,这里主要分为两点:搜索引擎找不到网页入口和不让搜索引擎抓取。
1、搜索引擎找不到页面入口很多时候不是你更新了文章搜索引擎就要来抓取收录的,要怎么让蜘蛛知道你的更新呢?除了有规律的更新,可以向百度站长平台主动提交URL或者是提交站点地图,也可以让搜索引擎被动收集,这就是通过外链让蜘蛛知道你的网页,还有很多时候蜘蛛来到了你的网站,却找不到你更新的链接,因为网站的链接结构做得太复杂或是内链结构差,以致搜索引擎在抓取时间类不会爬到网站深处的页面,这也造成蜘蛛不知道该页面的存在。所以不管怎么样,第一步我们要保证页面能被蜘蛛看到,关于这一点可以通过查看网站日志来判断蜘蛛是否来访过。
2、不让搜索引擎抓取很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗?你都不让别人进门了,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。
二、蜘蛛是否正常抓取:
1、网站正常访问都知道,蜘蛛抓取页面要从域名到DNS服务器再到网站空间,所以其中任何一个环节出现问题,蜘蛛都不能正常的抓取,首先域名需要备案,然后域名解析要正常,如果解析出现问题,域名是不能访问网站ip地址的,这个时候网站打不开,蜘蛛抓取不了页面。
2、服务器稳定如果服务器比较卡或者不稳定,会直接影响蜘蛛抓取,蜘蛛不能很好的去抓取页面或由于加载慢只抓取到网页一半,这就很大程度上影响了网站的收录。
3
三、蜘蛛收录标准是否达到:
1、行业不同标准也不同这个是显而易见的,新闻类网站肯定比一般企业站容易收录,而对于医疗、博彩、成人用品等网站,标准肯定是更加严格,所以对于不同的行业,百度给予的收录标准也是不一样的。
2、不同的网站标准不同百度有一个优先抓取的原则,对于绝大多数用户喜欢,权重高的网站收录得要快,就像新浪网、腾讯网收录得肯定要比一般网站要快,为什么?因为信任,这类网站本身就有其严格的过滤系统,在此类网站公布的内容百度基本是直接抓了就收,搜索引擎是互联网与用户的桥梁,它的目的就是给用户提供有价值的内容,你能为它提供良好的内容,它当然也会对你更好,这是互利的。
3、内容的质量度蜘蛛爬行频繁,就不收录,或者收录了隔几天查看又没收录。主要有两点:一是网站内容大量采集或者是提供无任何价值内容,二是网站还处于新站,百度对其有个考核期,收录较慢。
网站不收录解决方法
一、分析网站日志:看是否有被蜘蛛爬过如果页面未被蜘蛛爬行页面未被Baiduspider爬行,那么你可以适当的给该页面做一些外链来引导蜘蛛过来爬行,也可以给搜索引擎提交该页面。那么我们就可以进行以下操作:
二、页面爬行了未收录当页面长时间都不被百度收录的话,那么就要适当的给该页面增加一些附加价值或者对该页面进行重新的进行修改。你可以对文本新增一些图片,视频或者内容,也可以对标题进行再次编辑。总之,要让Baiduspider再次过来爬行的时候,返回的状态码不是一个无变化的状态吗,这样你的页面被收录的几率就大大的提升了。
三、检查robots设置,看是否主动屏蔽蜘蛛Robots的设置也是非常重要的,这个很多人可能对这些还不了解。大家可看这篇文章《》,这里面有详细的教程说明,我就不再啰嗦了。若是自己robots设置的问题,那么自己进行纠正后,再在百度站长工具后台里面进行更新robots这样的话好让百度蜘蛛重新更改状态。
四、页面是否存在敏感词汇如今,很多词对搜索引擎来说都有一定的敏感,敏感词很有可能造成的页面不被收录,有时候也会造成网站被将去或被k。所以站长们再建设内容的时候一定要注意不要在文中出现敏感词。
五、页面内容是否存在采集及无价值内容百度在算法中明确表明,过多的采集会被百度认为是垃圾站。建议,提交些有价值、以用户需求为目的的内容。
一、搜索引擎是否知道页面的存在
搜索引擎要收录该页面,必须知道有这个页面。如果蜘蛛都不知道页面,就收录不了,这里主要分为两点:搜索引擎找不到网页入口和不让搜索引擎抓取。
1、搜索引擎找不到页面入口很多时候不是你更新了文章搜索引擎就要来抓取收录的,要怎么让蜘蛛知道你的更新呢?除了有规律的更新,可以向百度站长平台主动提交URL或者是提交站点地图,也可以让搜索引擎被动收集,这就是通过外链让蜘蛛知道你的网页,还有很多时候蜘蛛来到了你的网站,却找不到你更新的链接,因为网站的链接结构做得太复杂或是内链结构差,以致搜索引擎在抓取时间类不会爬到网站深处的页面,这也造成蜘蛛不知道该页面的存在。所以不管怎么样,第一步我们要保证页面能被蜘蛛看到,关于这一点可以通过查看网站日志来判断蜘蛛是否来访过。
2、不让搜索引擎抓取很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗?你都不让别人进门了,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。
二、蜘蛛是否正常抓取:
1、网站正常访问都知道,蜘蛛抓取页面要从域名到DNS服务器再到网站空间,所以其中任何一个环节出现问题,蜘蛛都不能正常的抓取,首先域名需要备案,然后域名解析要正常,如果解析出现问题,域名是不能访问网站ip地址的,这个时候网站打不开,蜘蛛抓取不了页面。
2、服务器稳定如果服务器比较卡或者不稳定,会直接影响蜘蛛抓取,蜘蛛不能很好的去抓取页面或由于加载慢只抓取到网页一半,这就很大程度上影响了网站的收录。
3
三、蜘蛛收录标准是否达到:
1、行业不同标准也不同这个是显而易见的,新闻类网站肯定比一般企业站容易收录,而对于医疗、博彩、成人用品等网站,标准肯定是更加严格,所以对于不同的行业,百度给予的收录标准也是不一样的。
2、不同的网站标准不同百度有一个优先抓取的原则,对于绝大多数用户喜欢,权重高的网站收录得要快,就像新浪网、腾讯网收录得肯定要比一般网站要快,为什么?因为信任,这类网站本身就有其严格的过滤系统,在此类网站公布的内容百度基本是直接抓了就收,搜索引擎是互联网与用户的桥梁,它的目的就是给用户提供有价值的内容,你能为它提供良好的内容,它当然也会对你更好,这是互利的。
3、内容的质量度蜘蛛爬行频繁,就不收录,或者收录了隔几天查看又没收录。主要有两点:一是网站内容大量采集或者是提供无任何价值内容,二是网站还处于新站,百度对其有个考核期,收录较慢。
网站不收录解决方法
一、分析网站日志:看是否有被蜘蛛爬过如果页面未被蜘蛛爬行页面未被Baiduspider爬行,那么你可以适当的给该页面做一些外链来引导蜘蛛过来爬行,也可以给搜索引擎提交该页面。那么我们就可以进行以下操作:
二、页面爬行了未收录当页面长时间都不被百度收录的话,那么就要适当的给该页面增加一些附加价值或者对该页面进行重新的进行修改。你可以对文本新增一些图片,视频或者内容,也可以对标题进行再次编辑。总之,要让Baiduspider再次过来爬行的时候,返回的状态码不是一个无变化的状态吗,这样你的页面被收录的几率就大大的提升了。
三、检查robots设置,看是否主动屏蔽蜘蛛Robots的设置也是非常重要的,这个很多人可能对这些还不了解。大家可看这篇文章《》,这里面有详细的教程说明,我就不再啰嗦了。若是自己robots设置的问题,那么自己进行纠正后,再在百度站长工具后台里面进行更新robots这样的话好让百度蜘蛛重新更改状态。
四、页面是否存在敏感词汇如今,很多词对搜索引擎来说都有一定的敏感,敏感词很有可能造成的页面不被收录,有时候也会造成网站被将去或被k。所以站长们再建设内容的时候一定要注意不要在文中出现敏感词。
五、页面内容是否存在采集及无价值内容百度在算法中明确表明,过多的采集会被百度认为是垃圾站。建议,提交些有价值、以用户需求为目的的内容。
2016-01-15
展开全部
网站本身原因:网站原因又分为几种:
1、新网站未收录。如果是由于新网站的原因未收录是很好处理的,主要继续坚持原创并做一些外链来吸引蜘蛛,就会很快被收录了;
2、网站被K或者降权了。如果网站被K了或者降权了,收录肯定是会受到影响的。最直接的影响就是网站的文章不收录,这是降权比较严重的情况;
3、网站有被降权的迹象。
网站内容原因
一、质量不高,相关性不高
二、与网络上的现有文章重复度高
1、新网站未收录。如果是由于新网站的原因未收录是很好处理的,主要继续坚持原创并做一些外链来吸引蜘蛛,就会很快被收录了;
2、网站被K或者降权了。如果网站被K了或者降权了,收录肯定是会受到影响的。最直接的影响就是网站的文章不收录,这是降权比较严重的情况;
3、网站有被降权的迹象。
网站内容原因
一、质量不高,相关性不高
二、与网络上的现有文章重复度高
本回答被提问者采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
网站内页不被收录分析步骤
1、看网站时间。网站时间,不是指域名时间而是从网站第一天文章算起的时间,如果网站才一两月,网站收录低是很正常现象。因为网站并没有在百度哪里获得足够的综合页面评比很高的分数。这是蜘蛛来抓取网站内容,停留的时间很少,很多页面没有抓取到就走了。导致新的页面没有抓取到,应该把网站首页和内页进行一下外链,吸引蜘蛛来抓取,增加蜘蛛停留时间。
2、网站是否最近一段时间改动过。对于一个不算是新站的网站来说,不收录的原因,很可能最近时间网站进行改动,这里的改动并不是进行大规模的改版。也是经常性对网站标签进行调整。现在遇到这样的原因,增加网站h1标签,导致内页抓取呈现出来的搜素结果一样,去掉h1标签,并且进行其他标签的删除,导致网站不收录,这种后果可能导致网站的降权,从而导致不收录。
3、频繁提交未收录页面。我们知道网站内容页收录,涉及到搜索引擎最基本的原理,那就是爬行,抓取,建立索引,收录等过程。这原本是搜索引擎一种主动行为,但是人为每天提交网站,导致搜索引擎信任度下降,也会减少收录和展示机会。
4、网站重复率高,完全采集。刚开始百度对于新站来说,根本不知道网站情况。打个比方,例如我把你介绍给另外一个人,前期我可能只知道你叫什么?不知道性格,能力等其他情况。这是搜索引擎也是一样,前期知道你首页的标题(title),只能接下来全面考察网站,然后判断出你网站是垃圾站还是良好的网站。如果你网站一直采集,这样搜索引擎就会发现你网站内容和别的内容一样。就会好感度降低,想想好感度降低搜索引擎还愿意给网站内容呈现。
至于其他一些情况,网站结构和服务器情况等,对于企业站和小网站来说,这种情况一般不会很常见。很简单,在做网站之前,公司程序员都会把结果给调整好,服务器也不会经常更换。因此,我们网站如果收录可以从这四个方面简单着手,看下网站是否存在这种情况。如果存在,改正过来,观察一段时间,网站就会开始收录,总收录量慢慢就会上升。
1、看网站时间。网站时间,不是指域名时间而是从网站第一天文章算起的时间,如果网站才一两月,网站收录低是很正常现象。因为网站并没有在百度哪里获得足够的综合页面评比很高的分数。这是蜘蛛来抓取网站内容,停留的时间很少,很多页面没有抓取到就走了。导致新的页面没有抓取到,应该把网站首页和内页进行一下外链,吸引蜘蛛来抓取,增加蜘蛛停留时间。
2、网站是否最近一段时间改动过。对于一个不算是新站的网站来说,不收录的原因,很可能最近时间网站进行改动,这里的改动并不是进行大规模的改版。也是经常性对网站标签进行调整。现在遇到这样的原因,增加网站h1标签,导致内页抓取呈现出来的搜素结果一样,去掉h1标签,并且进行其他标签的删除,导致网站不收录,这种后果可能导致网站的降权,从而导致不收录。
3、频繁提交未收录页面。我们知道网站内容页收录,涉及到搜索引擎最基本的原理,那就是爬行,抓取,建立索引,收录等过程。这原本是搜索引擎一种主动行为,但是人为每天提交网站,导致搜索引擎信任度下降,也会减少收录和展示机会。
4、网站重复率高,完全采集。刚开始百度对于新站来说,根本不知道网站情况。打个比方,例如我把你介绍给另外一个人,前期我可能只知道你叫什么?不知道性格,能力等其他情况。这是搜索引擎也是一样,前期知道你首页的标题(title),只能接下来全面考察网站,然后判断出你网站是垃圾站还是良好的网站。如果你网站一直采集,这样搜索引擎就会发现你网站内容和别的内容一样。就会好感度降低,想想好感度降低搜索引擎还愿意给网站内容呈现。
至于其他一些情况,网站结构和服务器情况等,对于企业站和小网站来说,这种情况一般不会很常见。很简单,在做网站之前,公司程序员都会把结果给调整好,服务器也不会经常更换。因此,我们网站如果收录可以从这四个方面简单着手,看下网站是否存在这种情况。如果存在,改正过来,观察一段时间,网站就会开始收录,总收录量慢慢就会上升。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
唯有高质量的原创内容才能真正地提升网站的权重与排名,那么如果你网站的内容大多都是采集的,根本没有原创性可言,自然搜索蜘蛛就会觉得你的内容没有任何价值,不给以收录也是很正常的。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询