如何处理网站页面不收录的问题
第一:尽量增加蜘蛛访问网站频率;
第二:网站建立良好的站内结构;
第三:让蜘蛛知道我们网站的价值对用户有用。
第一、增加蜘蛛访问网站频率
蜘蛛访问我们的网站越多,网站被收录的可能性越大,我们通常的操作方法分站内、站外:
站内:保持固定频率,固定量更新网站内容,但要内容质量一定要保证,不然适得其反。
站外:在高权重的网站,投稿增加网站的权重,吸引蜘蛛访问网站。
第二、建立良好的站内结构
只吸引蜘蛛是不够的,要做好站内结构,让蜘蛛在网站爬行畅通无阻。我们可以利用面包屑导航、网站地图等,保证蜘蛛顺利爬行网站上所有的网页。
注:不要利用js、flash以及iframe框架,因为这些蜘蛛都是不识别的。
通常站内结构以树形结构即可,但是小型网站最好扁平化:
①主页链接向所有的频道主页
②所有频道主页都连向其他频道主页
③频道主页都连回网站主页
④频道主页也连向属于自己本身频道的内容页
⑤所有内容页都连向网站主页
⑥所有内容页都连向自己的上一级频道主页
⑦内容页可以连向同一个频道的其他内容页
⑧内容页一般不连向其他频道的内容页
第三、让蜘蛛知道网页价值与意义
想让搜索引擎收录网站内容,首先就需要证明内容的价值。
①原创度:写作水平不太好的,可以适当伪原创,然后利用"原创度检测工具"检测一下。争取做好原创高的内容。
②减少网站内部信息内容的重复率。
③网页文字千万不要少于300字,当然越多,收录的可能性越大。
另外,站长们也可以利用内页外链,引导百度抓取内页,这种方式效果不错!
1、网站上线之初,检查域名是否注册,是否健康。被搜索引擎惩罚的域名不注册。
2、网站空间尽量选择正规的、大品牌、稳定的、速度快的、功能齐全的空间商,例如爱名网。
3、正确设置robots协议文件,如果设置错误修改即可,并到百度站长平台检查。
4、网站上线后切忌频繁改版,万不得已需要改版,请到百度站长平台添加改版规则,申请闭站保护,使网站尽快恢复,实现收录。
5、交换友情链接时,注意相关性、数量不要超过30个、注意是否健康。交换后,检查下你的友情链接是否链接了被K的网站,对方被K,你的网站也会受到牵连的,这个时候你要在第一时间把对方的链接撤掉。
6、有计划、有步骤的到高权重平台发布高质量外链,注意相关度,多样化。
7、网站优化避免过度优化,关键词不能堆砌、锚文本自然出现、不要使用作弊手法。
8、网站无意中出现灰色词、敏感词要及时修改或者删除。
9、网站文章内容尽量保持原创或者伪原创,伪原创内容尽量修改80%以上内容,减低相似度,利于收录。
10、网站使用正规手法,白帽SEO优化,有利于收录,有利于排名。不要使用黑帽手法。
11、一般网站结构建议为3层,超过3层不利于蜘蛛抓取,不利于网站收录。
12、网站应该定期检查代码,发现黑链、挂马及时清除。定期备份,以防万一,做好网站安全工作。
网站不收录的原因很多,要想解决问题就需要SEO人员仔细分析找出不收录的原因。对症下药才能尽快的解决问题。
1、如果页面未被蜘蛛爬行页面未被Baiduspider爬行,那么你可以适当的给该页面做一些外链来引导蜘蛛过来爬行,也可以给搜索引擎提交该页面。那么我们就可以进行以下操作:
2、页面爬行了未收录当页面长时间都不被百度收录的话,那么就要适当的给该页面增加一些附加价值或者对该页面进行重新的进行修改。你可以对文本新增一些图片,视频或者内容,也可以对标题进行再次编辑。总之,要让Baiduspider再次过来爬行的时候,返回的状态码不是一个无变化的状态吗,这样你的页面被收录的几率就大大的提升了。
3、检查robots设置,看是否主动屏蔽蜘蛛Robots的设置也是非常重要的,这个很多人可能对这些还不了解。大家可看这篇文章《》,这里面有详细的教程说明,我就不再啰嗦了。若是自己robots设置的问题,那么自己进行纠正后,再在百度站长工具后台里面进行更新robots这样的话好让百度蜘蛛重新更改状态。
4、页面是否存在敏感词汇如今,很多词对搜索引擎来说都有一定的敏感,敏感词很有可能造成你的页面不被收录,有时候也会造成网站被将去或被k。所以站长们再建设内容的时候一定要注意不要在文中出现敏感词。
5、页面内容是否存在采集及无价值内容百度在算法中明确表明,过多的采集会被百度认为是垃圾站。建议,提交些有价值、以用户需求为目的的内容。