2个回答
展开全部
一般情况下,有以下几个方面:
一、内页不收录,新网站处于信任考核期。
一个新站建好,不是立马就进行全方位的收录。百度和其他搜索引擎一样,会对对新网站设立考核期,专业的说话叫“沙箱期”。主要要因是搜索引擎要对新网站的站内内容、是否作弊、是否正规等各方面有一个考核,防止收录一些垃圾站点、临时性站点,保证搜索引擎收录的正规性和有效性。
二、内页文章质量存在问题。
文章内容要注意内容的相关性,保证质量,可阅读性强,这样的文章必定会被收录的。而没有多大价值的网页,搜索引擎即使收录了,也会在分析网页内容之后放弃收录的。
注意:过度优化也会导致网页质量不过关而不被收录。
三、网站结构存在问题。
作为一个搜索程序——“蜘蛛”来说,是没办法读取javascript,flash,iframe等里面的内容的,不要过分追求网站美观,而忽略了网站的可用性。
四、内页不收录,robots.txt协议问题。
写错了robots.txt里面的限制性语句,结果造成网站内页无法被收录。常有一些新手站长会犯这个低级错误。
五、外链问题。
一、内页不收录,新网站处于信任考核期。
一个新站建好,不是立马就进行全方位的收录。百度和其他搜索引擎一样,会对对新网站设立考核期,专业的说话叫“沙箱期”。主要要因是搜索引擎要对新网站的站内内容、是否作弊、是否正规等各方面有一个考核,防止收录一些垃圾站点、临时性站点,保证搜索引擎收录的正规性和有效性。
二、内页文章质量存在问题。
文章内容要注意内容的相关性,保证质量,可阅读性强,这样的文章必定会被收录的。而没有多大价值的网页,搜索引擎即使收录了,也会在分析网页内容之后放弃收录的。
注意:过度优化也会导致网页质量不过关而不被收录。
三、网站结构存在问题。
作为一个搜索程序——“蜘蛛”来说,是没办法读取javascript,flash,iframe等里面的内容的,不要过分追求网站美观,而忽略了网站的可用性。
四、内页不收录,robots.txt协议问题。
写错了robots.txt里面的限制性语句,结果造成网站内页无法被收录。常有一些新手站长会犯这个低级错误。
五、外链问题。
2018-09-26
展开全部
看看站内的基础优化有没有做好
1.搜外6系统做301 访问不带www的域名直接跳转到带www的域名
2.404要设置
3.加上nof标签 减少网站权重的流失
4.robots.txt
5.主动推送和熊掌号的绑定
6.还是不收录的话你去提交一下sitemap
1.搜外6系统做301 访问不带www的域名直接跳转到带www的域名
2.404要设置
3.加上nof标签 减少网站权重的流失
4.robots.txt
5.主动推送和熊掌号的绑定
6.还是不收录的话你去提交一下sitemap
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询
广告 您可能关注的内容 |