新站内页如何更快的被百度收录?
2015-1-1 14:32:24 点击:
最近做新站的SEOer是否发现百度开始只收录首页不收录内页了,在1,2年之前百度是很快就开始收录,不管文章质量只管数量,但是现在站长是否发现收录内页已经开始增加了很大的难度,甚至一两个月只有一篇首页被收录,内页完全看不见踪影?笔者估计这应该是百度最近一年的算法调整导致的结果,先观察网站质量,再决定是否放出内页并且给予排名。北京网站优化小编分享。
1、百度信任期
以前谷歌还在国内时,出现新网站都会出现一个沙盒期间,这个期间一般可以达到6个月以上,在6个月以内不给予新站任何权重,现在的百度也开始模仿谷歌算法,让网站先建立信任,观察网站质量,再决定是否给予放出内页并且排名。如果一个新站无法坚持到度过“信任期”很可能直接被百度放弃。最简单检查百度是否抓取页面得方法,就是查看网站日志返回代码,是200,还是其他代码,如果返回200表示百度搜索引擎已经抓取,并且放到搜索引擎的数据库。
2、内容质量问题
真正考验网站质量如何的就是内容质量,如果网站的内容无法达到百度要求,或者质量太低,百度直接放弃该网站的。从搜索引擎最近两三年的算法可以看出来,百度越来越在乎用户体验,凡是以用户为主的网站,只要坚持就会成功。相反完全依靠采集,伪原创工具等类网站,被K站已经成为了时间问题。内容质量就要注意文章的质量,可读性和相关性等等。高质量原创文章才是搜索引擎和用户喜爱的。
3、内部结构
内部结构重要之重,如果一开始内部结构使用了大量的JS,FLASH,IFRAME框架结构等等不利于蜘蛛爬行,这些代码虽然可以让网站看着更加精美,但是完全无法让蜘蛛读取内容,如果是一个优秀的SEOer应该明白JS是百度不允许的,FLASH是无法读取的,框架结构有更好的DIV+CSS代替了。
4、robots.txt协议
robots.txt协议是所有搜索引擎通用的一种协议,主要意义就是禁止蜘蛛爬行,这种协议一般用于屏蔽掉一个没有用处的链接,比如:版权信息,联系方式,公司介绍等等。这样可以集中内页权重。但是robots.txt协议不能胡乱使用,比如不小心屏蔽掉首页,或者被黑客攻击之后修改了,都可能导致蜘蛛不再来临。经常检查robots.txt协议是站长必做的事。
总结:只要网站做的好,结构没有对蜘蛛不利,robots.txt协议正确,服务器空间可以打开,质量完全原创并且高,那么如果你现在仅仅收录了首页,请不用担心,努力坚持,百度是肯定会放出你所有高质量内页的。
1、百度信任期
以前谷歌还在国内时,出现新网站都会出现一个沙盒期间,这个期间一般可以达到6个月以上,在6个月以内不给予新站任何权重,现在的百度也开始模仿谷歌算法,让网站先建立信任,观察网站质量,再决定是否给予放出内页并且排名。如果一个新站无法坚持到度过“信任期”很可能直接被百度放弃。最简单检查百度是否抓取页面得方法,就是查看网站日志返回代码,是200,还是其他代码,如果返回200表示百度搜索引擎已经抓取,并且放到搜索引擎的数据库。
2、内容质量问题
真正考验网站质量如何的就是内容质量,如果网站的内容无法达到百度要求,或者质量太低,百度直接放弃该网站的。从搜索引擎最近两三年的算法可以看出来,百度越来越在乎用户体验,凡是以用户为主的网站,只要坚持就会成功。相反完全依靠采集,伪原创工具等类网站,被K站已经成为了时间问题。内容质量就要注意文章的质量,可读性和相关性等等。高质量原创文章才是搜索引擎和用户喜爱的。
3、内部结构
内部结构重要之重,如果一开始内部结构使用了大量的JS,FLASH,IFRAME框架结构等等不利于蜘蛛爬行,这些代码虽然可以让网站看着更加精美,但是完全无法让蜘蛛读取内容,如果是一个优秀的SEOer应该明白JS是百度不允许的,FLASH是无法读取的,框架结构有更好的DIV+CSS代替了。
4、robots.txt协议
robots.txt协议是所有搜索引擎通用的一种协议,主要意义就是禁止蜘蛛爬行,这种协议一般用于屏蔽掉一个没有用处的链接,比如:版权信息,联系方式,公司介绍等等。这样可以集中内页权重。但是robots.txt协议不能胡乱使用,比如不小心屏蔽掉首页,或者被黑客攻击之后修改了,都可能导致蜘蛛不再来临。经常检查robots.txt协议是站长必做的事。
总结:只要网站做的好,结构没有对蜘蛛不利,robots.txt协议正确,服务器空间可以打开,质量完全原创并且高,那么如果你现在仅仅收录了首页,请不用担心,努力坚持,百度是肯定会放出你所有高质量内页的。
- 上一篇:网站关键词上不了百度首页的原因以及解决办法 2015/1/1
- 下一篇:新站初期如何做好网站优化工作 2015/1/1