解析二级域名不被百度收录的原因
昨天百度又有小动作了 因为又见很多人在网上抱怨百度了其实我现在倒是很少关心这个问题。
因为我最近优化了几个二级域名的分站很多都陷入了百度收录的瓶颈上这个问题没解决之前真的无暇关系排名的问题。
对于二级域名的优化我想很多人都认为二级域名相对于一个独立的顶级域名来说是比较难优化的。其实二级域名优化时确实不如一个独立的站点好操作。但是有些时候我们又必须面对这些二级域名。
为什么说二级域名不好优化呢很多人认为完全可以把一个二级域名当做一个独立的域名来优化就可以了但是并不是所有的二级域名都能依靠同一种方法来优化。就拿我最近优化的一个分站来说吧。
这个分站在12月14号的时候开通的到现在已经快一个月了百度收录数据仍然是零。文章内容是手工的伪原创可以说由于内容导致不收录的可能性很小。之所以说二级域名不好操作是因为二级域名的可控性太差。
首先我无法准确获得蜘蛛的爬行记录也就是说蜘蛛每天抓取了网站哪些页面我并不清楚所以只有依照其它的站作为参考猜测出一些可能造成收录迟疑的原因。
其实对于二级域名除了可控性差点之外我感觉也不是不能优化好只是操作的时候没有一个独立的站好控制。我想作为SEO ER既然问题已经出来了就应该想尽一切办法来解决问题。
通过近几天的观察我发现从分站推荐到主站的内容更容易被收录 因为毕竟相对于分站来说主站的权重还是比较高的蜘蛛爬行的也比较频繁。所以我一开始的时候采取了把推荐到主站的内容加上了通往二级域名页面链接的方法来吸引蜘蛛爬取分站的内容 但是发现推荐到主站的内容被收录了但是分站的内容还是不收录。
其实这点也不难理解 因为按照蜘蛛的深度优先和广度优先的爬行规则来看如果主站权重本来就不是很高的情况下蜘蛛的爬行深度有限可能蜘蛛抓取了主站目录页面以后就不再深度抓取了这也是很有可能的。
就目前数据有限的条件下如何才能让这些二级域名的站快速收录那这个问题思考了很久感觉还是只有两方面可以实施 1、增加内容的原创度 2、引导蜘蛛抓取分站的页面。
我在上面说了开始的时候我为了让分站快速的收录采取的策略是把分站的内容推荐到主站然后加上通向分站的链接这样做其实有好处也有坏处。
好处是可以通过推荐到主站的内容页面链接来引导蜘蛛爬取分站但是实
际效果并不乐观。坏处是如果推荐到主站的内容和分站重复内容的话那么搜索引擎收录了主站内容以后对于分站相同内容再次收录的可能性很小其实目前这种坏处已经在操作的分站中出现所以这样做并不是一个明智之举。
基于上述原因要想借助主站优势来引导蜘蛛爬去分站的话也须将推荐到主站的内容与分站内容分开。
好了就说到这里了二级域名百度不容易收录原因很多大家自己琢 磨吧。
ZJI是成立于2011年原Wordpress圈知名主机商—维翔主机,2018年9月更名为ZJI,主要提供香港、日本、美国独立服务器(自营/数据中心直营)租用及VDS、虚拟主机空间、域名注册业务。本月商家针对香港阿里云线路独立服务器提供月付立减270-400元优惠码,优惠后香港独立服务器(阿里云专线)E3或者E5 CPU,SSD硬盘,最低每月仅480元起。阿里一型CPU:Intel E5-2630L...
飞讯云官网“飞讯云”是湖北飞讯网络有限公司旗下的云计算服务品牌,专注为个人开发者用户、中小型、大型企业用户提供一站式核心网络云端部署服务,促使用户云端部署化简为零,轻松快捷运用云计算。飞讯云是国内为数不多具有ISP/IDC双资质的专业云计算服务商,同时持有系统软件著作权证书、CNNIC地址分配联盟成员证书,通过了ISO27001信息安全管理体系国际认证、ISO9001质量保证体系国际认证。 《中华...
触摸云触摸云(cmzi.com),国人商家,有IDC/ISP正规资质,主营香港线路VPS、物理机等产品。本次为大家带上的是美国高防2区的套餐。去程普通线路,回程cn2 gia,均衡防御速度与防御,防御值为200G,无视UDP攻击,可选择性是否开启CC防御策略,超过峰值黑洞1-2小时。最低套餐20M起,多数套餐为50M,适合有防御型建站需求使用。美国高防2区 弹性云[大宽带]· 配置:1-16核· ...