熊猫更新和企鹅更新是谷歌引擎发展史意义深远的两个SEO优化算法更新,熊猫算法主要针对一些低质量内容,而企鹅算法则针对垃圾和作弊网站。
1.熊猫算法
该算法于2011年2月23号更新,最初被SearchEngineLand的从业人员描述为农夫更新,因为被惩罚的网站很多是内容农场,即充斥着批量化生产的低质量信息网站。但谷歌内部将其称为熊猫算法,因为负责该代码的主要工程师名叫Panda。
该算法判断页面质量的方法是通过一些外部测试人员,对网站的内容质量进行评估,并且会通过一些问题来引导他们进行判断,这些问题包括:
●该网站是否提供了原创信息,原创报告,原创研究及其他原创内容?
●内容是否是批量生产的?
●这篇文章是否有明显的文法,文字及事实错误?
●你觉得这篇文章有可能出现在印刷的出版物上吗?
●你是否会将该页面放入书签或进行社交推荐?
●你信任这篇文章所描述的信息吗?
随后谷歌通过机器学习,找出低质量网站的定义和特征,同时谷歌浏览器利用网站黑名单功能验证企鹅算法的结果,发现有84%的重叠率,证明了该算法的可行性。
典型的低质量内容页面是通过搜集海量关键词,然后将关键词外包给一些廉价劳动力进行批量制造内容,并通过七拼八凑和抄袭写出一些毫无价值的文章,虽然这类文章与关键词相关,却不能满足读者的需求。
2.企鹅更新
该算法于2014年4月24日上线,主要惩罚对象是一些垃圾链接和低质量链接。
受到该算法的网站,除了需要清理一些页面上的疑似作弊内容,如关键词堆积、隐藏文字、隐藏页面等等以外,还要清理一些可疑的外部链接,如:
●以商业性关键词为锚文字的外链比例过高
●以文字链接和博客网站的链接比例过高
●外链增速过快
●买卖链接的痕迹明显
●大量交换链接
由于垃圾外链是企鹅算法的主要针对对象,所以在企鹅算法更新以后,很多英文网站联系交换外链现象大幅减少,很多提供外链建设的SEO公司转而帮站长清理外链。
在企鹅更新以后,负面SEO也成为了站长们关注的焦点。交换链接、买卖链接、博客群发等虽然可能一时对排名有效,但如果搜索引擎找到应对方法,那么受到惩罚的可能性也就会大大提高了。