Google搜索核心算法更新记录

从google搜索过去的重大算法更新中可以看出,技术层面的优化比重越来越小,精细化的内容耕耘才是王道。

在过去,当谷歌搜索发生重大更新时,通常意味着整合了一些能够彻底改变网站排名方式的东西。

去年的更新中引入了神经匹配算法,由于目前该算法还没有具体的验证结论,只能从google官方给出的说法管中窥豹了:”对于那些表现不佳的页面,除了专注于创作优秀内容外,没有什么可“修复”的。随着时间的推移好的内容排名会有所提升“。

这一说法印证了高质量内容创作才是网站的灵魂。

飓风算法

2003年11月16日

这是十年来google算法第一次重大更新,彻底改变了搜索引擎优化。

反向垃圾链接策略(Spamdexing)一去不复返——关键字填充,使用多个站点、隐藏文本和隐藏链接等手段去争夺排名。

飓风算法针对反向垃圾链接策略,虽然没有发现长尾词受到影响,但也过滤了大量搜索短语。

许多零售商几乎完全依赖附属公司来推动网站流量,飓风算法更新导致客流量大幅下降。许多SEO从业者认为更新是针对特定商业术语。商业零售商及附属公司恰好是Spamdexing领域最活跃的,所以,它们受到的打击最大。

Jagger算法

2005年9月

这一年google推出了一系列算法更新,更新被称为Jagger。

2005年9月一系列以反向链接为主题的算法开始更新,与此同时google PageRank数据库的更新也开始了(2013年12月谷歌停更了PageRank工具栏)。Jagger第二、第三部分的更新一直持续到2005年11月。

Jagger算法打击重复性内容网站,拥有大量门页的网站受到影响。打击对象包括:购买全站链接,与不相关网站进行链接互换,从链接农场获取链接的行为。

搜索引擎抓取的内容和用户看到的内容不相符是当时流行的优化伎俩,利用CSS隐藏文本和关键字,使用延迟重定向欺骗搜索引擎和用户的网站都遭受重创,从那以后google更偏爱老站和知名站点了。

google曾在2005年就域名算法方面提交了一项专利,google认为:

“有价值的域名通常会提前支付好几年的费用,而门口域名很少使用超过一年。因此,域名未来的到期日期可作为预测域名合法性的一个因素。”

Jagger算法后来被视为其他反向链接算法的前身,为企鹅算法打下了基础。

熊猫算法

2010年

2010年谷歌搜索结果质量下降,“内容农场”商业模式崛起。

熊猫算法旨在降低搜索结果中低质量内容和内容稀疏的网页,奖励那些内容独特具有吸引力的网站。

Google熊猫推出之前,“内容农场”猖獗导致用户的抱怨声日益扩大。google熊猫算法为页面分配了一个质量分类,采用了质量评级模型作为排名的一个因素。

被熊猫算法击中后的恢复方法

从熊猫算法中恢复的道路既容易又困难。

熊猫算法提升了高质量内容站点的排名,解决方案也是提高内容的质量和独特性,技术层面的搜索引擎优化对熊猫算法没有任何效果。

2016年1月11日,google将熊猫算法纳入核心算法。

对熊猫算法的误解

很多seo人士误认为文章应该超过250或350个单词才是对搜索引擎有吸引力的。实际上,google建议在考虑内容字数时以能解决用户问题为标准。

企鹅算法1.1(Penguin1.1)

2012年

企鹅算法之前,外链数量在抓取、索引和分析网页时,对网页的评分影响很大。

这意味着,一些低质量的网站和内容利用外链有机会出现在自然搜索结果中。

企鹅算法是谷歌对利用黑帽外链(Backlink Spam)技术操纵搜索结果和排名的回应。google将其视为解决低质量内容的方案,始于熊猫算法,是对它的延伸和补充。

企鹅算法的目标是应对大量黑帽反向链接(black hat spamming)技术,降低其效率的算法。企鹅算法努力确保对自然、权威和相关链接的奖励,同时打击操纵链接的行为,对垃圾链接进行降级。

企鹅算法只处理网站的进站链接,google只查看指向问题站点的链接,而不看从该网站发出的链接。