google核心算法更新-2019年3月

此次google核心算法更新是近几年来最大的更新之一。从google过去的重大算法更新中可以看出,技术层面的优化比重越来越小,精细化的内容耕耘才是王道。

在过去,当谷歌发生重大更新时,通常意味着整合了一些能够彻底改变网站排名方式的东西。去年的更新更是引入了神经匹配算法。

由于目前该更新算法还没有具体的验证结论,只能从Google官方给出的说法管中窥豹了:”对于那些表现不佳的页面,除了专注于构建优秀内容外,没有什么可“修复”的。随着时间的推移,好的内容排名会有所提升“。这一说法更是印证了高质量内容创作才是网站的灵魂。

飓风算法

2003年11月16日

这是十年来Google算法第一次重大更新。这次彻底改变了搜索引擎优化。

反向垃圾链接策略(Spamdexing)一去不复返了——关键词填充,使用多个站点、隐藏文本和隐藏链接等手段去争夺排名。

飓风算法针对反向垃圾链接策略的更新,虽然没有发现长尾词受到影响,但也过滤了大量搜索短语。许多零售商几乎完全依赖附属公司来推动网站流量,飓风算法更新导致客流量大幅下降。许多SEO从业者认为更新是针对特定商业术语,但这也只是猜测。商业零售商及附属公司恰好是Spamdexing领域最活跃的,所以它们受到的打击最大。

Jagger算法

2005年9月

在这一年Google推出了一系列算法更新,这些更新被称为Jagger。2005年9月一系列以反向链接为主题的更新开始,与此同时Google PageRank数据库(2013年12月谷歌停更了PageRank工具栏)的更新也开始了。Jagger第二、第三部分的更新一直持续到2005年11月。

Jagger算法对重复性内容网站产生了打击。拥有大量门页的网站也受到了影响。打击对象包括:购买全站链接,与不相关网站进行链接互换,从链接农场获取链接的行为。

搜索引擎抓取的内容和用户看到的内容不相符,是当时流行的优化伎俩,利用CSS隐藏文本和关键字,使用延迟重定向来欺骗搜索引擎和用户的网站都遭受重创。从那以后Google更偏爱老站和知名站点了。

Google曾在2005年就域名算法方面提交了一项专利,Google认为:

“有价值的(合法的)域名通常会提前支付好几年的费用,而门口(非法)域名很少使用超过一年。因此,域名未来的到期日期可以作为预测域名合法性的一个因素。”

Jagger算法后来被视为其他反向链接算法的前身,为企鹅算法打下了基础。

熊猫算法

2010年

2010年谷歌搜索结果质量下降,“内容农场”商业模式崛起,成为当时反复出现的话题。

熊猫算法更新旨在降低搜索结果中低质量内容,内容稀疏的网页,并奖励那些内容独特、具有吸引力的网站。

在Google熊猫推出之前,“内容农场”的猖獗,导致用户的抱怨声日益扩大。Google熊猫算法为页面分配了一个质量分类,采用了质量评级模型作为排名的其中一个因素。

被熊猫算法击中后的恢复方法

从熊猫算法中恢复的道路既容易又困难。由于熊猫算法提升了高质量内容站点的排名,因此,解决方案也是提高内容的质量和独特性。简单的说,技术层面的搜索引擎优化对熊猫算法没有任何直接影响。

2016年1月11日,Google将熊猫算法纳入核心算法。

对熊猫算法的误解

很多SEO人士误认为文章应该超过250或350个单词,才是对搜索引擎有吸引力的。实际上,Google建议在考虑内容字数时以能解决用户问题为标准。

企鹅算法1.1(Penguin1.1)

2012年

在企鹅算法之前,外链数量在谷歌抓取、索引和分析网页时,对网页的评分起着很大的作用。这意味着,一些低质量的网站和内容利用外链有机会出现在自然搜索结果中。

企鹅算法是谷歌对利用黑帽外链(Backlink Spam)技术操纵搜索结果和排名的回应。Google将其视为解决低质量内容的方案。它始于熊猫算法,是对它的延伸和补充。

企鹅算法的目标是应对大量黑帽反向链接(black hat spamming)技术,并降低其效率的算法。企鹅算法努力确保自然,权威和相关链接的奖励,同时打击操纵链接的行为,对垃圾链接进行降级。

企鹅算法只处理网站的进站链接,Google只查看指向问题站点的链接,而根本不看从该网站发出的链接。