4月24号谷歌杰出的工程师Matt Cutts在谷歌网站管理员博客中公开表扬了那些高质量的网站,并表示在接下来的工作中,会重点推出一个算法,针对那些垃圾网站,这个算法将会影响网站的排名。
这在seo业界似乎已经不是新鲜的事情了,众所周知,谷歌很长一段时间都在这对过度优化的网站进行算法更新,而此次算法更新针对的目标就是那些垃圾网站。什么样的网站将会在这次算法更新中遭受袭击?我们先来了解一下这次网络垃圾算法的更新的几大亮点:
1、谷歌推出几个不同元素的识别系统来检测网站
搜索引擎以某种方式来确定与网站相关的网页集群,比如在同一主机上,寻找这些网页为目标的桥页和相关文章,一旦被确定这是一个集群,集群内部的文件可能收到搜索引擎的检索,看看这个文本是否属于他们内部的文本,如果不是一旦被发现是外部链接进入的文本,则会被认为是作弊,同时在检测内部文件的时候,搜索引擎会重点检索meta标签里面的内容,如果发现meta标签中塞满了重复的关键词,或是有隐藏在网页上的文字,或是页面中包含了很多无关的链接,那么很不幸,这样的网站也被列入了搜索引擎垃圾网站的黑名单中。
2、使用统计的语言模型来识别网页
在这次谷歌算法更新中,谷歌亦得到更先进的开发,他们使用统计语言模型,语音识别,机器翻译来识别网页上的非自然字分布,甚至确定在上下文中的同义词。这样谷歌在面对庞大的数据信息时就有了更为简单的算法工作。
3、提出两个新的查询短语subphrase和phrasification
Spammier:是基于对网站进行分类,然后判别这类网站中是否存在垃圾网站。使用这个短语可以对搜索引擎结果也中的一些网站进行分类,如电脑游戏,电影,音乐专题网站。
Phrasification:从弹跳窗口中选出重复的网页。着眼于不同类型的网站中弹跳出来的小窗口页面进行重复页面筛选,一旦发现就被过滤掉。
以上是这次谷歌算法更新的极大亮点,它可能会影响约3%的所有查询,包括英语,德语,中文和阿拉伯文的语言,不知道这次更新对站长朋友会造成多大的冲击?
内容原创:www.kaililong.net 转载内容请保留来源地址,谢谢。