首页 > 站长学院 > 搜索优化 > 正文
站长要对搜索引擎算法改进保持足够的敏感
2010-07-27 11:32:07           
收藏    我要投稿

搜索引擎优化,不会轻易的改变它的宗旨,永远要提供给用户最符合用户搜索需求的信息,也就是说我们的网站要提供给用户真正需要的、相关的信息,而不是大量的垃圾信息,搜索引擎的这个宗旨,在一定的时间内,应该不会轻易的改变的,尽管它的搜索引擎索引和排名技术一直在改进,可都是在向这个宗旨靠近,用户是它们的生命,如果搜索引擎呈现给搜索用户的大多是与他们的需求不相关的垃圾信息,那么它离失败应该不远了。所以对于网站运营者来说,如果想通过搜索引擎营销引来客户,那么必须要抓住这个宗旨,为用户提供高质量、高相关的信息,这样才能讨好搜索引擎、讨好用户。

  随着搜索引擎爬行索引和排名技术的改进,搜索引擎也变得越来越聪明了,能够检测更多的作弊手段,能够通过一定的方法判断一个文件对关键词的相关性,以及能够检测出这个网页内容是否对用户有用。在搜索引擎的这个算法改进的过程中,我们这些网站运营者应该能够敏锐的感觉到这些变化,应该能够识别出搜索引擎又加入了哪些索引排名因素,以及每个因素在搜索引擎算法中所占的权重有多大。

  在搜索引擎优化初期,在搜索引擎的排名因素中所占的权重最大的就是关键词密度,所以SEO优化手法最常用的就是关键词堆砌,只要在网页的标题标签、关键词标签、描述标签、以及正文中大量的出现关键词以提高关键词在网页文本中的密度,有时甚至是出现了大量根本与网页内容大不相关的关键词,也能在搜索引擎中有一个不错的排名。当大家都发现了这个事实后,于是就大量的堆砌关键词,严重影响了搜索引擎的搜索结果。

  然后搜索引擎巨头谷歌(Google)就发明了PR值,以及及于PR值的新的索引排名算法,也就是外链越多,网页在搜索引擎中的排名就越好,很快的大家就意识到了这个漏洞,于是就制造大量的不相关的垃圾链接,买链接,买PR,建立链接工厂,注册很多域名然后这些域名之间互相链接等,试图通过提高网站的PR值来提升在搜索引擎中的排名,搜索引擎马上意识到了这个问题,于是就提出了sand-box沙盒效应,来延迟链接的作用。这在一定程序是阻止了垃圾链接的产生。可是搜索引擎毕竟是机器,始终没有人聪明,它不可能完全检测出哪些链接是对用户有用的。所以还是有很多人每天在制造着大量的垃圾链接。

  现在,搜索引擎越来越倾向于分析用户行为模式和用户与网站的互动性,例如网页的打开速度、跳出率、平均浏览时间等。越来越回归于搜索引擎的宗旨。对于搜索引擎的新变化,我们这些seoer应该保持足够的敏感。应该在最短的时间内做出相应的对策。文章来源:

点击复制链接 与好友分享!回本站首页
上一篇:交换友情链接时需要注意的8个细节问题
下一篇:SEO五种常见的误区:必须克服随意性
相关文章
图文推荐
文章
推荐
热门新闻

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心
版权所有: 红黑联盟--致力于做实用的IT技术学习网站