首页 > 站长学院 > 搜索优化 > 正文
seo网络优化是什么?seo网站关键词优化技术
2016-10-11 14:21:57           
收藏    我要投稿

1、我们必须掌握的28个让关键词排名明显改观的SEO技巧:

关键词位置、密度、处理

URL中出现关键词(英文)

网页标题中出现关键词(1-3个)

关键词标签中出现关键词(1-3个)

描述标签中出现关键词(主关键词重复2次)

内容中自然出现关键词

内容第一段和最后一段出现关键词

H1,H2标签中出现关键词

导出链接锚文本中包含关键词

图片的文件名包含关键词

ALT属性中出现关键词

关键词密度6-8%

对关键词加粗或斜体

内容质量、更新频率、相关性

原创的内容最佳,切忌被多次转载的内容

内容独立性,与其他页面至少30%互异

1000-2000字,合理分段

有规律更新,最好是每天

内容围绕页面关键词展开,与整站主题相关

具有评论功能,评论中出现关键词

导入链接和锚文本

高PR值站点的导入链接

内容相关页面的导入链接

导入链接锚文本中包含页面关键词

锚文本存在于网页内容中

锚文本周围出现相关关键词

导入链接存在3个月以上

导入链接所在页面的导出链接少于100个

导入链接来自不同IP地址

导入链接自然增加

锚文本多样化(如,SEO研究中心和网站模板下载)

掌握以上SEO技巧,可以让你的关键词排名有明显改善。

2、增加反向链接的35个技巧:

列表策略

建立一个“35个×××”。这样的文章经常会成为权威文件而被大量引用,引用者会链接向这样的文章。

写一篇“帮你×××的10大窍门”。非常容易获得反向链接。

整理一篇针对某个话题的参考资料列表。

总结某特定行业的十大谜团。

列出行业专家的名单。如果你能够让这些专家印象深刻,并把项目做得看起来挺权威,这些专家可能会对你表示感谢并把链接指向你。

权威的内容

把内容写得简单易懂,这样更多的人可以看懂并为你传播。SEO研究中心的内容受欢迎就是得益于此。

尽量减少语法或拼写错误,如果想获得权威站点的链接,这一点非常重要。

为站点添加“隐私政策”和“关于我们”页,这样看起来更值得信任。博客的话,放上一张你的照片可以建立权威性。

新闻和聚合

在艾瑞、Donews等IT行业新闻网站发布高质量文章。这些网站的排名很好,除了增加反向链接,还会给你带来高质量的流量。

向行业网站和论坛提交文章。如SEO的研究性文章,提交给SEO信息资料网站或SEO研究中心论坛。

发送新闻稿。高质量的新闻稿提交给新闻门户网站。

跟踪发布你文章的站点。给他们提供稿件来源。

与其他网站交换文章发表。

把文章发送给RSS网站如抓虾、鲜果等。

做一个让人觉得自己很重要的调查,比如关于家庭主妇的研究等。如果你让别人觉得自己重要,别人会免费为你宣传。

目录、社会化书签

很老但很有用。把网站提交给DMOZ-开放目录或其他免费目录。

让你的文章加入百度搜藏、雅虎搜藏、Google书签、QQ书签等社会化书签。

让用户通过Google阅读器、RSS等订阅你的文章。

合作伙伴、专业交换

问问你的合作伙伴或商业伙伴是否可以给你一个链接。

与合作伙伴互相推荐链接。

友情链接。

交换链接。但注意与链接养殖场远一点。

用专业与其他网站交换链接。如提供开源程序,采用者会留有链接。(如一些开源程序有一个链接指向www.banziwang.com)

给内容管理系统CMS或Blog系统等开源网站系统提供免费精美模板。别忘了在模板中添加“由×××设计”。

为开源网站程序开发插件,并留有上面锚文本链接。

3、向百度提交网站地图Sitemap

我知道可以通过Google 网站管理员工具向 Google 提交网站地图 Sitemap,那么我如何向百度、雅虎等其他搜索引擎提交呢?我是否需要制作一个类似 Google Sitemap 一样的 baidu Sitemap 呢?

答案:搜索引擎都遵循一样的 Sitemap 协议,baidu Sitemap 内容和形式可以和 Google Sitemap 完全一样。但因为百度还没开通类似 Google 网站管理员工具的提交后台,所以,我们需要采用以下方式提交"baidu Sitemap" 。

我们可以通过在 robots.txt 文件中添加以下代码行来告诉搜索引擎 Sitemap 的存放位置。包括 XML Sitemap 和 文本形式的 Sitemap。

Sitemap:

填写 Sitemap 的完整网址

如:http://www.example.com/sitemap.xml. http://www.example.com/sitemap.txt

如果有很多个.xml 或 .txt 文件,则你可以先建立一个索引文件,把这些.xml 或 .txt 文件的完整网址列在其中。?中填写完整的该索引文件的网址。

以上代码行放在 robots.txt 文件的任何位置都可以。

Google 网站管理员工具可以清楚看到 Sitemap 文件是否正确以及其他索引统计信息,所以除了以上的设置,我们建议你通过 Google 管理员工具再提交一次,以方便 Google 对你网站的更好收录。

补充:

与Googbot的第一次约会:标头和压缩

本文翻译自:First date with the Googlebot: Headers and compression

谷歌机器人 -- 多么神奇的梦幻之舟!他了解我们的灵魂和各个组成部分。或许他并不寻求什么独一无二的东西;他阅览过其它数十亿个网站(虽然我们也与其他搜索引擎机器人分享自己的数据:)),但是就在今晚,作为网站和谷歌机器人,我们将真正地了解对方。

我知道第一次约会的时候,过分地分析从来就不是什么好主意。我们将通过一系列的文章,一点点地了解谷歌机器人:

我们的第一次约会(就在今晚):谷歌机器人发出的数据标头和他所留意到的文件格式是否适于被进行压缩处理;

判断他的反应:响应代码(301s、302s),他如何处理重定向和If-Modified-Since;

下一步:随着链接,让他爬行得更快或者更慢(这样他就不会兴奋地过了头)。

今晚只是我们的第一次约会……

网站: 这些标头太炫了!无论我的网站在美国、亚洲还是欧洲,你都用同样的标头爬行吗?你曾经用过其他标头吗?

无线读取的用户代理因运营商而异,而谷歌阅读器RSS读取则包含了订阅者数量等额外信息。

我通常会避免Cookies(因此不存在所谓“Cookie:”标头),因为我并不希望与具体对话有关的信息对内容产生太大的影响。此外,如果某个服务器在动态URL而不是Cookies上使用对话ID,通常我都能识别出来,这样就不用因为每次对话ID的不同而成千上万遍地重复爬行同一个网页。

网站:我的结构非常复杂。我是用许多类型的文件。你的标头说:“Accept:*/*”。你会对所有的URL进行收录,还是自动过滤某些文件扩展名?

谷歌机器人:这要取决于我想找什么。

如果我只是对常规的Web搜索进行检索,当我看到指向MP3和视频内容的链接,我可能不会下载这些东西。类似地,如果我看到了一个JPG文件,处理方法自然 就与HTML或者PDF链接有所区别。例如JPG 的变动频率往往比HTML低很多,所以我不太经常检查JPG的变动,以节约带宽。同时,如果我为谷歌学术搜索寻找链接,那么我对PDF文章的兴趣就会远远高于对JPG文件的兴趣。对于学者而言,下载涂鸦绘画(例如JPG),或者是关于小狗玩滑板的视频,是容易让他们分散注意力的,你说对吗?

网站:没错,他们可能会觉得被打扰到了。你的敬业精神令我佩服得五体投地。我自己就喜欢涂鸦绘画(JPG),很难抗拒它们的诱惑力。

谷歌机器人: 网站老兄,让我给你讲点背景知识吧。一个文件真正下载完成后,我会使用“内容—类别”(Content-Type)标头来检查它属于HTML、图像、文本还是别的什么东西。如果它是PDF、Word文档或Excel工作表等特殊的数据类型,我会确认它的格式是否合法有效,并从中抽取文本内容。但是你永远也不能确定里面是否含有病毒。但是如果文档或数据类型混乱不清,我除了把它们扔掉之外,也没有什么更好的办法。

所以,如果我爬行你的“http://www.example.com/page1.LOL111”URL并发现未知文件扩展名时,我可能会首先把它下载。 如果我从标头中无法弄清内容类型,或者它属于我们拒绝检索的文件格式(例如MP3),那么只能把它放在一边了。除此之外,我们会接着对文件进行爬行。

网站:谷歌机器人,我很抱歉对你的工作风格“鸡蛋里挑骨头”,但我注意到你的“Accept-Encoding”标头这样说:

Accept-Encoding: gzip,deflate

你能跟我说说这些标头是怎么回事吗?

谷歌机器人:对于这个问题,并没有一个简单的答案。首先,swf(Flash)、jpg、png、gif和pdf等文件格式本身已经是压缩过的了(而且还有专门的Flash 优化器)。

网站:或许我已经把自己的Flash文件进行了压缩,自己还不知道。很显然,我的效率很高喽。

谷歌机器人:Apache和IIS都提供了选项,允许进行gzip和deflate压缩,当然,节省带宽的代价是对CPU资源的更多消耗。一般情况下,这项功能只适用于比较容易压缩的文件,例如文本HTML/CSS/PHP内容等。而且,只有在用户的浏览器或者我(搜索引擎机器人)允许的情况下才可以使用。 就我个人而言,更倾向于“gzip”而不是“deflate”。Gzip的编码过程相对可靠一些,因为它不断地进行加和检查,并且保持完整的标头,不像 “deflate”那样需要我在工作中不断推测。除此之外,这两种程序的压缩算法语言都很相似。

如果你的服务器上有闲置的CPU资源,可以尝试进行压缩(链接:Apache, IIS)。但是,如果你提供的是动态内容,而且服务器的CPU已经处于满负荷状态,我建议你还是不要这样做。

谷歌机器人:说到这里,该见见父母大人了——它就是robots.txt。我曾经见过不少发疯的“父母”。其中有些实际上只是HTML错误信息网页,而不是有效的robots.txt。有些文件里充满了无穷无尽的重定向,而且可能指向完全不相关的站点。另外一些体积庞大,含有成千上万条单独成行、各不相同的 URL。下面就是其中的一种有副作用的文件模式,在通常情况下,这个站点是希望我去爬行它的内容的:

User-Agent: *

Allow: /

然而,在某个用户流量的高峰时段,这个站点转而将它的robots.txt切换到限制性极强的机制上:

# Can you go away for a while? I'll let you back

# again in the future. Really, I promise!

User-Agent: *

Disallow: /

上述robots.txt文件切换的问题在于,一旦我看到这种限制性很强的robots.txt,有可能使我不得不把索引中已经爬行的该网站内容舍弃掉。当我再次被批准进入这个站点的时候,我不得不将原先的许多内容重新爬行一遍,至少会暂时出现503错误相应代码。

一 般来说,我每天只能重新检查一次robots.txt(否则,在许多虚拟主机站点上,我会将一大部分时间花在读取robots.txt文件上,要知道没有 多少约会对象喜欢如此频繁地拜见对方父母的)。站长们通过robots.txt 切换的方式来控制爬行频率是有副作用的,更好的办法是用网站管理员工具将爬行频率调至“较低”即可

点击复制链接 与好友分享!回本站首页
上一篇:原创的套路就是这么简单
下一篇:企业如何正确走好SEO这条“不归路”
相关文章
图文推荐
文章
推荐
热门新闻

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心
版权所有: 红黑联盟--致力于做实用的IT技术学习网站