什么叫搜索引擎优化?
了解搜索引擎的排名工作原理是学习SEO的基础,那么搜索引擎排名的工作原理分为几大流程呢,初学者应该怎样制定一个合理的学习计划?在百度算法更新日异的今天,我们依旧得遵循着其算法本质,根据搜索引擎的工作原理制定出合理、科学的优化方案,才能使我们的网站有更佳的排名展现。
搜索引擎排名的工作原理分为四大流程:抓取、过滤、储存索引库以及展现排序。抓取互联网每天更新数十亿计的信息,即使强大的百度蜘蛛也不能保证将所有的更新都爬取一遍,百度蜘蛛只是一个普通的访客,和普通人一样,抓取信息有着自己的规范和原则。很重要的一步就是要让蜘蛛知道你的网站,只有知道你的网站才会前来抓取。第一种方法,在各大知名论坛、博客、微博留下自己网站的链接,当蜘蛛发现链接以后就会来抓取网页信息,但是需要注意的是有的网站是屏蔽用户发链接的,同时我们也不能再灰色网站或是低质量的网站去发链接,因为那样蜘蛛对那些网站没有信任。第二种方法,如果蜘蛛不来抓取,我们不能坐等着蜘蛛来,那么我们就需要主动向搜索引擎提交网址,当我们网站产生新的网页的时候,我们可以复制链接到搜索引擎进行搜索,如果发现未搜索,则向搜索引擎提交网址。链接分为锚文本、超链接和纯文本,快速排名的方法是建立友情链接,而友情链接以锚文本最好,并且在首页展示能获得更多的权重,虽然百度没有承认权重这一概念,但是百度官方有着自己的一套得分机制。不得不强调一点的是,QQ空间里面的内容是无法被蜘蛛抓取的,所以我们做事不能南辕北辙,用错了方法。蜘蛛访问网站的第一件事就是阅读网站的robots协议,如果网站明确禁止蜘蛛抓取,则蜘蛛不会抓取,吃了闭门羹的蜘蛛以后也不会来抓取,所以作为站长,在网站根目录放置一个robots文件非常有必要,而且很专业,并设置好权限。需要登录后的页面、回复可见的页面以及会员信息等我们不希望百度抓取的页面我们应该禁止蜘蛛抓取或者隐藏,蜘蛛不可能注册一个账户去爬取登录后的页面。今天的蜘蛛已经能够识别图片的和js的内容,但是我们并不建议网站放置大量的图片和js内容,如果放置图片的话需要加上alt属性,网页中的文字也不能放置在图片里,同时蜘蛛也不能抓取flash、iframe框架、table嵌套,这些技术已经被逐渐淘汰,被弃用。视频的内容百度也是无法识别的,要是在网站放置视频内容,我们建议在上下文加以文字辅助。蜘蛛抓取的方式分为广度抓取和深度抓取两种方式,我们建议已经收录的网页不能随便修改路径,否则形成死链接,蜘蛛无法抓取到。JavaScript则可能是蜘蛛陷入黑洞里跳不出来。
过滤每个网站的空间资源是有限的,而互联网的信息资源是无限的,用有限的资源去装无限的内容显然是不合理的。每天互联网都产生大量的垃圾或是低质量的内容,即使很大的网站也不能避免这些问题,只有减少这些垃圾或者低质量的内容的产生,网站才会有更好的收录,给蜘蛛信任感。那些是垃圾或者是低质量的内容呢,比如灰色网站产生的许多信息都属于垃圾信息,而低质量的内容如空白页面,或者网页的内容就只直接复制粘贴过来的,而且加工粗糙,没有解决用户的实际需求。通过过滤这些内容,蜘蛛的抓取工作就会轻松的多。
储存索引库当抓取和过滤后,蜘蛛根据规则建立索引库,将内容划分关键词储存。在储存索引库的过程中,搜索引擎会更新新的内容,替换旧的内容进行排序。以便用户在短短零点几秒的时间内为用户展现上百万乃至千万的搜索信息。
展现排序在存储索引和展现排序之间也存在着我们看不见的过滤,根据匹配原则和搜索引擎的算法,会再最后展现内容的时候进行排序。比如用户搜索“SEO研究中心”,那么百度可能根据权重或者关键词匹配等众多因素将SEO研究中心这个网站排在百度的前几名。优质的能解决用户实际需求的高质量的网页会在首页有更好的展现排序,当然这里我们暂不讨论竞价排名的原理。
总结经过上述的简单阐述,相信大家都对搜索引擎排名的工作原理有了一定的了解。作为SEOer,要做的本质工作就是站在用户体验的角度去做SEO,投机取巧的方式并不能使我们的网站得到更好的展现,只有扎实的学好SEO优化的基础知识,了解搜索引擎的各项工作原理和创造高质量真正解决用户实际需求才是我们要做的事情。
标签:搜索引擎,优化