首页 首页 >  文章资讯

搜索引擎算法更新回顾与发展分析

发布者:feixue2017    发布时间:2018-08-17 09:20:08    浏览次数:212次

  随着WEB2.0时代搜索引擎优化(SEO)的发展普及,搜索算法的升级已经受到越来越多站长们的重视与关注。在国外,Google作为全球搜索先驱早已开放了算法更新预告,以及升级意见征集等一系列的搜索用户体验的建设。相对国内搜索巨头百度而言,这一系列的平台建设仅在2010年才陆续开始针对站长工具、开放平台以及算法预告进行补充与完善。截止至今两大搜索引擎的算法更新历程,同样见证着WEB1.0时代的衰败与新兴发展,笔者将这一系列的数据进行了如下收集整理与趋势分析:


  搜索引擎历来算法更新的重点与发展趋势的分析对比:


  一、数据规范化的补充与体验改善


  在早期传统的搜索发展当中,由成千上万级网站所组成的搜索内容与收录展现,通过机器蜘蛛爬行、索引与数据抓取处理等等,这一系列关于效率优势、信息可靠度以及精确性的搜索体验追求。衍生而至的算法更新围绕着索引规范、信息关联以及交互应用等几个方面的体验机制。无论是2010年Google Caffeine咖啡因系列搜索速度的算法提升,亦或是今年百度对于Canonical 标准化的规范标签支持。搜索结果的处理效率与可靠信息规范体验的将变得越来越重要。


  二、由网站投票过渡至用户投票方式


  对于搜索引擎来说,效率化的抓取执行与数据处理正是人工网站目录无可取代的领先优势。但是由于任何机器系统都会存在的机制类缺憾,人为操控的排名BUG一直以来都是困扰搜索引擎的巨大难题之一。自2010-2011年以来,社会化多媒体的快速发展使得用户、内容、网站三者产生翻天覆地的变化,由UGC(用户生成内容)所带来的分享化趋势,同样迎合着搜索引擎对于排名机制完善的渴求与改善。


  三、为信息建立可靠、多样、即时化的搜索体验


  以往不同的是,当下搜索结果早已告别了早期千篇一律的文字形式。随着高速发展的网络时代,越来越多的网站内容呈现出几何式的数据增长,搜索体验的提升正是用户对于海量数据查找的准确、关联与价值判断的基本需求。从机器抓取并由网站投票等单一机制所完成的处理方式,已经难以满足搜索用户对于海量数据的查找需求,按照上述用户投票与UGC所主导的社会媒体平台展现,正在呈现出用户对于权威信息的信任、即时化的依赖以及多样化的关联体验。延伸阅读推荐:《社交化媒体对SEO的影响分析》


  四、垃圾信息的惩罚与恢复机制的体系完善


  SPAM为各个网络领域的泛滥应用之下,对于搜索用户体验的危害自然不言而喻。由上述规范化数据、用户投票以及搜索体验三大趋势的算法提升,无一例外地是建立在对于垃圾信息的惩罚与恢复体系的完善。对于Google每年算法更新将近500次的看来,近期百度对于相关机制补充与完善可谓急起直追。尽管从更新历程的对比看来,亦是无一例外地沿用Google体系的更新方向从而建立的本土化更新,至少我们已经看到了相应搜索体验处理与提升的决心。


  百度百科资料介绍:


  搜索引擎算法: 获得网站网页资料,建立数据库并提供查询的系统,我们都可以把它叫做搜索引擎。搜索引擎的数据库是依靠一个叫"网络机器人(crawlers)"或叫"网络蜘蛛(Spider)"的软件,通过网络上的各种链接自动获取大量网页信息内容,并按一定的规则分析整理形成的。Google、百度都是比较典型的搜索引擎系统。 为了更好的服务网络搜索,搜索引擎的分析整理规则---即搜索引擎算法是变化的。


天津国泰医院

【版权与免责声明】如发现内容存在版权问题,烦请提供相关信息发邮件至 335760480@qq.com ,我们将及时沟通删除处理。 以上内容均为网友发布,转载仅代表网友个人观点,不代表平台观点,涉及言论、版权与本站无关。