首先,让我们看看基于爬虫的搜索引擎是如何工作的(谷歌和百度都属于这一类)。
每个搜索引擎都有自己的自动程序,称为“网络机器人”或“网络爬虫”,或“网页蜘蛛”。爬行器的主要目的是抓取网站页面、读取和收集内容,并跟踪链接(内部和外部)。然后,爬行器将收集到的信息存储到搜索引擎的数据库中,称为索引。
当搜索者在搜索引擎的搜索框中输入一个查询时,搜索引擎的工作就是通过将搜索查询与索引中的信息相匹配来找到最相关的搜索结果。
当你进行搜索时,搜索引擎是如何回答你的问题的?
这是基于所谓的搜索引擎算法。基本上是一堆搜索引擎决定页面的相关性。你的页面在这些因素中排名越高(是的,有些因素比其他因素更重要),你的页面在搜索引擎结果页面(SERP)中展示的位置就越靠前。