首页 新闻 赞助 找找看

爬虫里面的索引服务器是做什么用的?

-1
悬赏园豆:5 [已解决问题] 解决于 2011-09-19 05:51

如题~~~~~索引服务器是放抓取到的链接的吗?

月下影的主页 月下影 | 初学一级 | 园豆:172
提问于:2011-09-16 14:18
< >
分享
最佳答案
0

主流搜索引擎接连不断地将它们的爬虫派出去浏览广阔的互联网。爬虫首先找到各个页面,然后把页面上的文本和代码复制并储存在它们巨大的索引服务器上,这个过程叫做爬行。这个巨大的索引,实际上就是一个包含搜索引擎爬虫可以成功访问到的所有网站页面的数据库。该索引被用来作为当你搜索时,可以非常快速地得到一个结果的仓库。当您在搜索引擎上搜索词并提交时,您实际搜索的是搜索引擎所索引的全部内容,而不是当时互联网的实际内容。

收获园豆:5
artwl | 专家六级 |园豆:16736 | 2011-09-16 15:43

谢谢你拉

月下影 | 园豆:172 (初学一级) | 2011-09-19 05:50
其他回答(1)
0

无分无答案~!

today4king | 园豆:3499 (老鸟四级) | 2011-09-16 14:22
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册