具体怎么实现爬行功能啊,我只知道开始要请求http地址。
一个简单的爬虫案例,去吧皮卡丘 http://blog.csdn.net/duoduoluojia/article/details/45934131
很简单 后台请求网站地址 返回的数据中有html 你自己去解析html 获取你想要的那部分html就行了
爬虫就是一个下载页面,解析链接,重新发起请求,再次解析这么一个过程。不停的循环就行了。
至于像百度那种,主动发现你的网站的功能,暂时还不知道怎么实现的。