首页 新闻 赞助 找找看

我想写个程序下载某一个指定网站上的所有word,或是rar文件

0
悬赏园豆:100 [已关闭问题]

各位提供个思路了

ChaunceyHao的主页 ChaunceyHao | 初学一级 | 园豆:12
提问于:2010-03-23 19:48
< >
分享
其他回答(5)
0

攻破服务器,上去找到文件存储的位置,然后download。。开玩笑的。。。

做个爬虫?然后逐个页面分析?

idoku | 园豆:267 (菜鸟二级) | 2010-03-23 20:13
0

可以用正则表达式去匹配。。主要就是正则表达式。。

bochins | 园豆:2 (初学一级) | 2010-03-23 20:16
0

可以使用网页下载器来下载整个站点,比如WebZip 7.0等网站下载器就可以了

西越泽 | 园豆:10775 (专家六级) | 2010-03-23 21:40
0

webzip或者teleport软件可以实现把整个网站搬下来.
Teleport Pro 所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。

风影极光 | 园豆:1573 (小虾三级) | 2010-03-24 08:36
0

1 如果是不需要登录的网站,而且以静态页面为主的话,可以采用Teleport Pro,这个软件我用过,比较好用

2 如果是需要登录的网站,下载链接又不是那么好找,只有自己写程序实现了,首先做一个爬虫,遍历链接和页面,找到下载链接,然后进行多线程下载

查尔斯 | 园豆:3832 (老鸟四级) | 2010-03-24 15:22
0

如果网站代码没用特殊的方式隐藏doc和rar文件的路径的话,可以写代码爬页面,分析,找到路径,然后下载。不过这种做法只能针对一个站点做,做成通用的几乎是不可能的。

文件下载路径好多都是经过处理的。

棋圣 | 园豆:197 (初学一级) | 2010-03-25 09:27
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册