攻破服务器,上去找到文件存储的位置,然后download。。开玩笑的。。。
做个爬虫?然后逐个页面分析?
可以用正则表达式去匹配。。主要就是正则表达式。。
webzip或者teleport软件可以实现把整个网站搬下来.
Teleport Pro 所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。
1 如果是不需要登录的网站,而且以静态页面为主的话,可以采用Teleport Pro,这个软件我用过,比较好用
2 如果是需要登录的网站,下载链接又不是那么好找,只有自己写程序实现了,首先做一个爬虫,遍历链接和页面,找到下载链接,然后进行多线程下载
如果网站代码没用特殊的方式隐藏doc和rar文件的路径的话,可以写代码爬页面,分析,找到路径,然后下载。不过这种做法只能针对一个站点做,做成通用的几乎是不可能的。
文件下载路径好多都是经过处理的。