文章目录
  1. 1. 下载整个http或者ftp站点
  2. 2. 断点续传
  3. 3. 批量下载
  4. 4. 选择性的下载
  5. 5. 密码和认证
  6. 6. 利用代理服务器进行下载
    1. 6.1. 附录:

wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。

chrome cookie 导出插件: cookies.txt

1
2
ps aux | grep wget
kill -9 processesNumber

wget基本的语法是:wget [参数列表] URL。下面就结合具体的例子来说明一下wget的用法。

下载整个http或者ftp站点

1
wget http://place.your.url/here

这个命令可以将 http://place.your.url/here 首页下载下来。

1
2
-x 强制建立服务器上一模一样的目录
-nd 服务器上下载的所有内容都加到本地当前目录
1
wget -r http://place.your.url/here

这个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同样会被下载,因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!

这时可以用 -l number 参数来指定下载的层次。例如只下载两层,那么使用:-l 2

如果想制作镜像站点,那么可以使用 -m 参数,例如:wget -m http://place.your.url/here。这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入 robots.txt 并按robots.txt的规定来执行。

断点续传

使用命令:wget -c http://the.url.of/file

使用断点续传要求服务器支持断点续传。

1
2
-t 参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。
-T 参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。

批量下载

生成一个文件,把每个文件的URL写一行,例如生成文件download.txt,

然后使用命令:wget -i download.txt

这样就会把download.txt里面列出的每个URL都下载下来。

选择性的下载

可以指定让wget只下载一类文件,或者不下载什么文件。例如:

1
wget -m –reject=gif http://target.web.site/subdirectory

表示下载 http://target.web.site/subdirectory,但是忽略gif文件。

1
2
–accept=LIST 可以接受的文件类型
–reject=LIST 拒绝接受的文件类型。

密码和认证

wget只能处理利用用户名/密码方式限制访问的网站,可以利用两个参数:

1
2
–http-user=USER 设置HTTP用户
–http-passwd=PASS 设置HTTP密码

对于需要证书做认证的网站,就只能利用其他下载工具了,例如curl。

利用代理服务器进行下载

如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。

此时需要在当前用户的目录下创建一个 .wgetrc 文件。文件中可以设置代理服务器:

1
2
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080

分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:

1
2
–proxy-user=USER 设置代理用户
–proxy-passwd=PASS 设置代理密码

这两个参数。 使用参数 –proxy=on/off 使用或者关闭代理。

附录:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
命令格式:
wget [参数列表] [目标软件、网页的网址]
-V, –version 显示软件版本号然后退出;
-h, –help 显示软件帮助信息;
-e, –execute=COMMAND 执行一个".wgetrc"命令
-o, –output-file=FILE 将软件输出信息保存到文件;
-a, –append-output=FILE 将软件输出信息追加到文件;
-d, –debug 显示输出信息;
-q, –quiet 不显示输出信息;
-i, –input-file=FILE 从文件中取得URL;
-t, –tries=NUMBER 是否下载次数(0表示无穷次)
-O, –output-document=FILE 下载文件保存为别的文件名
-nc, –no-clobber 不要覆盖已经存在的文件
-N, –timestamping只下载比本地新的文件
-T, –timeout=SECONDS 设置超时时间
-Y, –proxy=on/off 关闭代理
-nd, –no-directories 不建立目录
-x, –force-directories 强制建立目录
–http-user=USER 设置HTTP用户
–http-passwd=PASS 设置HTTP密码
–proxy-user=USER 设置代理用户
–proxy-passwd=PASS 设置代理密码
-r, –recursive 下载整个网站、目录(小心使用)
-l, –level=NUMBER 下载层次
-A, –accept=LIST 可以接受的文件类型
-R, –reject=LIST拒绝接受的文件类型
-D, –domains=LIST可以接受的域名
–exclude-domains=LIST 拒绝的域名
-L, –relative 下载关联链接
–follow-ftp 只下载FTP链接
-H, –span-hosts 可以下载外面的主机
-I, –include-directories=LIST 允许的目录
-X, –exclude-directories=LIST 拒绝的目录
1
2
3
4
5
6
7
8
9
中文文档名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的,
wget -r -np -nH –cut-dirs=3 ftp://host/test/
测试.txt
wget -r -np -nH -nd ftp://host/test/
%B4%FA%B8%D5.txt
wget "ftp://host/test/*"
%B4%FA%B8%D5.txt

由于不知名的原因,可能是为了避开特殊档名, wget 会自动将抓取档名的部分用 encode_string 处理过, 所以该 patch 就把被 encode_string 处理成 %3A 这种东西, 用 decode_string 还原成 : 并套用在目录与档案名称的部分,decode_string 是 wget 内建的函式。

1
wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log