wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。
chrome cookie 导出插件: cookies.txt
1 2
| ps aux | grep wget kill -9 processesNumber
|
wget基本的语法是:wget [参数列表] URL
。下面就结合具体的例子来说明一下wget的用法。
下载整个http或者ftp站点
1
| wget http://place.your.url/here
|
这个命令可以将 http://place.your.url/here
首页下载下来。
1 2
| -x 强制建立服务器上一模一样的目录 -nd 服务器上下载的所有内容都加到本地当前目录
|
1
| wget -r http://place.your.url/here
|
这个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同样会被下载,因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!
这时可以用 -l number
参数来指定下载的层次。例如只下载两层,那么使用:-l 2
如果想制作镜像站点,那么可以使用 -m
参数,例如:wget -m http://place.your.url/here
。这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入 robots.txt
并按robots.txt的规定来执行。
断点续传
使用命令:wget -c http://the.url.of/file
使用断点续传要求服务器支持断点续传。
1 2
| -t 参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。 -T 参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。
|
批量下载
生成一个文件,把每个文件的URL写一行,例如生成文件download.txt,
然后使用命令:wget -i download.txt
这样就会把download.txt里面列出的每个URL都下载下来。
选择性的下载
可以指定让wget只下载一类文件,或者不下载什么文件。例如:
1
| wget -m –reject=gif http://target.web.site/subdirectory
|
表示下载 http://target.web.site/subdirectory,但是忽略gif文件。
1 2
| –accept=LIST 可以接受的文件类型 –reject=LIST 拒绝接受的文件类型。
|
密码和认证
wget只能处理利用用户名/密码方式限制访问的网站,可以利用两个参数:
1 2
| –http-user=USER 设置HTTP用户 –http-passwd=PASS 设置HTTP密码
|
对于需要证书做认证的网站,就只能利用其他下载工具了,例如curl。
利用代理服务器进行下载
如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。
此时需要在当前用户的目录下创建一个 .wgetrc
文件。文件中可以设置代理服务器:
1 2
| http-proxy = 111.111.111.111:8080 ftp-proxy = 111.111.111.111:8080
|
分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:
1 2
| –proxy-user=USER 设置代理用户 –proxy-passwd=PASS 设置代理密码
|
这两个参数。 使用参数 –proxy=on/off
使用或者关闭代理。
附录:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
| 命令格式: wget [参数列表] [目标软件、网页的网址] -V, –version 显示软件版本号然后退出; -h, –help 显示软件帮助信息; -e, –execute=COMMAND 执行一个".wgetrc"命令 -o, –output-file=FILE 将软件输出信息保存到文件; -a, –append-output=FILE 将软件输出信息追加到文件; -d, –debug 显示输出信息; -q, –quiet 不显示输出信息; -i, –input-file=FILE 从文件中取得URL; -t, –tries=NUMBER 是否下载次数(0表示无穷次) -O, –output-document=FILE 下载文件保存为别的文件名 -nc, –no-clobber 不要覆盖已经存在的文件 -N, –timestamping只下载比本地新的文件 -T, –timeout=SECONDS 设置超时时间 -Y, –proxy=on/off 关闭代理 -nd, –no-directories 不建立目录 -x, –force-directories 强制建立目录 –http-user=USER 设置HTTP用户 –http-passwd=PASS 设置HTTP密码 –proxy-user=USER 设置代理用户 –proxy-passwd=PASS 设置代理密码 -r, –recursive 下载整个网站、目录(小心使用) -l, –level=NUMBER 下载层次 -A, –accept=LIST 可以接受的文件类型 -R, –reject=LIST拒绝接受的文件类型 -D, –domains=LIST可以接受的域名 –exclude-domains=LIST 拒绝的域名 -L, –relative 下载关联链接 –follow-ftp 只下载FTP链接 -H, –span-hosts 可以下载外面的主机 -I, –include-directories=LIST 允许的目录 -X, –exclude-directories=LIST 拒绝的目录
|
1 2 3 4 5 6 7 8 9
| 中文文档名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的, wget -r -np -nH –cut-dirs=3 ftp://host/test/ 测试.txt wget -r -np -nH -nd ftp://host/test/ %B4%FA%B8%D5.txt wget "ftp://host/test/*" %B4%FA%B8%D5.txt
|
由于不知名的原因,可能是为了避开特殊档名, wget 会自动将抓取档名的部分用 encode_string 处理过, 所以该 patch 就把被 encode_string 处理成 %3A
这种东西, 用 decode_string 还原成 :
并套用在目录与档案名称的部分,decode_string 是 wget 内建的函式。
1
| wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log
|