`
tomrose
  • 浏览: 147411 次
  • 来自: ...
社区版块
存档分类
最新评论

wget批量下载

阅读更多

wget

wget是一个强力方便的命令行方式下的下载工具。本文介绍了wget的基本用法。

网络用户有时候会遇到需要下载一批文件的情况,有时甚至需要把整个网站下载下来或者制作网站的镜像。在Windows下的用户都比较熟悉 Teleport,webzip等等网站下载工具,实际上Linux中也完全可以做到这样的功能,那就是利用wget工具。wget是一个命令行工具,用来下载网络文件或者整个网站,它具有自动重试、断点续传、支持代理服务器等等强大的功能。它可以完全替代ftp客户端。wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。

wget虽然功能强大,但是使用起来还是比较简单的,基本的语法是:

wget [参数列表] URL

下面就结合具体的例子来说明一下wget的用法。

1、下载整个http或者ftp站点。

wget http://place.your.url/here

这个命令可以将http://place.your.url/here 首页下载下来。使用-x会强制建立服务器上一模一样的目录,如果使用-nd参数,那么服务器上下载的所有内容都会加到本地当前目录。

wget -r http://place.your.url/here

这个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同样会被下载,因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!基于这个原因,这个参数不常用。可以用-l number参数来指定下载的层次。例如只下载两层,那么使用-l 2。 要是您想制作镜像站点,那么可以使用-m参数,例如:

wget -m http://place.your.url/here

这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入robots.txt并按robots.txt的规定来执行。

2、断点续传。

当文件特别大或者网络特别慢的时候,往往一个文件还没有下载完,连接就已经被切断,此时就需要断点续传。wget的断点续传是自动的,只需要使用-c参数,例如:

wget -c http://the.url.of/incomplete/file

使用断点续传要求服务器支持断点续传。-t参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。-T参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。

3、批量下载。

如果有多个文件需要下载,那么可以生成一个文件,把每个文件的URL写一行,例如生成文件download.txt

然后用命令:

wget -i download.txt

这样就会把download.txt里面列出的每个URL都下载下来。(如果列的是文件就下载文件,如果列的是网站,那么下载首页)

4、选择性的下载。

可以指定让wget只下载一类文件,或者不下载什么文件。例如:

wget -m –reject=gif http://target.web.site/subdirectory

表示下载http://target.web.site/subdirectory,但是忽略 gif 文件。–accept=LIST 可以接受的文件类型, –reject=LIST 拒绝接受的文件类型。

5、密码和认证。

wget只能处理利用用户名/密码方式限制访问的网站,可以利用两个参数:

--http-user=USER 设置HTTP用户–http-passwd=PASS 设置HTTP密码

对于需要证书做认证的网站,就只能利用其他下载工具了,例如curl。

6、利用代理服务器进行下载。

如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。此时需要在当前用户的目录下创建一个 .wgetrc 文件。文件中可以设置代理服务器:

http-proxy = 111.111.111.111:8080ftp-proxy = 111.111.111.111:8080

分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:

–proxy-user=USER 设置代理用户–proxy-passwd=PASS 设置代理密码

这两个参数。

使用参数–proxy=on/off 使用或者关闭代理。

7、设定下载时间

如果你需要在你的办公电脑上通过和其他同事共享的一个连接来下载一些很大的文件,而且你希望你的同事不会因为网络速度的减慢而收到影响,那你就应该尽量避开高峰时段。当然,不需要在办公室里等到所以人都走掉,也不需要在家里用完晚饭后还惦记着要上网下载一次。

用at来就可以很好的定制工作时间:

$ at 2300
warning: commands will be executed using /bin/sh
at> wget http://place.your.url/here
at> press Ctrl-D

这样,我们设定了下载工作在晚上11点进行。为了使这个安排能够正常进行,请确认atd这个后台程序正在运行。

8、定时下载

当你需要下载大量的数据,而且你又没有享有足够的带宽,这个时候你会经常发现在你安排的下载任务还没有完成,一天的工作却又要开始了。

作为一个好同事,你只能停掉了这些任务,而开始另外的工作。然后你又需要反复地重复使用”wget -c”来完成你的下载。这样肯定太繁琐了,所以最好是用crontab来自动执行。创建一个纯文本文件,叫做”crontab.txt”,包含下面的内容:

0 23 * * 1-5 wget -c -N http://place.your.url/here
0 6 * * 1-5 killall wget

这个crontab文件指定某些任务定期地执行。前五列声明是什么时候执行这个命令,而每行的剩余部分则告诉crontab执行什么内容。

前两列指定了每天一到晚上11点就开始用wget下载,一到早上6点就停止一切wget下载。第三四列的*表示每个月的每一天都执行这个任务。第五列则指定了一个星期的哪几天来执行这个程序。 –”1-5″表示从星期一到星期五。

这样在每个工作日的晚上11点,下载工作开始,到了上午的6点,任何的wget任务就被停掉了。你可以用下面的命令来执行crontab:

$ crontab crontab.txt

wget的这个“-N”参数将会检查目标文件的时间戳,如果匹配了,下载程序就会停止,因为它说明整个文件已经下载完全了。

用“crontab -r”可以删除这个计划安排。我已经多次采用这种方法,通过共享的电话拨号来下载过很多的ISO镜像文件,还是比较实用的。

9、下载动态变化的网页

有些网页每天都要根据要求变化好几次。所以从技术上讲,目标不再是一个文件,它没有文件长度,因此”-c”这个参数也就失去了意义。

例如:一个PHP写的并且经常变动的linux周末新闻网页:

$ wget http://lwn.net/bigpage.php3

我办公室里的网络条件经常很差,给我的下载带了很大的麻烦,所以我写了个简单的脚本来检测动态页面是否已经完全更新了。

#!/bin/bash
#create it if absent
touch bigpage.php3
 
#check if we got the whole thing
while ! grep -qi bigpage.php3
do
rm -f bigpage.php3
 
#download LWN in one big page
wget http://lwn.net/bigpage.php3
 
done

这个脚本能够保证持续的下载该网页,直到网页里面出现了””,这就表示该文件已经完全更新了.

10、对于ssl和Cookies怎么办?

如果你要通过ssl来上网,那么网站地址应该是以 https: 来开头的,在这样的情况下你就需要另外一种下载工具,叫做curl,它能够很容易获得.有些网站迫使网友在浏览的时候必须使用cookie。所以你必须从在网站上得到的那个Cookie里面得到“Cookie:”这个参数.这样才能保证下载的参数正确。对于lynx和Mozilla的Cookie的文件格式,用下面的:

$ cookie=$( grep nytimes ~/.lynx_cookies |awk {printf(%s=%s;”,$6,$7)} )

就可以构造一个请求Cookie来下载 http://www.nytimes.com 上的内容。当然,你要已经用这个浏览器在该网站上完成注册。

w3m使用了一种不同的,更小巧的Cookie文件格式:

$ cookie=$( grep nytimes ~/.w3m/cookie |awk {printf(%s=%s;”,$2,$3)} )

现在就可以用这种方法来下载了:

$ wgetheader="Cookie: $cookie" http://www.nytimes.com/reuters/technology/tech-tech-supercomput.html

或者用curl工具:

$ curl -v -b $cookie -o supercomp.html http://www.nytimes.com/reuters/technology/tech-tech-supercomput.htm

11、如何建立地址列表?

到现在为止我们下载的都是单个文件或者是整个网站.有的时候我们需要下载某个网页上链接的大量文件,但没有必要把它整个网站都镜像下来.比如说我们想从一个依次排列的100首歌里面下载前20首.注意,这里”–accept”和”–reject”参数是不会起作用的,因为他们只对文件操作起作用.所以一定要用”lynx -dump”参数来代替。

$ lynx -dump ftp://ftp.xxx.com/pub/lg/ |grep gz$ |tail -10 |awk {print $2} > urllist.txt

lynx的输出结果可以被各种GNU文本处理工具过虑.在上面的例子里,我们的链接地址是以”gz”结尾的,并且把最后10个文件地址放到 urllist.txt文件里.然后我们可以写一个简单的bash脚本来自动下载这个文件里的目标文件:

$ for x in $(cat urllist.txt)
> do
> wget $x
> done

这样我们就能够成功下载Linux Gazette网站(ftp://ftp.xxx.com/pub/lg/)上的最新10个论题。

12、扩大使用的带宽

如果你选择下载一个受带宽限制的文件,那你的下载会因为服务器端的限制而变得很慢.下面这个技巧会大大缩短下载的过程.但这个技巧 需要你使用curl并且远程服务器有多个镜像可以供你下载.例如,假设你想从下面的三个地址下载Mandrake 10.0:

url1=http://ftp.eecs.umich.edu/pub/linux/mandrake/iso/Mandrake10.0-inst.iso
url2=http://ftp.rpmfind.net/linux/Mandrake/iso/Mandrake10.0-inst.iso
url3=http://ftp.wayne.edu/linux/mandrake/iso/Mandrake10.0-inst.iso

这个文件的长度是677281792个字节,所以用curl程序加”–range”参数来建立三个同时进行的下载:

$ curl -r 0-199999999 -o mdk-iso.part1 $url1 &
$ curl -r 200000000-399999999 -o mdk-iso.part2 $url2 &
$ curl -r 400000000- -o mdk-iso.part3 $url3 &

这样就创建了三个后台进程.每个进程从不同的服务器传输这个ISO文件的不同部分.这个”-r”参数指定目标文件的字节范围.当这三个 进程结束后,用一个简单的cat命令来把这三个文件衔接起来– cat mdk-iso.part? > mdk-80.iso.(强烈建议在刻盘之前先检查md5) 你也可以用”–verbose”参数来使每个curl进程都有自己的窗口来显示传输的过程。

wget还有很多有用的功能,需要您来挖掘。

二、wget常用参数:

1、启动类参数

这一类参数主要提供软件的一些基本信息;

-V,–version 显示软件版本号然后退出;

-h,–help 显示软件帮助信息;

-e,–execute=COMMAND 执行一个 “.wgetrc”命令

-b, –background 启动后转入后台执行,记录文件写在当前目录下”wget-log”文件中。

以上每一个功能有长短两个参数,长短功能一样,都可以使用。需要注意的是,这里的-e参数是执行一个.wgettrc的命令,.wgettrc命令其实是一个参数列表,直接将软件需要的参数写在一起就可以了。

2、文件处理参数

这类参数定义软件log文件的输出方式等;

-o,–output-file=FILE  将软件输出信息保存到文件;

-a,–append-output=FILE 将软件输出信息追加到文件;

-d,–debug 显示输出信息;

-q,–quiet  不显示输出信息;

-i,–input-file=FILE  从文件中取得URL;

3、下载参数

下载参数定义下载重复次数、保存文件名等;

-t,–tries=NUMBER  是否下载次数(0表示无穷次)

-O –output-document=FILE 下载文件保存为别的文件名

-nc, –no-clobber  不要覆盖已经存在的文件

-c, –continue 启用断点传输,接着下载没下载完的文件

-N,–timestamping 只下载比本地新的文件

-T,–timeout=SECONDS 设置超时时间

-w, –wait=SECONDS 两次尝试之间间隔SECONDS秒

–waitretry=SECONDS 在重新链接之间等待1…SECONDS秒

–random-wait 在下载之间等待0…2*WAIT秒

-Q, –quota=NUMBER 设置下载的容量限制

-E, –html-extension将所有text/html文档以.html扩展名保存

-m, –mirror 等价于 -r -N -l inf -nr

-p, –page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject)

-Y,–proxy=on/off 关闭代理

4、目录参数

目录参数主要设置下载文件保存目录与原来文件(服务器文件)的目录对应关系;

-nd –no-directories  不建立目录

-x,–force-directories  强制建立目录

-nH, –no-host-directories 不创建主机目录

-P, –directory-prefix=PREFIX 将文件保存到目录 PREFIX/…

5、HTTP参数

HTTP参数设置一些与HTTP下载有关的属性;

–http-user=USER 设置HTTP用户

–http-passwd=PASS 设置HTTP密码

–proxy-user=USER 设置代理用户

–proxy-passwd=PASS 设置代理密码

6、递归参数设置

在下载一个网站或者网站的一个目录的时候,我们需要知道的下载的层次,这些参数就可以设置;

-r,–recursive 下载整个网站、目录(小心使用)

-k, –convert-links 转换非相对链接为相对链接(下载网页时很有用)

-K, –backup-converted 在转换文件X之前,将之备份为 X.orig

-l,–level=NUMBER 下载层次

-np, –no-parent不要追溯到父目录

7、递归允许与拒绝选项参数

下载一个网站的时候,为了尽量快,有些文件可以选择下载,比如图片和声音,在这里可以设置;

-A,–accept=LIST 可以接受的文件类型

-R,–reject=LIST 拒绝接受的文件类型

-D,–domains=LIST 可以接受的域名

–exclude-domains=LIST 拒绝的域名

-L,–relative  只下载相对链接

–follow-ftp 只下载HTML文档中的FTP链接

-H,–span-hosts  可以下载外面的主机

-I,–include-directories=LIST 允许的目录

-X,–exclude-directories=LIST  拒绝的目录

分享到:
评论

相关推荐

    wget批量下载Earthdata TRMM 遥感数据详细方法

    Earthdata网站的TRMM数据wget工具下载详细方法,可以批量下载几万条数据,十分方便。

    批量下载并随意为每个文件批量重命名为指定的名称和保存位置.zip

    这个压缩包"批量下载并随意为每个文件批量重命名为指定的名称和保存位置.zip"正是为了满足这样的需求而设计的。它包含了一个名为"批量下载并重命名.exe"的可执行文件,一个"下载数据.txt"的文本文件,以及一个"使用...

    wget for Windows

    wget for ,通过CMD下载文件

    wget for windows

    这对于长时间的下载任务或者批量下载非常有用。 2. **断点续传**:如果下载过程中因网络问题中断,`wget` 可以在恢复连接后继续之前的下载,避免了文件的重复下载。 3. **递归下载**:可以按照网站结构下载整个...

    wget网站下载工具

    这个工具非常适合批量下载或者在无人值守的情况下进行大文件或整个网站的下载。 wget的工作原理是通过向服务器发送请求来获取文件,它支持多种下载选项,可以根据需要进行定制。例如,你可以设置下载速度限制、设定...

    wget命令行下载工具

    `wget`命令行下载工具是Linux环境中广泛使用的网络数据抓取工具,它允许用户通过命令行界面批量下载文件和整个网站。在没有图形用户界面(GUI)或者远程服务器管理的场景下,`wget`显得尤为实用。这个工具以其强大的...

    windows wget.exe免费下载

    它源自于开源的GNU项目,功能强大且高度可配置,适用于自动化批量下载任务。wget支持HTTP、HTTPS和FTP协议,同时也能够处理重定向、通过代理服务器工作、断点续传以及在后台运行等特性。 在Windows系统中,wget.exe...

    centos下wget安装包

    `wget`的一个显著特点是其非交互式操作,能够在后台运行,非常适合无人值守的批量下载任务。在CentOS系统中,`wget`是构建网络自动化工作流的重要组成部分。 标题"CentOS下wget安装包"指的是在CentOS操作系统中安装...

    wget wget wget wget

    通过读取包含URL的文本文件,可以批量下载多个资源。例如: ``` wget -i urls.txt ``` **日志和输出:** `wget`可以将输出重定向到文件,或者使用`-a`或`--append-output`追加到现有日志。`--debug`提供详细调试...

    wget for windows命令行下载工具, 支持https, 支持win10

    在Windows 10系统中,wget同样表现优秀,用户可以通过命令行界面进行文件的下载操作,尤其适合自动化脚本或者无人值守的批量下载任务。 HTTPS(Hypertext Transfer Protocol Secure)是一种安全的网络通信协议,它...

    Modis 批量下载步骤

    Modis批量下载 ,1、下载一个软件: 用于截取文件名称。 2、从你订单反馈邮件中找到订单号的网址,比如说订单order ID:500948046,网址为 ftp://ladsweb.nascom.nasa.gov/orders/500948046/。 3、下载订单内所有的...

    wget.exe cmd下载网络图片

    3. **批量下载**:如果你有多个图片链接,可以创建一个包含这些链接的文本文件,然后使用`wget`的`-i`或`--input-file`参数批量下载: ``` wget -i "链接文件.txt" ``` 4. **静默模式**:在某些情况下,你可能...

    Wget tools download

    Wget以其非交互式、可后台运行、断点续传和递归下载等特性而受到青睐,常用于自动化脚本或批量下载任务。 **主要功能** 1. **非交互式操作**:Wget可以在没有用户交互的情况下运行,非常适合在命令行环境下或者...

    Windows32 wget.exe&curl;.exe 命令行下载工具(附dll文件)

    这个压缩包中的wget.exe允许Windows用户在没有图形界面的情况下进行批量下载或者定时下载,非常适用于自动化任务和脚本编写。 **curl.exe** curl是另一个功能丰富的文件传输工具,同样支持多种网络协议,如HTTP、...

    php-wget 把远程文件下载到本地服务器上。

    考虑使用多线程、批量下载或者利用PHP的缓存机制来优化。 ### 示例代码(wget.php) 下面是一个简单的`wget.php`示例,它会下载一个网页并将其保存到本地: ```php $url = 'http://example.com/path/to/file'; $...

    wget使用方法

    `wget`的特点在于其非交互式操作,可以在后台运行,即便用户已经退出终端,依然可以继续下载任务,非常适合批量下载或定时下载。 在本文中,我们将深入探讨`wget`的基本用法和一些高级特性,帮助你更好地掌握这个...

    使用Python and shell 批量下载哨兵一号(sentinel-1)的精密轨道数据

    使用`wget`命令,结合Python生成的下载链接,可以实现批量下载: ```bash #!/bin/bash for product in "${products[@]}" do wget --no-check-certificate -O "$product.SAFE" ...

    wget-1.20.3-win32.zip

    其次,wget的批量下载功能使其成为网站镜像和自动化下载任务的理想选择。通过指定URL模式、正则表达式或文件列表,用户可以一次性下载整个目录结构或者符合特定规则的所有文件。这对于备份网站、抓取数据或者更新...

    wget[exe&help]

    `wget`是一个强大的网络资源下载工具,它支持多种...通过熟练掌握`wget`,你可以轻松地自动化批量下载任务,备份网站,或者从不友好的接口获取数据。记住,`wget`的灵活性和强大功能意味着它总是有新技巧等待你去发掘。

    wget-1.11.4-1源代码

    在Linux脚本中使用wget,可以实现自动化批量下载。例如,你可以编写一个bash脚本来下载一系列URL列出的文件。 ### 源代码分析 `src`目录包含了wget的源代码文件,如`main.c`是主程序,`url.c`处理URL解析,`ftp.c`...

Global site tag (gtag.js) - Google Analytics