wget是一个强力方便的命令行方式下的下载工具。本文介绍了wget的基本用法。
网络用户有时候会遇到需要下载一批文件的情况,有时甚至需要把整个网站下载下来或者制作网站的镜像。在Windows下的用户都比较熟悉 Teleport,webzip等等网站下载工具,实际上Linux中也完全可以做到这样的功能,那就是利用wget工具。wget是一个命令行工具,用来下载网络文件或者整个网站,它具有自动重试、断点续传、支持代理服务器等等强大的功能。它可以完全替代ftp客户端。wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。
wget虽然功能强大,但是使用起来还是比较简单的,基本的语法是:
wget [参数列表] URL
下面就结合具体的例子来说明一下wget的用法。
当文件特别大或者网络特别慢的时候,往往一个文件还没有下载完,连接就已经被切断,此时就需要断点续传。wget的断点续传是自动的,只需要使用-c参数,例如:
wget -c http://the.url.of/incomplete/file
使用断点续传要求服务器支持断点续传。-t参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。-T参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。
如果有多个文件需要下载,那么可以生成一个文件,把每个文件的URL写一行,例如生成文件download.txt,
然后用命令:
wget -i download.txt
这样就会把download.txt里面列出的每个URL都下载下来。(如果列的是文件就下载文件,如果列的是网站,那么下载首页)
wget只能处理利用用户名/密码方式限制访问的网站,可以利用两个参数:
--http-user=USER 设置HTTP用户–http-passwd=PASS 设置HTTP密码
对于需要证书做认证的网站,就只能利用其他下载工具了,例如curl。
如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。此时需要在当前用户的目录下创建一个 .wgetrc 文件。文件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080ftp-proxy = 111.111.111.111:8080
分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:
–proxy-user=USER 设置代理用户–proxy-passwd=PASS 设置代理密码
这两个参数。
使用参数–proxy=on/off 使用或者关闭代理。
如果你需要在你的办公电脑上通过和其他同事共享的一个连接来下载一些很大的文件,而且你希望你的同事不会因为网络速度的减慢而收到影响,那你就应该尽量避开高峰时段。当然,不需要在办公室里等到所以人都走掉,也不需要在家里用完晚饭后还惦记着要上网下载一次。
用at来就可以很好的定制工作时间:
$ at 2300
warning: commands will be executed using /bin/sh
at> wget http://place.your.url/here
at> press Ctrl-D
这样,我们设定了下载工作在晚上11点进行。为了使这个安排能够正常进行,请确认atd这个后台程序正在运行。
当你需要下载大量的数据,而且你又没有享有足够的带宽,这个时候你会经常发现在你安排的下载任务还没有完成,一天的工作却又要开始了。
作为一个好同事,你只能停掉了这些任务,而开始另外的工作。然后你又需要反复地重复使用”wget -c”来完成你的下载。这样肯定太繁琐了,所以最好是用crontab来自动执行。创建一个纯文本文件,叫做”crontab.txt”,包含下面的内容:
0 23 * * 1-5 wget -c -N http://place.your.url/here
0 6 * * 1-5 killall wget
这个crontab文件指定某些任务定期地执行。前五列声明是什么时候执行这个命令,而每行的剩余部分则告诉crontab执行什么内容。
前两列指定了每天一到晚上11点就开始用wget下载,一到早上6点就停止一切wget下载。第三四列的*表示每个月的每一天都执行这个任务。第五列则指定了一个星期的哪几天来执行这个程序。 –”1-5″表示从星期一到星期五。
这样在每个工作日的晚上11点,下载工作开始,到了上午的6点,任何的wget任务就被停掉了。你可以用下面的命令来执行crontab:
$ crontab crontab.txt
wget的这个“-N”参数将会检查目标文件的时间戳,如果匹配了,下载程序就会停止,因为它说明整个文件已经下载完全了。
用“crontab -r”可以删除这个计划安排。我已经多次采用这种方法,通过共享的电话拨号来下载过很多的ISO镜像文件,还是比较实用的。
有些网页每天都要根据要求变化好几次。所以从技术上讲,目标不再是一个文件,它没有文件长度,因此”-c”这个参数也就失去了意义。
例如:一个PHP写的并且经常变动的linux周末新闻网页:
$ wget http://lwn.net/bigpage.php3
我办公室里的网络条件经常很差,给我的下载带了很大的麻烦,所以我写了个简单的脚本来检测动态页面是否已经完全更新了。
#!/bin/bash
#create it if absent
touch bigpage.php3
#check if we got the whole thing
while ! grep -qi bigpage.php3
do
rm -f bigpage.php3
#download LWN in one big page
wget http://lwn.net/bigpage.php3
done
这个脚本能够保证持续的下载该网页,直到网页里面出现了””,这就表示该文件已经完全更新了.
如果你要通过ssl来上网,那么网站地址应该是以 https: 来开头的,在这样的情况下你就需要另外一种下载工具,叫做curl,它能够很容易获得.有些网站迫使网友在浏览的时候必须使用cookie。所以你必须从在网站上得到的那个Cookie里面得到“Cookie:”这个参数.这样才能保证下载的参数正确。对于lynx和Mozilla的Cookie的文件格式,用下面的:
$ cookie=$( grep nytimes ~/.lynx_cookies |awk {printf(”%s=%s;”,$6,$7)} )
就可以构造一个请求Cookie来下载 http://www.nytimes.com 上的内容。当然,你要已经用这个浏览器在该网站上完成注册。
w3m使用了一种不同的,更小巧的Cookie文件格式:
$ cookie=$( grep nytimes ~/.w3m/cookie |awk {printf(”%s=%s;”,$2,$3)} )
现在就可以用这种方法来下载了:
$ wget –header="Cookie: $cookie" http://www.nytimes.com/reuters/technology/tech-tech-supercomput.html
或者用curl工具:
$ curl -v -b $cookie -o supercomp.html http://www.nytimes.com/reuters/technology/tech-tech-supercomput.htm
到现在为止我们下载的都是单个文件或者是整个网站.有的时候我们需要下载某个网页上链接的大量文件,但没有必要把它整个网站都镜像下来.比如说我们想从一个依次排列的100首歌里面下载前20首.注意,这里”–accept”和”–reject”参数是不会起作用的,因为他们只对文件操作起作用.所以一定要用”lynx -dump”参数来代替。
$ lynx -dump ftp://ftp.xxx.com/pub/lg/ |grep gz$ |tail -10 |awk {print $2} > urllist.txt
lynx的输出结果可以被各种GNU文本处理工具过虑.在上面的例子里,我们的链接地址是以”gz”结尾的,并且把最后10个文件地址放到 urllist.txt文件里.然后我们可以写一个简单的bash脚本来自动下载这个文件里的目标文件:
$ for x in $(cat urllist.txt)
> do
> wget $x
> done
这样我们就能够成功下载Linux Gazette网站(ftp://ftp.xxx.com/pub/lg/)上的最新10个论题。
这一类参数主要提供软件的一些基本信息;
-V,–version 显示软件版本号然后退出;
-h,–help 显示软件帮助信息;
-e,–execute=COMMAND 执行一个 “.wgetrc”命令
-b, –background 启动后转入后台执行,记录文件写在当前目录下”wget-log”文件中。
以上每一个功能有长短两个参数,长短功能一样,都可以使用。需要注意的是,这里的-e参数是执行一个.wgettrc的命令,.wgettrc命令其实是一个参数列表,直接将软件需要的参数写在一起就可以了。
这类参数定义软件log文件的输出方式等;
-o,–output-file=FILE 将软件输出信息保存到文件;
-a,–append-output=FILE 将软件输出信息追加到文件;
-d,–debug 显示输出信息;
-q,–quiet 不显示输出信息;
-i,–input-file=FILE 从文件中取得URL;
下载参数定义下载重复次数、保存文件名等;
-t,–tries=NUMBER 是否下载次数(0表示无穷次)
-O –output-document=FILE 下载文件保存为别的文件名
-nc, –no-clobber 不要覆盖已经存在的文件
-c, –continue 启用断点传输,接着下载没下载完的文件
-N,–timestamping 只下载比本地新的文件
-T,–timeout=SECONDS 设置超时时间
-w, –wait=SECONDS 两次尝试之间间隔SECONDS秒
–waitretry=SECONDS 在重新链接之间等待1…SECONDS秒
–random-wait 在下载之间等待0…2*WAIT秒
-Q, –quota=NUMBER 设置下载的容量限制
-E, –html-extension将所有text/html文档以.html扩展名保存
-m, –mirror 等价于 -r -N -l inf -nr
-p, –page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject)
-Y,–proxy=on/off 关闭代理
目录参数主要设置下载文件保存目录与原来文件(服务器文件)的目录对应关系;
-nd –no-directories 不建立目录
-x,–force-directories 强制建立目录
-nH, –no-host-directories 不创建主机目录
-P, –directory-prefix=PREFIX 将文件保存到目录 PREFIX/…
HTTP参数设置一些与HTTP下载有关的属性;
–http-user=USER 设置HTTP用户
–http-passwd=PASS 设置HTTP密码
–proxy-user=USER 设置代理用户
–proxy-passwd=PASS 设置代理密码
在下载一个网站或者网站的一个目录的时候,我们需要知道的下载的层次,这些参数就可以设置;
-r,–recursive 下载整个网站、目录(小心使用)
-k, –convert-links 转换非相对链接为相对链接(下载网页时很有用)
-K, –backup-converted 在转换文件X之前,将之备份为 X.orig
-l,–level=NUMBER 下载层次
-np, –no-parent不要追溯到父目录
下载一个网站的时候,为了尽量快,有些文件可以选择下载,比如图片和声音,在这里可以设置;
-A,–accept=LIST 可以接受的文件类型
-R,–reject=LIST 拒绝接受的文件类型
-D,–domains=LIST 可以接受的域名
–exclude-domains=LIST 拒绝的域名
-L,–relative 只下载相对链接
–follow-ftp 只下载HTML文档中的FTP链接
-H,–span-hosts 可以下载外面的主机
-I,–include-directories=LIST 允许的目录
-X,–exclude-directories=LIST 拒绝的目录
分享到:
相关推荐
Earthdata网站的TRMM数据wget工具下载详细方法,可以批量下载几万条数据,十分方便。
这个压缩包"批量下载并随意为每个文件批量重命名为指定的名称和保存位置.zip"正是为了满足这样的需求而设计的。它包含了一个名为"批量下载并重命名.exe"的可执行文件,一个"下载数据.txt"的文本文件,以及一个"使用...
wget for ,通过CMD下载文件
这对于长时间的下载任务或者批量下载非常有用。 2. **断点续传**:如果下载过程中因网络问题中断,`wget` 可以在恢复连接后继续之前的下载,避免了文件的重复下载。 3. **递归下载**:可以按照网站结构下载整个...
这个工具非常适合批量下载或者在无人值守的情况下进行大文件或整个网站的下载。 wget的工作原理是通过向服务器发送请求来获取文件,它支持多种下载选项,可以根据需要进行定制。例如,你可以设置下载速度限制、设定...
`wget`命令行下载工具是Linux环境中广泛使用的网络数据抓取工具,它允许用户通过命令行界面批量下载文件和整个网站。在没有图形用户界面(GUI)或者远程服务器管理的场景下,`wget`显得尤为实用。这个工具以其强大的...
它源自于开源的GNU项目,功能强大且高度可配置,适用于自动化批量下载任务。wget支持HTTP、HTTPS和FTP协议,同时也能够处理重定向、通过代理服务器工作、断点续传以及在后台运行等特性。 在Windows系统中,wget.exe...
`wget`的一个显著特点是其非交互式操作,能够在后台运行,非常适合无人值守的批量下载任务。在CentOS系统中,`wget`是构建网络自动化工作流的重要组成部分。 标题"CentOS下wget安装包"指的是在CentOS操作系统中安装...
通过读取包含URL的文本文件,可以批量下载多个资源。例如: ``` wget -i urls.txt ``` **日志和输出:** `wget`可以将输出重定向到文件,或者使用`-a`或`--append-output`追加到现有日志。`--debug`提供详细调试...
在Windows 10系统中,wget同样表现优秀,用户可以通过命令行界面进行文件的下载操作,尤其适合自动化脚本或者无人值守的批量下载任务。 HTTPS(Hypertext Transfer Protocol Secure)是一种安全的网络通信协议,它...
Modis批量下载 ,1、下载一个软件: 用于截取文件名称。 2、从你订单反馈邮件中找到订单号的网址,比如说订单order ID:500948046,网址为 ftp://ladsweb.nascom.nasa.gov/orders/500948046/。 3、下载订单内所有的...
3. **批量下载**:如果你有多个图片链接,可以创建一个包含这些链接的文本文件,然后使用`wget`的`-i`或`--input-file`参数批量下载: ``` wget -i "链接文件.txt" ``` 4. **静默模式**:在某些情况下,你可能...
Wget以其非交互式、可后台运行、断点续传和递归下载等特性而受到青睐,常用于自动化脚本或批量下载任务。 **主要功能** 1. **非交互式操作**:Wget可以在没有用户交互的情况下运行,非常适合在命令行环境下或者...
这个压缩包中的wget.exe允许Windows用户在没有图形界面的情况下进行批量下载或者定时下载,非常适用于自动化任务和脚本编写。 **curl.exe** curl是另一个功能丰富的文件传输工具,同样支持多种网络协议,如HTTP、...
考虑使用多线程、批量下载或者利用PHP的缓存机制来优化。 ### 示例代码(wget.php) 下面是一个简单的`wget.php`示例,它会下载一个网页并将其保存到本地: ```php $url = 'http://example.com/path/to/file'; $...
`wget`的特点在于其非交互式操作,可以在后台运行,即便用户已经退出终端,依然可以继续下载任务,非常适合批量下载或定时下载。 在本文中,我们将深入探讨`wget`的基本用法和一些高级特性,帮助你更好地掌握这个...
使用`wget`命令,结合Python生成的下载链接,可以实现批量下载: ```bash #!/bin/bash for product in "${products[@]}" do wget --no-check-certificate -O "$product.SAFE" ...
其次,wget的批量下载功能使其成为网站镜像和自动化下载任务的理想选择。通过指定URL模式、正则表达式或文件列表,用户可以一次性下载整个目录结构或者符合特定规则的所有文件。这对于备份网站、抓取数据或者更新...
`wget`是一个强大的网络资源下载工具,它支持多种...通过熟练掌握`wget`,你可以轻松地自动化批量下载任务,备份网站,或者从不友好的接口获取数据。记住,`wget`的灵活性和强大功能意味着它总是有新技巧等待你去发掘。
在Linux脚本中使用wget,可以实现自动化批量下载。例如,你可以编写一个bash脚本来下载一系列URL列出的文件。 ### 源代码分析 `src`目录包含了wget的源代码文件,如`main.c`是主程序,`url.c`处理URL解析,`ftp.c`...