精华内容
下载资源
问答
  • wget windows版本

    2018-01-16 17:08:36
    wget windows版本,用于linux移植到windows,windows上可以使用wget命令,但是没有wget的话需要安装windows版本
  • 安装和使用Windows Wget版本1.10.2

    千次阅读 2008-09-01 16:51:00
    安装和使用Windows Wget版本1.10.2说明Wget首页:http://wget.sunsite.dk/ Windows Wget版本1.10.2首页:http://www.christopherlewis.com/WGet/WGetFiles.htm Windows Wget版本1.10.2下载...

    安装和使用Windows Wget版本1.10.2

    说明
    安装
    • 解压
      7za x wget-1.10.2b.zip
    • 安装
      mv wget-1.10.2b d:/programme/.
    • 增加环境变量
      SET WGET_HOME=d:/programme/wget-1.10.2b
    • 修改环境变量
      SET PATH=%PATH%;%WGET_HOME%
    使用
    • 命令一:最简单下载文件
      wget http://rubyforge.org/frs/download.php/16559/rails-1.2.1.gem
    • 命令二:在中断后,继续下载文件
      wget -c http://rubyforge.org/frs/download.php/16559/rails-1.2.1.gem

    参考文献
     

    wget中文使用手册

    wget
    wget是一个从网络上自动下载文件的自由工具。它支持HTTP,HTTPS和FTP协议,可以使用HTTP代理.
    所谓的自动下载是指,wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统,启动一个wget下载任务,然后退出系统,wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。
    wget 可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本,完全重建原始站点的目录结构。这又常被称作”递归下载”。在递归下载的时候,wget 遵循Robot Exclusion标准(/robots.txt). wget可以在下载的同时,将链接转换成指向本地文件,以方便离线浏览。
    wget 非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务 器打断下载过程,它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。

    wget的常见用法
    wget的使用格式
    Usage: wget [OPTION]… [URL]…
    * 用wget做站点镜像:
    wget -r -p -np -k http://dsec.pku.edu.cn/~usr_name/
    # 或者
    wget -m http://dsec.pku.edu.cn/~usr_name/
    * 在不稳定的网络上下载一个部分下载的文件,以及在空闲时段下载
    wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log &
    # 或者从filelist读入要下载的文件列表
    wget -t 0 -w 31 -c -B ftp://dsec.pku.edu.cn/linuxsoft -i filelist.txt -o down.log &
    上面的代码还可以用来在网络比较空闲的时段进行下载。我的用法是:在mozilla中将不方便当时下载的URL链接拷贝到内存中然后粘贴到文件filelist.txt中,在晚上要出去系统前执行上面代码的第二条。
    * 使用代理下载
    wget -Y on -p -k https://sourceforge.net/projects/wvware/
    代理可以在环境变量或wgetrc文件中设定
    # 在环境变量中设定代理
    export PROXY=http://211.90.168.94:8080/
    # 在~/.wgetrc中设定代理
    http_proxy = http://proxy.yoyodyne.com:18023/
    ftp_proxy = http://proxy.yoyodyne.com:18023/
    wget各种选项分类列表
    * 启动
    -V, –version 显示wget的版本后退出
    -h, –help 打印语法帮助
    -b, –background 启动后转入后台执行
    -e, –execute=COMMAND 执行`.wgetrc’格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc
    * 记录和输入文件
    -o, –output-file=FILE 把记录写到FILE文件中
    -a, –append-output=FILE 把记录追加到FILE文件中
    -d, –debug 打印调试输出
    -q, –quiet 安静模式(没有输出)
    -v, –verbose 冗长模式(这是缺省设置)
    -nv, –non-verbose 关掉冗长模式,但不是安静模式
    -i, –input-file=FILE 下载在FILE文件中出现的URLs
    -F, –force-html 把输入文件当作HTML格式文件对待
    -B, –base=URL 将URL作为在-F -i参数指定的文件中出现的相对链接的前缀
    –sslcertfile=FILE 可选客户端证书
    –sslcertkey=KEYFILE 可选客户端证书的KEYFILE
    –egd-file=FILE 指定EGD socket的文件名
    * 下载
    –bind-address=ADDRESS 指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
    -t, –tries=NUMBER 设定最大尝试链接次数(0 表示无限制).
    -O –output-document=FILE 把文档写到FILE文件中
    -nc, –no-clobber 不要覆盖存在的文件或使用.#前缀
    -c, –continue 接着下载没下载完的文件
    –progress=TYPE 设定进程条标记
    -N, –timestamping 不要重新下载文件除非比本地文件新
    -S, –server-response 打印服务器的回应
    –spider 不下载任何东西
    -T, –timeout=SECONDS 设定响应超时的秒数
    -w, –wait=SECONDS 两次尝试之间间隔SECONDS秒
    –waitretry=SECONDS 在重新链接之间等待1…SECONDS秒
    –random-wait 在下载之间等待0…2*WAIT秒
    -Y, –proxy=on/off 打开或关闭代理
    -Q, –quota=NUMBER 设置下载的容量限制
    –limit-rate=RATE 限定下载输率
    * 目录
    -nd –no-directories 不创建目录
    -x, –force-directories 强制创建目录
    -nH, –no-host-directories 不创建主机目录
    -P, –directory-prefix=PREFIX 将文件保存到目录 PREFIX/…
    –cut-dirs=NUMBER 忽略 NUMBER层远程目录
    * HTTP 选项
    –http-user=USER 设定HTTP用户名为 USER.
    –http-passwd=PASS 设定http密码为 PASS.
    -C, –cache=on/off 允许/不允许服务器端的数据缓存 (一般情况下允许).
    -E, –html-extension 将所有text/html文档以.html扩展名保存
    –ignore-length 忽略 `Content-Length’头域
    –header=STRING 在headers中插入字符串 STRING
    –proxy-user=USER 设定代理的用户名为 USER
    –proxy-passwd=PASS 设定代理的密码为 PASS
    –referer=URL 在HTTP请求中包含 `Referer: URL’头
    -s, –save-headers 保存HTTP头到文件
    -U, –user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION.
    –no-http-keep-alive 关闭 HTTP活动链接 (永远链接).
    –cookies=off 不使用 cookies.
    –load-cookies=FILE 在开始会话前从文件 FILE中加载cookie
    –save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中
    * FTP 选项
    -nr, –dont-remove-listing 不移走 `.listing’文件
    -g, –glob=on/off 打开或关闭文件名的 globbing机制
    –passive-ftp 使用被动传输模式 (缺省值).
    –active-ftp 使用主动传输模式
    –retr-symlinks 在递归的时候,将链接指向文件(而不是目录)
    * 递归下载
    -r, –recursive 递归下载--慎用!
    -l, –level=NUMBER 最大递归深度 (inf 或 0 代表无穷).
    –delete-after 在现在完毕后局部删除文件
    -k, –convert-links 转换非相对链接为相对链接
    -K, –backup-converted 在转换文件X之前,将之备份为 X.orig
    -m, –mirror 等价于 -r -N -l inf -nr.
    -p, –page-requisites 下载显示HTML文件的所有图片
    * 递归下载中的包含和不包含(accept/reject)
    -A, –accept=LIST 分号分隔的被接受扩展名的列表
    -R, –reject=LIST 分号分隔的不被接受的扩展名的列表
    -D, –domains=LIST 分号分隔的被接受域的列表
    –exclude-domains=LIST 分号分隔的不被接受的域的列表
    –follow-ftp 跟踪HTML文档中的FTP链接
    –follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表
    -G, –ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表
    -H, –span-hosts 当递归时转到外部主机
    -L, –relative 仅仅跟踪相对链接
    -I, –include-directories=LIST 允许目录的列表
    -X, –exclude-directories=LIST 不被包含目录的列表
    -np, –no-parent 不要追溯到父目录
    问题
    在递归下载的时候,遇到目录中有中文的时候,wget创建的本地目录名会用URL编码规则处理。如”天网防火墙”会被存为”%CC%EC%CD%F8%B7%C0%BB%F0%C7%BD”,这造成阅读上的极大不方便。

    展开全文
  • wget 32位版本

    2018-10-17 12:09:24
    智能命令行高速下载,Wget支持各种参数,可断点续传,可下载各种格式的文档
  • linux 如何查看wget 是否安装

    千次阅读 2019-04-01 11:37:44
    rpm -qa|grep "wget

    rpm -qa|grep "wget"

     

     

    展开全文
  • wget windows64版本 Windows二进制文件 所有二进制文件都是静态编译的,这意味着wget.exe不需要任何其他文件即可工作。
  • wget

    千次阅读 2018-10-02 10:14:47
    Linux系统中的wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,我们经常要下载一些软件或从远程服务器恢复备份到本地服务器。wget支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。所谓的...

    Linux系统中的wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,我们经常要下载一些软件或从远程服务器恢复备份到本地服务器。wget支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。所谓的自动下载是指,wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统,启动一个wget下载任务,然后退出系统,wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。

    wget 可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本,完全重建原始站点的目录结构。这又常被称作”递归下载”。在递归下载的时候,wget 遵循Robot Exclusion标准(/robots.txt). wget可以在下载的同时,将链接转换成指向本地文件,以方便离线浏览。

    wget 非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。

    1.命令格式:

    wget [参数] [URL地址]

    2.命令功能:

    用于从网络上下载资源,没有指定目录,下载资源回默认为当前目录。wget虽然功能强大,但是使用起来还是比较简单:

    1)支持断点下传功能;这一点,也是网络蚂蚁和FlashGet当年最大的卖点,现在,Wget也可以使用此功能,那些网络不是太好的用户可以放心了;

    2)同时支持FTP和HTTP下载方式;尽管现在大部分软件可以使用HTTP方式下载,但是,有些时候,仍然需要使用FTP方式下载软件;

    3)支持代理服务器;对安全强度很高的系统而言,一般不会将自己的系统直接暴露在互联网上,所以,支持代理是下载软件必须有的功能;

    4)设置方便简单;可能,习惯图形界面的用户已经不是太习惯命令行了,但是,命令行在设置上其实有更多的优点,最少,鼠标可以少点很多次,也不要担心是否错点鼠标;

    5)程序小,完全免费;程序小可以考虑不计,因为现在的硬盘实在太大了;完全免费就不得不考虑了,即使网络上有很多所谓的免费软件,但是,这些软件的广告却不是我们喜欢的。

    3.命令参数:

    启动参数:

    -V, –version 显示wget的版本后退出

    -h, –help 打印语法帮助

    -b, –background 启动后转入后台执行

    -e, –execute=COMMAND 执行`.wgetrc’格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc

    记录和输入文件参数:

    -o, –output-file=FILE 把记录写到FILE文件中

    -a, –append-output=FILE 把记录追加到FILE文件中

    -d, –debug 打印调试输出

    -q, –quiet 安静模式(没有输出)

    -v, –verbose 冗长模式(这是缺省设置)

    -nv, –non-verbose 关掉冗长模式,但不是安静模式

    -i, –input-file=FILE 下载在FILE文件中出现的URLs

    -F, –force-html 把输入文件当作HTML格式文件对待

    -B, –base=URL 将URL作为在-F -i参数指定的文件中出现的相对链接的前缀

    –sslcertfile=FILE 可选客户端证书

    –sslcertkey=KEYFILE 可选客户端证书的KEYFILE

    –egd-file=FILE 指定EGD socket的文件名

    下载参数:

    –bind-address=ADDRESS 指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)

    -t, –tries=NUMBER 设定最大尝试链接次数(0 表示无限制).

    -O –output-document=FILE 把文档写到FILE文件中

    -nc, –no-clobber 不要覆盖存在的文件或使用.#前缀

    -c, –continue 接着下载没下载完的文件

    –progress=TYPE 设定进程条标记

    -N, –timestamping 不要重新下载文件除非比本地文件新

    -S, –server-response 打印服务器的回应

    –spider 不下载任何东西

    -T, –timeout=SECONDS 设定响应超时的秒数

    -w, –wait=SECONDS 两次尝试之间间隔SECONDS秒

    –waitretry=SECONDS 在重新链接之间等待1…SECONDS秒

    –random-wait 在下载之间等待0…2*WAIT秒

    -Y, –proxy=on/off 打开或关闭代理

    -Q, –quota=NUMBER 设置下载的容量限制

    –limit-rate=RATE 限定下载输率

    目录参数:

    -nd –no-directories 不创建目录

    -x, –force-directories 强制创建目录

    -nH, –no-host-directories 不创建主机目录

    -P, –directory-prefix=PREFIX 将文件保存到目录 PREFIX/…

    –cut-dirs=NUMBER 忽略 NUMBER层远程目录

    HTTP 选项参数:

    –http-user=USER 设定HTTP用户名为 USER.

    –http-passwd=PASS 设定http密码为 PASS

    -C, –cache=on/off 允许/不允许服务器端的数据缓存 (一般情况下允许)

    -E, –html-extension 将所有text/html文档以.html扩展名保存

    –ignore-length 忽略 `Content-Length’头域

    –header=STRING 在headers中插入字符串 STRING

    –proxy-user=USER 设定代理的用户名为 USER

    –proxy-passwd=PASS 设定代理的密码为 PASS

    –referer=URL 在HTTP请求中包含 `Referer: URL’头

    -s, –save-headers 保存HTTP头到文件

    -U, –user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION

    –no-http-keep-alive 关闭 HTTP活动链接 (永远链接)

    –cookies=off 不使用 cookies

    –load-cookies=FILE 在开始会话前从文件 FILE中加载cookie

    –save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中

    FTP 选项参数:

    -nr, –dont-remove-listing 不移走 `.listing’文件

    -g, –glob=on/off 打开或关闭文件名的 globbing机制

    –passive-ftp 使用被动传输模式 (缺省值).

    –active-ftp 使用主动传输模式

    –retr-symlinks 在递归的时候,将链接指向文件(而不是目录)

    递归下载参数:

    -r, –recursive 递归下载--慎用!

    -l, –level=NUMBER 最大递归深度 (inf 或 0 代表无穷)

    –delete-after 在现在完毕后局部删除文件

    -k, –convert-links 转换非相对链接为相对链接

    -K, –backup-converted 在转换文件X之前,将之备份为 X.orig

    -m, –mirror 等价于 -r -N -l inf -nr

    -p, –page-requisites 下载显示HTML文件的所有图片

    递归下载中的包含和不包含(accept/reject):

    -A, –accept=LIST 分号分隔的被接受扩展名的列表

    -R, –reject=LIST 分号分隔的不被接受的扩展名的列表

    -D, –domains=LIST 分号分隔的被接受域的列表

    –exclude-domains=LIST 分号分隔的不被接受的域的列表

    –follow-ftp 跟踪HTML文档中的FTP链接

    –follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表

    -G, –ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表

    -H, –span-hosts 当递归时转到外部主机

    -L, –relative 仅仅跟踪相对链接

    -I, –include-directories=LIST 允许目录的列表

    -X, –exclude-directories=LIST 不被包含目录的列表

    -np, –no-parent 不要追溯到父目录

    wget -S –spider url 不下载只显示过程

    4.使用实例:

    实例1:使用wget下载单个文件

    命令:

    wget http://www.minjieren.com/wordpress-3.1-zh_CN.zip

    说明:

    以下的例子是从网络下载一个文件并保存在当前目录,在下载的过程中会显示进度条,包含(下载完成百分比,已经下载的字节,当前下载速度,剩余下载时间)。

    实例2:使用wget -O下载并以不同的文件名保存

    命令:
    wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080

    说明:

    wget默认会以最后一个符合”/”的后面的字符来命令,对于动态链接的下载通常文件名会不正确。

    错误:下面的例子会下载一个文件并以名称download.aspx?id=1080保存

    wget http://www.minjieren.com/download?id=1

    即使下载的文件是zip格式,它仍然以download.php?id=1080命令。

    正确:为了解决这个问题,我们可以使用参数-O来指定一个文件名:

    wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080

    实例3:使用wget –limit -rate限速下载

    命令:

    wget --limit-rate=300k http://www.minjieren.com/wordpress-3.1-zh_CN.zip

    说明:

    当你执行wget的时候,它默认会占用全部可能的宽带下载。但是当你准备下载一个大文件,而你还需要下载其它文件时就有必要限速了。

    实例4:使用wget -c断点续传

    命令:

    wget -c http://www.minjieren.com/wordpress-3.1-zh_CN.zip

    说明:

    使用wget -c重新启动下载中断的文件,对于我们下载大文件时突然由于网络等原因中断非常有帮助,我们可以继续接着下载而不是重新下载一个文件。需要继续中断的下载时可以使用-c参数。

    实例5:使用wget -b后台下载

    命令:

    wget -b http://www.minjieren.com/wordpress-3.1-zh_CN.zip

    说明:

    对于下载非常大的文件的时候,我们可以使用参数-b进行后台下载。

    wget -b http://www.minjieren.com/wordpress-3.1-zh_CN.zip

    Continuing in background, pid 1840.

    Output will be written to `wget-log’.

    你可以使用以下命令来察看下载进度:

    tail -f wget-log

    实例6:伪装代理名称下载

    命令:

    wget --user-agent=“Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16” http://www.minjieren.com/wordpress-3.1-zh_CN.zip

    说明:

    有些网站能通过根据判断代理名称不是浏览器而拒绝你的下载请求。不过你可以通过–user-agent参数伪装。

    实例7:使用wget –spider测试下载链接

    命令:

    wget --spider URL

    说明:

    当你打算进行定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加–spider参数进行检查。

    wget --spider URL

    如果下载链接正确,将会显示

    wget --spider URL

    Spider mode enabled. Check if remote file exists.

    HTTP request sent, awaiting response… 200 OK

    Length: unspecified [text/html]

    Remote file exists and could contain further links,

    but recursion is disabled – not retrieving.

    这保证了下载能在预定的时间进行,但当你给错了一个链接,将会显示如下错误

    wget --spider url

    Spider mode enabled. Check if remote file exists.

    HTTP request sent, awaiting response… 404 Not Found

    Remote file does not exist – broken link!!!

    你可以在以下几种情况下使用spider参数:

    定时下载之前进行检查

    间隔检测网站是否可用

    检查网站页面的死链接

    实例8:使用wget –tries增加重试次数

    命令:

    wget --tries=40 URL

    说明:

    如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次连接下载文件。如果需要,你可以使用–tries增加重试次数。

    实例9:使用wget -i下载多个文件

    命令:

    wget -i filelist.txt

    说明:

    首先,保存一份下载链接文件

    cat > filelist.txt

    url1

    url2

    url3

    url4

    接着使用这个文件和参数-i下载

    实例10:使用wget –mirror镜像网站

    命令:

    wget --mirror -p --convert-links -P ./LOCAL URL

    说明:

    下载整个网站到本地。

    –miror:开户镜像下载

    -p:下载所有为了html页面显示正常的文件

    –convert-links:下载后,转换成本地的链接

    -P ./LOCAL:保存所有文件和目录到本地指定目录

    实例11:使用wget –reject过滤指定格式下载

    命令:
    wget --reject=gif ur

    说明:

    下载一个网站,但你不希望下载图片,可以使用以下命令。

    实例12:使用wget -o把下载信息存入日志文件

    命令:

    wget -o download.log URL

    说明:

    不希望下载信息直接显示在终端而是在一个日志文件,可以使用

    实例13:使用wget -Q限制总下载文件大小

    命令:

    wget -Q5m -i filelist.txt

    说明:

    当你想要下载的文件超过5M而退出下载,你可以使用。注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。

    实例14:使用wget -r -A下载指定格式文件

    命令:

    wget -r -A.pdf url

    说明:

    可以在以下情况使用该功能:

    下载一个网站的所有图片

    下载一个网站的所有视频

    下载一个网站的所有PDF文件

    实例15:使用wget FTP下载

    命令:

    wget ftp-url

    wget --ftp-user=USERNAME --ftp-password=PASSWORD url

    说明:

    可以使用wget来完成ftp链接的下载。

    使用wget匿名ftp下载:

    wget ftp-url

    使用wget用户名和密码认证的ftp下载

    wget --ftp-user=USERNAME --ftp-password=PASSWORD url

    备注:编译安装

    使用如下命令编译安装:

    tar zxvf wget-1.9.1.tar.gz

    cd wget-1.9.1

    ./configure

    make

    make install

    展开全文
  • Windows上wget的安装版本

    千次阅读 2015-09-08 10:14:51
    一个好用的版本:...其他版本wget命令可能不全。 windows上安装完成后将bin目录添加到环境变量下就可以完成使用。 wget --help E:\micaps\surface>wget --help SYSTEM_WGETRC = c:/progra~1/wget/etc/w

    一个好用的版本:http://gnuwin32.sourceforge.net/packages/wget.htm

    其他版本的wget命令可能不全。
    windows上安装完成后将bin目录添加到环境变量下就可以完成使用。
    wget --help

    E:\micaps\surface>wget --help
    SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc
    syswgetrc = C:\Program Files (x86)\GnuWin32/etc/wgetrc
    GNU Wget 1.11.4,非交互式的网络文件下载工具。
    用法: wget [选项]... [URL]...


    Mandatory arguments to long options are mandatory for short options too.


    Startup:
      -V,  --version           display the version of Wget and exit.
      -h,  --help              print this help.
      -b,  --background        go to background after startup.
      -e,  --execute=COMMAND   execute a `.wgetrc'-style command.


    Logging and input file:
      -o,  --output-file=FILE    log messages to FILE.
      -a,  --append-output=FILE  append messages to FILE.
      -d,  --debug               print lots of debugging information.
      -q,  --quiet               quiet (no output).
      -v,  --verbose             be verbose (this is the default).
      -nv, --no-verbose          turn off verboseness, without being quiet.
      -i,  --input-file=FILE     download URLs found in FILE.
      -F,  --force-html          treat input file as HTML.
      -B,  --base=URL            prepends URL to relative links in -F -i file.


    Download:
      -t,  --tries=NUMBER            set number of retries to NUMBER (0 unlimits).
           --retry-connrefused       retry even if connection is refused.
      -O,  --output-document=FILE    write documents to FILE.
      -nc, --no-clobber              skip downloads that would download to
                                     existing files.
      -c,  --continue                resume getting a partially-downloaded file.
           --progress=TYPE           select progress gauge type.
      -N,  --timestamping            don't re-retrieve files unless newer than
                                     local.
      -S,  --server-response         print server response.
           --spider                  don't download anything.
      -T,  --timeout=SECONDS         set all timeout values to SECONDS.
           --dns-timeout=SECS        set the DNS lookup timeout to SECS.
           --connect-timeout=SECS    set the connect timeout to SECS.
           --read-timeout=SECS       set the read timeout to SECS.
      -w,  --wait=SECONDS            wait SECONDS between retrievals.
           --waitretry=SECONDS       wait 1..SECONDS between retries of a retrieva


           --random-wait             wait from 0...2*WAIT secs between retrievals.
           --no-proxy                explicitly turn off proxy.
      -Q,  --quota=NUMBER            set retrieval quota to NUMBER.
           --bind-address=ADDRESS    bind to ADDRESS (hostname or IP) on local hos


           --limit-rate=RATE         limit download rate to RATE.
           --no-dns-cache            disable caching DNS lookups.
           --restrict-file-names=OS  restrict chars in file names to ones OS allow


           --ignore-case             ignore case when matching files/directories.
      -4,  --inet4-only              connect only to IPv4 addresses.
      -6,  --inet6-only              connect only to IPv6 addresses.
           --prefer-family=FAMILY    connect first to addresses of specified famil


                                     one of IPv6, IPv4, or none.
           --user=USER               set both ftp and http user to USER.
           --password=PASS           set both ftp and http password to PASS.


    Directories:
      -nd, --no-directories           don't create directories.
      -x,  --force-directories        force creation of directories.
      -nH, --no-host-directories      don't create host directories.
           --protocol-directories     use protocol name in directories.
      -P,  --directory-prefix=PREFIX  save files to PREFIX/...
           --cut-dirs=NUMBER          ignore NUMBER remote directory components.


    HTTP options:
           --http-user=USER        set http user to USER.
           --http-password=PASS    set http password to PASS.
           --no-cache              disallow server-cached data.
      -E,  --html-extension        save HTML documents with `.html' extension.
           --ignore-length         ignore `Content-Length' header field.
           --header=STRING         insert STRING among the headers.
           --max-redirect          maximum redirections allowed per page.
           --proxy-user=USER       set USER as proxy username.
           --proxy-password=PASS   set PASS as proxy password.
           --referer=URL           include `Referer: URL' header in HTTP request.
           --save-headers          save the HTTP headers to file.
      -U,  --user-agent=AGENT      identify as AGENT instead of Wget/VERSION.
           --no-http-keep-alive    disable HTTP keep-alive (persistent connections


           --no-cookies            don't use cookies.
           --load-cookies=FILE     load cookies from FILE before session.
           --save-cookies=FILE     save cookies to FILE after session.
           --keep-session-cookies  load and save session (non-permanent) cookies.
           --post-data=STRING      use the POST method; send STRING as the data.
           --post-file=FILE        use the POST method; send contents of FILE.
           --content-disposition   honor the Content-Disposition header when
                                   choosing local file names (EXPERIMENTAL).
           --auth-no-challenge     Send Basic HTTP authentication information
                                   without first waiting for the server's
                                   challenge.


    HTTPS (SSL/TLS) options:
           --secure-protocol=PR     choose secure protocol, one of auto, SSLv2,
                                    SSLv3, and TLSv1.
           --no-check-certificate   don't validate the server's certificate.
           --certificate=FILE       client certificate file.
           --certificate-type=TYPE  client certificate type, PEM or DER.
           --private-key=FILE       private key file.
           --private-key-type=TYPE  private key type, PEM or DER.
           --ca-certificate=FILE    file with the bundle of CA's.
           --ca-directory=DIR       directory where hash list of CA's is stored.
           --random-file=FILE       file with random data for seeding the SSL PRNG
           --egd-file=FILE          file naming the EGD socket with random data.


    FTP options:
           --ftp-user=USER         set ftp user to USER.
           --ftp-password=PASS     set ftp password to PASS.
           --no-remove-listing     don't remove `.listing' files.
           --no-glob               turn off FTP file name globbing.
           --no-passive-ftp        disable the "passive" transfer mode.
           --retr-symlinks         when recursing, get linked-to files (not dir).
           --preserve-permissions  preserve remote file permissions.


    Recursive download:
      -r,  --recursive          specify recursive download.
      -l,  --level=NUMBER       maximum recursion depth (inf or 0 for infinite).
           --delete-after       delete files locally after downloading them.
      -k,  --convert-links      make links in downloaded HTML point to local files
      -K,  --backup-converted   before converting file X, back up as X.orig.
      -m,  --mirror             shortcut for -N -r -l inf --no-remove-listing.
      -p,  --page-requisites    get all images, etc. needed to display HTML page.
           --strict-comments    turn on strict (SGML) handling of HTML comments.


    Recursive accept/reject:
      -A,  --accept=LIST               comma-separated list of accepted extensions
      -R,  --reject=LIST               comma-separated list of rejected extensions
      -D,  --domains=LIST              comma-separated list of accepted domains.
           --exclude-domains=LIST      comma-separated list of rejected domains.
           --follow-ftp                follow FTP links from HTML documents.
           --follow-tags=LIST          comma-separated list of followed HTML tags.
           --ignore-tags=LIST          comma-separated list of ignored HTML tags.
      -H,  --span-hosts                go to foreign hosts when recursive.
      -L,  --relative                  follow relative links only.
      -I,  --include-directories=LIST  list of allowed directories.
      -X,  --exclude-directories=LIST  list of excluded directories.
      -np, --no-parent                 don't ascend to the parent directory.


    请将错误报告或建议寄给 <bug-wget@gnu.org>。
    展开全文
  • wget是一个很好的网络下载工具,linux环境下功能强大,可以探测url状态,此款工具是windows环境下的wget.exe 下载以后可以存放到system32目录下方便调用。
  • wget 1.20.3win32 windows版本 某些防病毒工具将wget-1.20.3-win32.zip识别为 潜在危险。触发警告的文件是wget.exe.debug,其中包含wget.exe的调试符号,甚至无法执行。如果您的AV给您带来麻烦,并且您不需要说明...
  • wget_ForWindows 单文件版本,简单易用,功能强大,单文件,方便复制,适合dos环境和批处理环境使用。
  • Linux系统中将wget更新到最新版本

    千次阅读 2020-04-02 09:51:26
    一般来讲,linux类系统中,包括ubuntu、CentOS、Redhat等衍生系统已经默认包含了wget工具,但一般版本比较低,低版本wget可能也会存在一些致命bug,需要时可以进行编译安装更新到最新版本。 方法如下: 先到wget...
  • Android上自带的的wget是链接到busybox,某些需要复杂参数的下载情况不能被满足,比如需要带cookie的时候。这个版本wget是通过wget源码编译得到的完整版本
  • mwget 多线程版本wget下载工具

    千次阅读 2017-07-07 20:08:02
    没有看到哪一台服务器没装过wget的,或许有人使用ftp下载,也有人使用多线程的axel以及ProZilla,毫无疑问这两个工具都非常的出色,但是对于习惯使用wget的人来说显得不适应,于是老外便开发了多线程版本wget工具mwget...
  • centos中wget更新到1.18版本以上

    千次阅读 2017-12-29 14:14:02
    无意中在一篇文章中看到wget版本中出现的一个漏洞,https://www.cnblogs.com/xiegj/p/5669714.html然后根据提示从http://mirrors.ustc.edu.cn/gnu/wget/中获取到wget1.19版本的tar包下载下来之后tar -zxvf wget-...
  • 安装wgetwget命令

    万次阅读 2019-07-05 15:22:00
    今天给服务器安装新LNMP环境时,wget 时提示 -bash:wget command not found,很明显没有安装wget软件包。一般linux最小化安装时,wget不会默认被安装。 可以通过以下两种方法来安装: 1、rpm 安装 rpm 下载源地址...
  • GNU Wget安全漏洞(CVE-2016-4971) ...GNU wget 1.18之前版本中存在安全漏洞,该漏洞源于从HTTP重定向到FTP URL时,程序没有正确处理文件名。远程攻击者可利用该漏洞写入任意本地文件。  解决方案
  • wget多线程版本(超级好用)

    千次阅读 2020-12-05 15:33:37
    mwget安装使用安装使用环境安装使用对比问题解决make问题解决没有gcc环境iniltool版本问题 安装使用 环境 使用centos7 安装 # 下载bzip包 wget ...
  • wget简介

    千次阅读 2019-04-24 16:17:31
    这意味这你可以登录系统,启动一个wget下载任务,然后退出系统,wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。 二 常见用法 基本语法:wget [参....
  • wget-1.1.2

    2015-05-19 10:19:52
    wget jar 版本,可以在mac下使用
  • 找到指定的下载地址 历史版本: https://archive.apache.org/dist/tomcat/ 找到自己需要的版本: ... ...使用wget下载 打开控制台,找到对应的版本,copy link 我需要的版本为8.0.23 https:/...
  • windows版 wget

    2019-12-11 14:59:13
    附件是windows版本wgetwget 是一个从网络上自动下载文件的自由工具,支持通过 HTTP、HTTPS、FTP 三个最常见的 TCP/IP协议 下载,并可以使用 HTTP 代理。
  • wget-1.19.4

    2018-04-18 18:57:46
    windows 64版本wget工具,使用方便,需要配置环境变量。
  • wget命令详解

    千次阅读 2016-02-01 18:18:59
    wget是一个从网络上自动下载文件的自由工具,...wget名称的由来是“World Wide Web”与“get”的结合。wget的使用格式 Usage: wget [OPTION]… [URL]…用wget做站点镜像: wget -r -p -np -k http://dsec.pku.edu.cn
  • wget命令

    千次阅读 2019-04-02 23:47:47
    用法: wget [选项]... [URL]... 长选项所必须的参数在使用短选项时也... -V, --version 显示 Wget版本信息并退出。 -h, --help 打印此帮助。 -b, --background 启动后转入后台。 -e, --execute=COMMAND 运行...
  • wget 命令_Wget命令教程

    千次阅读 2020-10-11 06:39:23
    wget 命令Linux provides different tools to download files via different types of protocols like HTTP, FTP, HTTPS, etc. wgetis the most popular tool used to download files via a command-line interface....
  • wget命令用法

    2015-04-18 01:18:29
    wget 可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本 完全重建原始站点的目录结构 这又常被称作”递归下载” 在递归下载的时候 wget 遵循Robot Exclusion标准 robots txt wget可以在下载的同时 将链接...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 200,005
精华内容 80,002
关键字:

如何查看wget版本