精华内容
下载资源
问答
  • 有时候我们需要wget一个文件下载指定的目录下,或者重命名成指定的名字 wget -r -p -np -k -P ~/tmp/ http://Java-er.com wget居然有如此邪恶的用法 这个语句表示下载全站资料 等于把一个网站整个静态化到本地...

    转自 http://java-er.com/blog/wget-useage-x/

    有时候我们需要wget一个文件下载到指定的目录下,或者重命名成指定的名字
    wget -r -p -np -k -P ~/tmp/ http://Java-er.com

    wget居然有如此邪恶的用法

    这个语句表示下载全站资料

    等于把一个网站整个静态化到本地。


    解释一下参数

    -P 表示下载到哪个目录
    -r 表示递归下载
    -np 表示不下载旁站连接.
    -k 表示将下载的网页里的链接修改为本地链接.
    -p 获得所有显示网页所需的元素

    额外的
    -c 断点续传
    -nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录
    -L 递归时不进入其它主机,如wget -c -r www.xxx.org/
    -A 指定要下载的文件样式列表,多个样式用逗号分隔
    -i 后面跟一个文件,文件内指明要下载的URL

    * 使用代理下载
    wget -Y on -p -k https://sourceforge.NET/projects/wvware/

    代理可以在环境变量或wgetrc文件中设定

    # 在环境变量中设定代理
    export PROXY=http://211.90.168.94:8080/
    # 在~/.wgetrc中设定代理
    http_proxy = http://proxy.yoyodyne.com:18023/
    ftp_proxy = http://proxy.yoyodyne.com:18023/

    wget各种选项分类列表

    * 启动

    -V, –version 显示wget的版本后退出
    -h, –help 打印语法帮助
    -b, –background 启动后转入后台执行
    -e, –execute=COMMAND
    执行`.wgetrc’格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc

    * 记录和输入文件

    -O, –output-file=FILE 把记录写到FILE文件中
    -a, –append-output=FILE 把记录追加到FILE文件中
    -d, –debug 打印调试输出
    -q, –quiet 安静模式(没有输出)
    -v, –verbose 冗长模式(这是缺省设置)
    -nv, –non-verbose 关掉冗长模式,但不是安静模式
    -i, –input-file=FILE 下载在FILE文件中出现的URLs
    -F, –force-html 把输入文件当作HTML格式文件对待
    -B, –base=URL 将URL作为在-F -i参数指定的文件中出现的相对链接的前缀
    –sslcertfile=FILE 可选客户端证书
    –sslcertkey=KEYFILE 可选客户端证书的KEYFILE
    –egd-file=FILE 指定EGD socket的文件名

    * 下载

    –bind-address=ADDRESS
    指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
    -t, –tries=NUMBER 设定最大尝试链接次数(0 表示无限制).
    -O –output-document=FILE 把文档写到FILE文件中
    -nc, –no-clobber 不要覆盖存在的文件或使用.#前缀
    -c, –continue 接着下载没下载完的文件
    –progress=TYPE 设定进程条标记
    -N, –timestamping 不要重新下载文件除非比本地文件新
    -S, –server-response 打印服务器的回应
    –spider 不下载任何东西
    -T, –timeout=SECONDS 设定响应超时的秒数
    -w, –wait=SECONDS 两次尝试之间间隔SECONDS秒
    –waitretry=SECONDS 在重新链接之间等待1…SECONDS秒
    –random-wait 在下载之间等待0…2*WAIT秒
    -Y, –proxy=on/off 打开或关闭代理
    -Q, –quota=NUMBER 设置下载的容量限制
    –limit-rate=RATE 限定下载输率

    * 目录

    -nd –no-directories 不创建目录
    -x, –force-directories 强制创建目录
    -nH, –no-host-directories 不创建主机目录
    -P, –directory-prefix=PREFIX 将文件保存到目录 PREFIX/…
    –cut-dirs=NUMBER 忽略 NUMBER层远程目录

    * HTTP 选项

    –http-user=USER 设定HTTP用户名为 USER.
    –http-passwd=PASS 设定http密码为 PASS.
    -C, –cache=on/off 允许/不允许服务器端的数据缓存 (一般情况下允许).
    -E, –html-extension 将所有text/html文档以.html扩展名保存
    –ignore-length 忽略 `Content-Length’头域
    –header=STRING 在headers中插入字符串 STRING
    –proxy-user=USER 设定代理的用户名为 USER
    –proxy-passwd=PASS 设定代理的密码为 PASS
    –referer=URL 在HTTP请求中包含 `Referer: URL’头
    -s, –save-headers 保存HTTP头到文件
    -U, –user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION.
    –no-http-keep-alive 关闭 HTTP活动链接 (永远链接).
    –cookies=off 不使用 cookies.
    –load-cookies=FILE 在开始会话前从文件 FILE中加载cookie
    –save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中

    * FTP 选项

    -nr, –dont-remove-listing 不移走 `.listing’文件
    -g, –glob=on/off 打开或关闭文件名的 globbing机制
    –passive-ftp 使用被动传输模式 (缺省值).
    –active-ftp 使用主动传输模式
    –retr-symlinks 在递归的时候,将链接指向文件(而不是目录)

    * 递归下载

    -r, –recursive 递归下载--慎用!
    -l, –level=NUMBER 最大递归深度 (inf 或 0 代表无穷).
    –delete-after 在现在完毕后局部删除文件
    -k, –convert-links 转换非相对链接为相对链接
    -K, –backup-converted 在转换文件X之前,将之备份为 X.orig
    -m, –mirror 等价于 -r -N -l inf -nr.
    -p, –page-requisites 下载显示HTML文件的所有图片

    * 递归下载中的包含和不包含(accept/reject)

    -A, –accept=LIST 分号分隔的被接受扩展名的列表
    -R, –reject=LIST 分号分隔的不被接受的扩展名的列表
    -D, –domains=LIST 分号分隔的被接受域的列表
    –exclude-domains=LIST 分号分隔的不被接受的域的列表
    –follow-ftp 跟踪HTML文档中的FTP链接
    –follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表
    -G, –ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表
    -H, –span-hosts 当递归时转到外部主机
    -L, –relative 仅仅跟踪相对链接
    -I, –include-directories=LIST 允许目录的列表
    -X, –exclude-directories=LIST 不被包含目录的列表
    -np, –no-parent 不要追溯到父目录


    展开全文
  • 转自 https://blog.csdn.net/tylai520/article/details/17168673有时候我们需要wget一个文件下载指定的目录下,或者重命名成指定的名字wget -r -p -np -k -P ~/tmp/ http://java-er.comwget居然有如此邪恶的用法...

    转自 https://blog.csdn.net/tylai520/article/details/17168673

    有时候我们需要wget一个文件下载到指定的目录下,或者重命名成指定的名字
    wget -r -p -np -k -P ~/tmp/ http://java-er.com

    wget居然有如此邪恶的用法

    这个语句表示下载全站资料

    等于把一个网站整个静态化到本地。


    解释一下参数

    -P 表示下载到哪个目录
    -r 表示递归下载
    -np 表示不下载旁站连接.
    -k 表示将下载的网页里的链接修改为本地链接.
    -p 获得所有显示网页所需的元素

    额外的
    -c 断点续传
    -nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录
    -L 递归时不进入其它主机,如wget -c -r www.xxx.org/
    -A 指定要下载的文件样式列表,多个样式用逗号分隔
    -i 后面跟一个文件,文件内指明要下载的URL

    * 使用代理下载
    wget -Y on -p -k https://sourceforge.net/projects/wvware/

    代理可以在环境变量或wgetrc文件中设定

    # 在环境变量中设定代理
    export PROXY=http://211.90.168.94:8080/
    # 在~/.wgetrc中设定代理
    http_proxy = http://proxy.yoyodyne.com:18023/
    ftp_proxy = http://proxy.yoyodyne.com:18023/

    wget各种选项分类列表

    * 启动

    -V, –version 显示wget的版本后退出
    -h, –help 打印语法帮助
    -b, –background 启动后转入后台执行
    -e, –execute=COMMAND
    执行`.wgetrc’格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc

    * 记录和输入文件

    -O, –output-file=FILE 把记录写到FILE文件中
    -a, –append-output=FILE 把记录追加到FILE文件中
    -d, –debug 打印调试输出
    -q, –quiet 安静模式(没有输出)
    -v, –verbose 冗长模式(这是缺省设置)
    -nv, –non-verbose 关掉冗长模式,但不是安静模式
    -i, –input-file=FILE 下载在FILE文件中出现的URLs
    -F, –force-html 把输入文件当作HTML格式文件对待
    -B, –base=URL 将URL作为在-F -i参数指定的文件中出现的相对链接的前缀
    –sslcertfile=FILE 可选客户端证书
    –sslcertkey=KEYFILE 可选客户端证书的KEYFILE
    –egd-file=FILE 指定EGD socket的文件名

    * 下载

    –bind-address=ADDRESS
    指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
    -t, –tries=NUMBER 设定最大尝试链接次数(0 表示无限制).
    -O –output-document=FILE 把文档写到FILE文件中
    -nc, –no-clobber 不要覆盖存在的文件或使用.#前缀
    -c, –continue 接着下载没下载完的文件
    –progress=TYPE 设定进程条标记
    -N, –timestamping 不要重新下载文件除非比本地文件新
    -S, –server-response 打印服务器的回应
    –spider 不下载任何东西
    -T, –timeout=SECONDS 设定响应超时的秒数
    -w, –wait=SECONDS 两次尝试之间间隔SECONDS秒
    –waitretry=SECONDS 在重新链接之间等待1…SECONDS秒
    –random-wait 在下载之间等待0…2*WAIT秒
    -Y, –proxy=on/off 打开或关闭代理
    -Q, –quota=NUMBER 设置下载的容量限制
    –limit-rate=RATE 限定下载输率

    * 目录

    -nd –no-directories 不创建目录
    -x, –force-directories 强制创建目录
    -nH, –no-host-directories 不创建主机目录
    -P, –directory-prefix=PREFIX 将文件保存到目录 PREFIX/…
    –cut-dirs=NUMBER 忽略 NUMBER层远程目录

    * HTTP 选项

    –http-user=USER 设定HTTP用户名为 USER.
    –http-passwd=PASS 设定http密码为 PASS.
    -C, –cache=on/off 允许/不允许服务器端的数据缓存 (一般情况下允许).
    -E, –html-extension 将所有text/html文档以.html扩展名保存
    –ignore-length 忽略 `Content-Length’头域
    –header=STRING 在headers中插入字符串 STRING
    –proxy-user=USER 设定代理的用户名为 USER
    –proxy-passwd=PASS 设定代理的密码为 PASS
    –referer=URL 在HTTP请求中包含 `Referer: URL’头
    -s, –save-headers 保存HTTP头到文件
    -U, –user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION.
    –no-http-keep-alive 关闭 HTTP活动链接 (永远链接).
    –cookies=off 不使用 cookies.
    –load-cookies=FILE 在开始会话前从文件 FILE中加载cookie
    –save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中

    * FTP 选项

    -nr, –dont-remove-listing 不移走 `.listing’文件
    -g, –glob=on/off 打开或关闭文件名的 globbing机制
    –passive-ftp 使用被动传输模式 (缺省值).
    –active-ftp 使用主动传输模式
    –retr-symlinks 在递归的时候,将链接指向文件(而不是目录)

    * 递归下载

    -r, –recursive 递归下载--慎用!
    -l, –level=NUMBER 最大递归深度 (inf 或 0 代表无穷).
    –delete-after 在现在完毕后局部删除文件
    -k, –convert-links 转换非相对链接为相对链接
    -K, –backup-converted 在转换文件X之前,将之备份为 X.orig
    -m, –mirror 等价于 -r -N -l inf -nr.
    -p, –page-requisites 下载显示HTML文件的所有图片

    * 递归下载中的包含和不包含(accept/reject)

    -A, –accept=LIST 分号分隔的被接受扩展名的列表
    -R, –reject=LIST 分号分隔的不被接受的扩展名的列表
    -D, –domains=LIST 分号分隔的被接受域的列表
    –exclude-domains=LIST 分号分隔的不被接受的域的列表
    –follow-ftp 跟踪HTML文档中的FTP链接
    –follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表
    -G, –ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表
    -H, –span-hosts 当递归时转到外部主机
    -L, –relative 仅仅跟踪相对链接
    -I, –include-directories=LIST 允许目录的列表
    -X, –exclude-directories=LIST 不被包含目录的列表
    -np, –no-parent 不要追溯到父目录



    展开全文
  • wget http://mirrors.ustc.edu.cn/ubuntu/pool/main/g/gcc-4.4/ -r -np -nd -A .deb -e robots=offwget http://mirrors.ustc.edu.cn/ubuntu/pool/universe/g/gcc-3.3/ -r -np -nd -A .deb -e robots=offwget http...

     

    wget http://mirrors.ustc.edu.cn/ubuntu/pool/main/g/gcc-4.4/ -r -np -nd -A .deb -e robots=off
    wget http://mirrors.ustc.edu.cn/ubuntu/pool/universe/g/gcc-3.3/ -r -np -nd -A .deb -e robots=off
    wget http://mirrors.ustc.edu.cn/ubuntu/pool/main/liba/libaio/ -r -np -nd -A .deb -e robots=off
    wget http://mirrors.ustc.edu.cn/ubuntu/pool/main/m/mpfr4/libmpfr4_3.1.6-1_amd64.deb

     

    其中:

    -r:层叠递归处理

    -np:不向上(url路径)递归

    -nd:不创建和web网站相同(url路径)的目录结构

    -A type:文件类型

    -e robots=off:不考虑 robots.txt 的权限

     

    转载于:https://www.cnblogs.com/jinzhenshui/p/9365499.html

    展开全文
  • wget是linux最常用的下载命令, 通常的运用要领是: “wget 空格+要下载文件的url路径”。比方 : [linux]#wget http://www.test.com/xxxx/xxx.tar.gz其中-c参数, 支持断点续传, 下载大文件时,假如不注意终止了, 能够...

    wget是linux最常用的下载命令, 通常的运用要领是: “wget 空格+要下载文件的url路径”。

    比方 : [linux]#

    wget http://www.test.com/xxxx/xxx.tar.gz

    其中-c参数, 支持断点续传, 下载大文件时,假如不注意终止了, 能够继续运用命令接着下载。

    比方 : [linux]# wget -c http://www.test.com/xxxx/xxx.tar.gz

    直接使用wget下载github.com HTTPS链接,报错

    [linux]#wget https://github.com/mitsuhiko/flask/archive/master.zip

    [root@11_09 ~]# wget https://github.com/mitsuhiko/flask/archive/master.zip

    --2013-08-18 12:55:24-- https://github.com/mitsuhiko/flask/archive/master.zip

    Resolving github.com... 204.232.175.90

    Connecting to github.com|204.232.175.90|:443... connected.

    ERROR: cannot verify github.com's certificate, issued by `/C=US/O=DigiCert Inc/OU=www.digicert.com/CN=DigiCert High Assurance EV CA-1':

    Unable to locally verify the issuer's authority.

    To connect to github.com insecurely, use `--no-check-certificate'.

    Unable to establish SSL connection.      增加一个选项--no-check-certificate

    [linux]# wget --no-check-certificate https://github.com/mitsuhiko/flask/archive/master.zip

    可又增加一个问题,保存下来的文件是master,未知是什么格式。再增加一个选项-O xxx。

    [linux]# wget -O master.zip --no-check-certificate https://github.com/mitsuhiko/flask/archive/master.zip      保存下来的是master.zip,与预想一致。配合-c参数,实现断点续传,PERFECT。

    最络结果:[linux]#wget -c -O master.zip --no-check-certificate https://github.com/mitsuhiko/flask/archive/master.zip

    ------------------------------------------------------------------

    HTTPS (SSL/TLS) Options(HTTPS (SSL)参数选项)

    --certificate=file

    可选的客户段端证书

    --private-key=file

    对此证书可选的“密钥文档”

    --private-key-type=type

    对此证书可选的“密钥类型“

    --egd-file=file

    EGD socket文档名

    --ca-directory=directory

    CA散列表所在的目录

    --ca-certificate=file

    包含CA的文档

    --certificate-type=[ PEM(默认),DER ]

    Client-Cert类型:PEM,DER

    --no-check-certificate

    不用检查服务器的证书

    --secure-protocol=[ auto,SSLv2,SSLv3,TLSv1 ]

    选择SSL协议:auto,SSLv2,SSLv3,TLSv1

    FTP Options(FTP参数选项)

    --ftp-user

    登录ftp的用户名(注意:最好方法是在.netrc或.wgetrc文件中定义)

    --ftp-password

    登录ftp的密码(注意:最好方法是在.netrc或.wgetrc文件中定义)

    --no-remove-listing

    不删除“.listing”文档

    --no-glob

    关闭所有通配符的ftp文档名

    --no-passive-ftp

    禁用“被动”传输模式

    --retr-symlinks

    在递归模式中,下载链接所指示的文档(排除连接目录的)

    wget

    使用详解

    1、下载单个文件

    wget url+filename

    下载过程中同时可以看到四项信息

    已经下载的比例

    已经下载的大小

    当前下载的速度

    剩余的时间

    2、使用一个大写O做参数表示另存为

    wget -O save_name url

    这种方法适用于对应链接中没有显式文件名的情况。

    例如:wget -O xx.zip http://www.vim.org/scripts/download_script.php?src_id=7701

    再用不带-O参数的下载一次。

    ls -al

    总计 132

    drwxr-xr-x 2 root root 4096 07-12 10:43 .

    drwxr-xr-x 4 root root 4096 07-11 16:26 ..

    -rw-r--r-- 1 root root 50243 07-12 10:43 download_script.php?src_id=7701

    -rw-r--r-- 1 root root 50243 07-12 10:43 xx.zip

    我们发现,下载的大小都是一样。但是不带-O参数的,文件名还要转换一次。不如用-O参数方便。

    mv "download_script.php?src_id=7701" yy.zip

    3、指定下载速率

    方法是使用wget --limit-rate

    wget程序默认是使用所有的带宽,如果

    是在生产服务器上下载很大的文件就不可接受了。

    为了避免这种情况使用--limit-rate参数

    wget --limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2

    4、断点下载

    使用wget -c完成未完成的下载

    下载到一半需要停下来干别的事情,用^c就可以停顿住。

    回来后,继续下载可以加一个-c参数。

    注意:如果不加入-c,那么下载的文件会多出一个.1的后缀。

    5、在后台下载

    方法:加一个-b的参数

    wget -b url/filename为后台下载。下载经过写入到wget-log文件中。

    用tail -f wget-log查看下载日志

    6、模拟在浏览器下下载

    有的网站不允许客户在非浏览器环境下下载。使用--user-agent来设置

    wget --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD

    7、测试下载链接

    方法:使用--spider

    试图做计划下载时候,需要先检查一下下载链接是否有效。

    wget --spider DOWNLOAD-URL

    如果返回OK,则表示下载链接是正确的!

    例如

    wget --spider "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"

    Spider mode enabled. Check if remote file exists.

    --2010-07-12 11:36:32-- http://ip138.com/ips.asp?ip=58.251.193.137&action=2

    正在解析主机 ip138.com... 221.5.47.136

    Connecting to ip138.com|221.5.47.136|:80... 已连接。

    已发出 HTTP 请求,正在等待回应... 200 OK

    长度:7817 (7.6K) [text/html]

    Remote file exists and could contain further links,

    but recursion is disabled -- not retrieving.

    8、增加尝试次数

    方法:--tries=1000

    如果网速有问题,下载大文件的时候可能会发生错误,

    默认wget尝试20次链接。

    如果尝试75次,可以

    wget --tires=75 DOWNLOAD-URL

    9、下载多个文件使用wget -i

    将多个下载链接写入到一个download-file-list.txt文件中,而后用

    wget -i download-file-list.txt

    10、下载整站

    方法:用--mirror参数

    当你要下载一个完整站点并实现本地浏览的时候,

    wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL

    参数讲解:

    --mirror:设置这个参数用来建立本地镜像

    -p:下载所有html文件适合显示的元素

    --convert-links:下载完成后,将文档链接都转换成本地的

    -P ./LOCAL-DIR:保存所有的文件和目录到指定文件夹下

    11、下载时候禁止下载指定类型的文件

    例如下载站点时候,不打算下载gif动画图片。

    wget --reject=gif WEBSITE-TO-BE-DOWNLOADED

    12、记录下载日志

    方法:使用小写字母o

    wget -o xx.html.log -O xx.html "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"

    检查一下日志:

    [root@localhost opt]# cat xx.html.log

    --2010-07-12 11:57:22-- http://ip138.com/ips.asp?ip=58.251.193.137&action=2

    正在解析主机 ip138.com... 221.5.47.136

    Connecting to ip138.com|221.5.47.136|:80... 已连接。

    已发出 HTTP 请求,正在等待回应... 200 OK

    长度:7817 (7.6K) [text/html]

    Saving to: `xx.html'

    0K ....... 100% 65.5K=0.1s

    2010-07-12 11:57:22 (65.5 KB/s) - `xx.html' saved [7817/7817]

    13、是第9条的增强版。可以限制下载容量

    wget -Q5m -i FILE-WHICH-HAS-URLS

    当下载的文件达到5兆的时候,停止下载。

    注意:如果不是对一个文件下载链接清单,对单个文件,

    这个限制不会生效的。

    14、和第11条正好相反,

    这条技巧是讲述如何仅仅下载指定类型的文件

    从一个网站中下载所有的pdf文件

    wget -r -A.pdf http://url-to-webpage-with-pdfs/

    15、使用wget完成ftp下载

    匿名ftp下载类似于http下载

    wget ftp-url即可。

    如果是需要输入用户名和密码,则是

    wget --ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL

    展开全文
  • 1. 指定下载目录 wget -P ./happy/page http://www.baidu.com 下载的结果就是在 ./happy/page路径下有一个 baidu.html的文件 注意:此处如果路径尚未创建,则会自动创建。 2. 指定下载文件的文件名 注意:此处的 ...
  • 当我们在使用wget命令下载文件时,通常会需要将文件下载指定的目录,这时就可以使用 -P 参数来...如果需要对下载的文件进行重命名,则可以通过 -O 参数指定文件名,需要注意的是,如果重命名中包含路径,那么该...
  • wget下载命令使用说明

    2021-02-04 16:09:14
    我们可以使用wget从服务器下载文件 ...断点续传和指定下载到的路径wget -c ftp://czd:123456@192.168.32.250/home/czd/xxx.tgz -P / 注: -c是continue简称,-P是path,也就是路径。 http下载 $wge
  • wget下载文件命令解析

    2016-09-13 17:07:34
    #wget简介wget支持断点下载 "-c"同时支持ftp和http下载方式支持代理服务器设置简单,体积小但功能强大#语法格式wget ...T,-timeout设置超时时间-O将下载的文件保存为别的文件名,同时可以指定保存的路径--limit-rat...
  • wget

    2015-12-26 23:18:11
    wget是linux最常用的下载命令, 一般的使用方法是: wget + 空格 + 要下载文件的url路径下载下来的文件存放在所在的文件目录(如果没有指定文件存放目录) 例如: # wget http://www.linuxsense.org/xxxx/xxx.tar.gz...
  • 在Ubuntu中wget可以指定下载目录,具体命令的介绍可以搜到许多,在此不多陈述。 有时我们可能忘了在wget指令后加上路径参数,这时我们就需要知道该文件下载在哪里。 未加路径参数的情况下,默认路径及你终端进入的...
  • wget命令

    2017-12-06 10:30:35
    指定下载文件路径并改名为bb.txt(-O只用于文件) wget -O /root/bb.txt http://10.0.0.2/aa.txt 下载目录: wget -P /root/sh -c -r -np -nd -R index.html* http://10.0.0.2/aa/bb -P 是指定下载目录...
  • 一.前置条件准备1.检查jdk是否已安装,如...获取Jenkins war包#下载Jenkinssudo wget http://mirrors.jenkins.io/war-stable/latest/jenkins.warwar包下载后,通过命令启动Jenkins服务nohup java -jar jenkins.war &...
  • 由于使用公司服务器时没有root权限,只能把python安装到个人文件夹下,...通过wget命令下载python源码包:2.解压python到当前目录$ tar zxvf Python-2.7.9.tar.xz3.编译与安装a)./configure --prefix=/users/w/pyt...
  • wget扒网站

    2018-11-28 14:51:00
     -P 指定下载路径  -p 获取显示HTML页面所需的所有图像  -k 使链接指向本地文件  -H递归时转到外部主机。 wget --mirror -p -k -H -P ./ www.baidu.com 转载于:...
  • 使用wget安装mysql

    2019-09-27 14:04:42
    CentOS使用wget下载mysql 1、首先在centos上边安装wget yum install wget ...wget -P 指定路径 http://repo.mysql.com/mysql-community-release-el7-5.noarch.rpm 2. 安装mysql-community-release-el7-5...
  • wget使用

    2011-05-18 18:44:25
    wget使用命令 wget -P=[path] 将下载的文件保存到指定路径 转载于:https://blog.51cto.com/zgmwin/568054
  • 一、下载安装 1.1 lua-cjson官网  官网:http://www.kyne.com.au/~mark/software/lua-cjson-manual.html 1.2 下载安装  wget http://www.kyne.com.au/~mark/software/download/lua-cjson-2.1.0.tar.gz  t
  • Linux wget命令

    2017-04-18 17:30:38
    wget命令,下载文件到本地的指定目录中, wget -P 本地路径 下载url 于是在抓包看了一下通信流程,就是本机先与服务器三次握手建立连接,然后发送一个 http的 GET请求,然后从服务器不断的获取数据,完毕之后...
  • Windows 安装wget 工具

    千次阅读 2019-03-27 09:07:14
    安装 下载wgetwin-1_5_3_1-binary.zip ... D:wget (实际解压路径) 到此安装完成. 使用 在控制台下就可以下啦: wget 网址 tips: 1. 通过 “-P”下载指定目录 wget -P D:\koo\tmp 网址 ...
  • wget 命令操作实例

    2015-12-11 14:12:00
    wget下载方式有: wget是Linux系统中用来下载文件的工具,其功能还是比较多的,下面小编将针对wget命令的用法给大家做个实例介绍,11个实例中...默认文件下载在当前工作路径。可以设置-P参数指定文件的下载地址。...
  • 推荐一款Windows下的wget(亲测可用)

    千次阅读 2019-01-13 20:34:46
    wget -P dir url 下载指定路径 url 的内容至目录dir或压缩包。. wget -O file url 下载指定路径 url 的内容至目录path. 示例 wget -P D:\xxx.zip http://www.xdown.com/xxx.zip wget -...
  • 1、下载URL中的文件,注意一定要是文件的完整路径wget http://www.linuxprobe.com/docs/LinuxProbe.pdf 2、下载url中的文件,并指定保存文件名称 wget -O test.pdf ...
  • python3现在在conda官网之上是配置的conda3,默认现在kylin中环境为conda2,对应着python2,同时/usr/hdp/hdp-select需要py2环境所以原有机器的anaconda2环境不能变动官网下载安装anaconda3wget ...
  • 下载wget命令wget -O 本地路径 远程包链接地址 # 将远程包下载到本地,-O指定下载到哪里,可以使用-O 本地路径ps:如果wget下载提示无法建立SSL连接,则加上选项--no-check-certificatewget --no-check-certificate ...
  • wget 是一个从网络上自动下载文件的自由工具,支持通过 HTTP、HTTPS...例子#wget 192.168.31.132/1.file //相当是wget http://192.168.31.132/1.file,默认下载到当下目录,-P可以指定下载到哪个路径#wget -O http.f...
  • linux中下载命令详解

    2017-03-16 11:08:20
    wget是linux最常用的下载命令,一般的使用方法是wget+空格+要下载的文件的url路径 常用的参数一般是-c,可以断点续传,下载终止可以用命令接着继续下载 wget常用参数 ◆-b:后台下载Wget默认的是把文件下载到...
  • Linux使用命令(记录贴)日常新增 1.yum -y update 更新yum下载命令 2.yum -y install wget wget指令下载 3.wget https://www… 下载网址资源包 ...5.wget -P 指定路径 http:www… 指定下载的资源路径 6. cd

空空如也

空空如也

1 2 3 4 5 ... 13
收藏数 245
精华内容 98
关键字:

wget指定下载路径