精华内容
下载资源
问答
  • Linuxwget命令详解

    千次阅读 2017-10-09 12:34:57
    使用如下的命令下载https链接: wget -r -np -nd --accept=gz --no-check-certificate https://www.xxx.com/dir/ --http-user=username --http-password=password ...-np 没有父目录 -nd 不要构建本地目录结构 --ac

    使用如下的命令下载https链接:
    wget -r -np -nd --accept=gz --no-check-certificate https://www.xxx.com/dir/ --http-user=username --http-password=password


    下载'dir'目录下的所有gz文件


    -np 没有父目录
    -nd 不要构建本地目录结构
    --accept=gz 只下载gz文件


    wget 使用详解


    1、下载单个文件
    wget url+filename


    下载过程中同时可以看到四项信息
    已经下载的比例
    已经下载的大小
    当前下载的速度
    剩余的时间


    2、使用一个大写O做参数表示另存为
    wget -O save_name url


    这种方法适用于对应链接中没有显式文件名的情况。


    例如:
    wget -O xx.zip http://www.vim.org/scripts/download_script.php?src_id=7701


    再用不带-O参数的下载一次。


    ls -al
    总计 132
    drwxr-xr-x 2 root root 4096 07-12 10:43 .
    drwxr-xr-x 4 root root 4096 07-11 16:26 ..
    -rw-r--r-- 1 root root 50243 07-12 10:43 download_script.php?src_id=7701
    -rw-r--r-- 1 root root 50243 07-12 10:43 xx.zip


    我们发现,下载的大小都是一样。但是不带-O参数的,文件名还要转换一次。不如用-O参数方便。


    mv "download_script.php?src_id=7701" yy.zip


    3、指定下载速率
    方法是使用wget --limit-rate


    wget程序默认是使用所有的带宽,如果
    是在生产服务器上下载很大的文件就不可接受了。
    为了避免这种情况使用--limit-rate参数
    wget --limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2


    4、断点下载


    使用wget -c完成未完成的下载


    下载到一半需要停下来干别的事情,用^c就可以停顿住。


    回来后,继续下载可以加一个-c参数。


    注意:如果不加入-c,那么下载的文件会多出一个.1的后缀。


    5、在后台下载
    方法:加一个-b的参数


    wget -b url/filename
    为后台下载。下载经过写入到wget-log文件中。


    用tail -f wget-log查看下载日志


    6、模拟在浏览器下下载


    有的网站不允许客户在非浏览器环境下下载。使用--user-agent来设置


    wget --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD


    7、测试下载链接
    方法:使用--spider


    试图做计划下载时候,需要先检查一下下载链接是否有效。


    wget --spider DOWNLOAD-URL


    如果返回OK,则表示下载链接是正确的!


    例如


    wget --spider "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"
    Spider mode enabled. Check if remote file exists.
    --2010-07-12 11:36:32-- http://ip138.com/ips.asp?ip=58.251.193.137&action=2
    正在解析主机 ip138.com... 221.5.47.136
    Connecting to ip138.com|221.5.47.136|:80... 已连接。
    已发出 HTTP 请求,正在等待回应... 200 OK
    长度:7817 (7.6K) [text/html]
    Remote file exists and could contain further links,
    but recursion is disabled -- not retrieving.


    8、增加尝试次数
    方法:--tries=1000
    如果网速有问题,下载大文件的时候可能会发生错误,
    默认wget尝试20次链接。


    如果尝试75次,可以
    wget --tires=75 DOWNLOAD-URL


    9、下载多个文件使用wget -i
    将多个下载链接写入到一个download-file-list.txt文件中,而后用


    wget -i download-file-list.txt


    10、下载整站
    方法:用--mirror参数


    当你要下载一个完整站点并实现本地浏览的时候,
    wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL


    参数讲解:
    --mirror:设置这个参数用来建立本地镜像
    -p:下载所有html文件适合显示的元素
    --convert-links:下载完成后,将文档链接都转换成本地的
    -P ./LOCAL-DIR:保存所有的文件和目录到指定文件夹下


    11、下载时候禁止下载指定类型的文件


    例如下载站点时候,不打算下载gif动画图片。


    wget --reject=gif WEBSITE-TO-BE-DOWNLOADED


    12、记录下载日志
    方法:使用小写字母o


    wget -o xx.html.log -O xx.html "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"


    检查一下日志:
    [root@localhost opt]# cat xx.html.log
    --2010-07-12 11:57:22-- http://ip138.com/ips.asp?ip=58.251.193.137&action=2
    正在解析主机 ip138.com... 221.5.47.136
    Connecting to ip138.com|221.5.47.136|:80... 已连接。
    已发出 HTTP 请求,正在等待回应... 200 OK
    长度:7817 (7.6K) [text/html]
    Saving to: `xx.html'


    0K ....... 100% 65.5K=0.1s


    2010-07-12 11:57:22 (65.5 KB/s) - `xx.html' saved [7817/7817]


    13、是第9条的增强版。可以限制下载容量


    wget -Q5m -i FILE-WHICH-HAS-URLS


    当下载的文件达到5兆的时候,停止下载。
    注意:如果不是对一个文件下载链接清单,对单个文件,
    这个限制不会生效的。


    14、和第11条正好相反,
    这条技巧是讲述如何仅仅下载指定类型的文件


    从一个网站中下载所有的pdf文件


    wget -r -A.pdf http://url-to-webpage-with-pdfs/


    15、使用wget完成ftp下载


    匿名ftp下载类似于http下载
    wget ftp-url即可。


    如果是需要输入用户名和密码,则是


    wget --ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL

    展开全文
  • [Linux] wget命令详解

    2012-12-18 14:52:10
    wgetlinux上的命令行的下载工具。这是一个GPL许可证下的自由软件。wget支持HTTP和FTP协议,支持代理服务器和断点续传功能,能够自动递归远程主机的目录,找到合乎条件的文件并将其下载到本地硬盘上;如果必要,...
    一 wget简介
    wget是linux上的命令行的下载工具。这是一个GPL许可证下的自由软件。wget支持HTTP和FTP协议,支持代理服务器和断点续传功能,能够自动递归远程主机的目录,找到合乎条件的文件并将其下载到本地硬盘上;如果必要,wget将恰当地转换页面中的超级连接以在本地生成可浏览的镜像。由于没有交互式界面,wget可在后台运行,截获并忽略HANGUP信号,因此在用户推出登录以后,仍可继续运行。通常,wget用于成批量地下载Internet网站上的文件,或制作远程网站的镜像。 

    二 实例

    下载
    1、下载192.168.1.168首页并且显示下载信息
    wget -d http://192.168.1.168

    2、下载192.168.1.168首页并且不显示任何信息
    wget -q http://192.168.1.168

    3、批量下载的情形,把所有需要下载文件的地址放到 filename.txt 中,然后 wget就会自动为你下载所有文件了。
    wget -i filelist.txt

    4、下载到指定目录
    wget -P/tmp ftp://user:passwd@url/file
    把文件file下载到/tmp目录下。

    5、下载 http://example.com 网站上 packages 目录中的所有文件。其中,-np的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。
    wget -r -np -nd http://example.com/packages/

    6、仅下载 i386 目录中所有扩展名为 iso 的文件。你也可以指定多个扩展名,只需用逗号分隔即可。
     wget -r -np -nd --accept=isohttp://example.com/centos-5/i386/

    7、断点续传
    wget -c http://example.com/really-big-file.iso

    8、制作网站镜像ghost
    wget -m -k (-H) http://www.example.com/

    三 参数
    代码:
      $ wget --help

      GNU Wget 1.9.1,非交互式的网络文件下载工具。
      用法: wget [选项]... [URL]...

      长选项必须用的参数在使用短选项时也是必须的。

    启动:
      -V, --version 显示 Wget 的版本并且退出。
      -h, --help 打印此帮助。
      -b, -background 启动后进入后台操作。
      -e, -execute=COMMAND 运行‘.wgetrc’形式的命令。

    日志记录及输入文件:
      -o, --output-file=文件 将日志消息写入到指定文件中。
      -a, --append-output=文件 将日志消息追加到指定文件的末端。
      -d, --debug 打印调试输出。
      -q, --quiet 安静模式(不输出信息)。
      -v, --verbose 详细输出模式(默认)。
      -nv, --non-verbose 关闭详细输出模式,但不进入安静模式。
      -i, --input-file=文件 下载从指定文件中找到的 URL。
      -F, --force-html 以 HTML 方式处理输入文件。
      -B, --base=URL 使用 -F -i 文件选项时,在相对链接前添加指定的 URL。

    下载:
      -t, --tries=次数 配置重试次数(0 表示无限)。
      --retry-connrefused 即使拒绝连接也重试。
      -O --output-document=文件 将数据写入此文件中。
      -nc, --no-clobber 不更改已经存在的文件,也不使用在文件名后添加 .#(#为数字)的方法写入新的文件。
      -c, --continue 继续接收已下载了一部分的文件。
      --progress=方式 选择下载进度的表示方式。
      -N, --timestamping 除非远程文件较新,否则不再取回。
      -S, --server-response 显示服务器回应消息。
      --spider 不下载任何数据。
      -T, --timeout=秒数 配置读取数据的超时时间 (秒数)。
      -w, --wait=秒数 接收不同文件之间等待的秒数。
      --waitretry=秒数 在每次重试之间稍等一段时间 (由 1 秒至指定的 秒数不等)。
      --random-wait 接收不同文件之间稍等一段时间(由 0 秒至 2*WAIT 秒不等)。
      -Y, --proxy=on/off 打开或关闭代理服务器。
      -Q, --quota=大小 配置接收数据的限额大小。
      --bind-address=地址 使用本机的指定地址 (主机名称或 IP) 进行连接。
      --limit-rate=速率 限制下载的速率。
      --dns-cache=off 禁止查找存于高速缓存中的 DNS。
      --restrict-file-names=OS 限制文件名中的字符为指定的 OS (操作系统)所允许的字符。

    目录:
      -nd --no-directories 不创建目录。
      -x, --force-directories 强制创建目录。
      -nH, --no-host-directories 不创建含有远程主机名称的目录。
      -P, --directory-prefix=名称 保存文件前先创建指定名称的目录。
      --cut-dirs=数目 忽略远程目录中指定数目的目录层。

    HTTP 选项:
      --http-user=用户 配置 http 用户名。
      --http-passwd=密码 配置 http 用户密码。
      -C, --cache=on/off (不)使用服务器中的高速缓存中的数据 (默认是使用的)。
      -E, --html-extension 将所有 MIME 类型为 text/html 的文件都加上 .html扩展文件名。
      --ignore-length 忽略“Content-Length”文件头字段。
      --header=字符串 在文件头中添加指定字符串。
      --proxy-user=用户 配置代理服务器用户名。
      --proxy-passwd=密码 配置代理服务器用户密码。
      --referer=URL 在 HTTP 请求中包含“Referer:URL”头。
      -s, --save-headers 将 HTTP 头存入文件。
      -U, --user-agent=AGENT 标志为 AGENT 而不是 Wget/VERSION。
      --no-http-keep-alive 禁用 HTTP keep-alive(持久性连接)。
      --cookies=off 禁用 cookie。
      --load-cookies=文件 会话开始前由指定文件载入 cookie。
      --save-cookies=文件 会话结束后将 cookie 保存至指定文件。
      --post-data=字符串 使用 POST 方法,发送指定字符串。
      --post-file=文件 使用 POST 方法,发送指定文件中的内容。

    HTTPS (SSL) 选项:
      --sslcertfile=文件 可选的客户段端证书。
      --sslcertkey=密钥文件 对此证书可选的“密钥文件”。
      --egd-file=文件 EGD socket 文件名。
      --sslcadir=目录 CA 散列表所在的目录。
      --sslcafile=文件 包含 CA 的文件。
      --sslcerttype=0/1 Client-Cert 类型 0=PEM (默认) / 1=ASN1(DER)
      --sslcheckcert=0/1 根据提供的 CA 检查服务器的证书
      --sslprotocol=0-3 选择 SSL 协议;0=自动选择,
      1=SSLv2 2=SSLv3 3=TLSv1

    FTP 选项:
      -nr, --dont-remove-listing 不删除“.listing”文件。
      -g, --glob=on/off 设置是否展开有通配符的文件名。
      --passive-ftp 使用“被动”传输模式。
      --retr-symlinks 在递归模式中,下载链接所指示的文件(连至目录则例外)。

    递归下载:
      -r, --recursive 递归下载。
      -l, --level=数字 最大递归深度(inf 或 0 表示无限)。
      --delete-after 删除下载后的文件。
      -k, --convert-links 将绝对链接转换为相对链接。
      -K, --backup-converted 转换文件 X 前先将其备份为 X.orig。
      -m, --mirror 等效于 -r -N -l inf -nr 的选项。
      -p, --page-requisites 下载所有显示完整网页所需的文件,例如图像。
      --strict-comments 打开对 HTML 备注的严格(SGML)处理选项。

    递归下载时有关接受/拒绝的选项:
      -A, --accept=列表 接受的文件样式列表,以逗号分隔。
      -R, --reject=列表 排除的文件样式列表,以逗号分隔。
      -D, --domains=列表 接受的域列表,以逗号分隔。
      --exclude-domains=列表 排除的域列表,以逗号分隔。
      --follow-ftp 跟随 HTML 文件中的 FTP 链接。
      --follow-tags=列表 要跟随的 HTML 标记,以逗号分隔。
      -G, --ignore-tags=列表 要忽略的 HTML 标记,以逗号分隔。
      -H, --span-hosts 递归时可进入其它主机。
      -L, --relative 只跟随相对链接。
      -I, --include-directories=列表 要下载的目录列表。
      -X, --exclude-directories=列表 要排除的目录列表。
      -np, --no-parent 不搜索上层目录。

    四 FQA
    A.使用wget工具
    linux所以的主要版本都自带了wget这个下载工具.
    bash$ wget http://place.your.url/here

    它还能控制ftp来下载整个web站点的各级目录,当然,如果你不小心,可能会把整个网站以及其他和他做链接的网站全部下载下来.
    bash$ wget -m http://target.web.site/subdirectory

    由于这个工具具有很强的下载能力,所以可以在服务器上把它用作镜像网站的工具.让它按照”robots.txt”的规定来执行.
    有很多参数用来控制它如何正确地做镜像,可以限制链接的类型和下载文件的类型等等.例如:只下载有联系的链接并且忽略GIF图片:
    bash$ wget -m -L –reject=gifhttp://target.web.site/subdirectory

    wget也能够实现断点续传(-c参数),当然,这种操作是需要远程服务器支持的.
    bash$ wget -c http://the.url.of/incomplete/file

    可以把断点续传和镜像功能结合起来,这样可以在以前断过多次的情况下继续镜像一个有大量选择性文件的站点.如何自动实现这个目的我们在后面会讨论得更多.
    如果你觉得下载时老是断线会影响你办公的话,你可以限制wget重试的次数.
    bash$ wget -t 5 http://place.your.url/here
    这样重试五次后就放弃了.用”-t inf”参数表示永远不放弃.不停地重试.

    B.那对于代理服务该怎么办呢?
    可以使用http代理的参数或者在.wgetrc配置文件里指定一个如何通过代理去下载的途径.但是有这么一个问题,如果通过代理来进行断点续传的话可能会有几次失败.如果有一次通过代理下载的过程发生中断,那么代理服务器上缓存里保存是那个完整的文件拷贝.所以当你用”wget-c”来下载剩余部分的时候代理服务器查看它的缓存,并错误地认为你已经下载了整个文件.于是就发出了错误的信号.这个时候你可以用添加一个特定的请求参数来促使代理服务器清除他们的缓存:
    bash$ wget -c –header=”Pragma: no-cache”http://place.your.url/here

    这个”–header”参数能够以各种数字,各种方式添加。通过它我们可以更改web服务器或者代理服务器的某些属性。有些站点不提供外部连接的文件服务,只有通过同一个站点上其他的一些页面时内容才会被提交。这个时候你可以用加上”Referer:”参数:
    bash$ wget –header=”Referer: http://coming.from.this/page”http://surfing.to.this/page
    有些特殊的网站只支持某种特定的浏览器,这个时候可以用”User-Agent:”参数
    bash$ wget –header=”User-Agent: Mozilla/4.0 (compatible; MSIE5.0;Windows NT; DigExt)” http://msie.only.url/here

    C.那我怎么设定下载时间呢?
    如果你需要在你的办公电脑上通过和其他同事共享的一个连接来下载一些很大的文件,而且你希望你的同事不会因为网络速度的减慢而收到影响,那你就应该尽量避开高峰时段。当然,不需要在办公室里等到所以人都走掉,也不需要在家里用完晚饭后还惦记着要上网下载一次。
    用at来就可以很好的定制工作时间:
    bash$ at 23:00
    warning: commands will be executed using /bin/sh
    at> wget http://place.your.url/here
    at> press Ctrl-D
    这样,我们设定了下载工作在晚上11点进行。为了使这个安排能够正常进行,请确
    认atd这个后台程序正在运行。

    D.下载要花很多时间?
    当你需要下载大量的数据,而且你又没有享有足够的带宽,这个时候你会经常发现在你安排的下载任务还没有完成,一天的工作却又要开始了。
    作为一个好同事,你只能停掉了这些任务,而开始另外的工作。然后你又需要反复地重复使用”wget-c”来完成你的下载。这样肯定太繁琐了,所以最好是用crontab来自动执行。创建一个纯文本文件,叫做”crontab.txt”,包含下面的内容:
    0 23 * * 1-5 wget -c -N http://place.your.url/here
    0 6 * * 1-5 killall wget
    这个crontab文件指定某些任务定期地执行。前五列声明是什么时候执行这个命令,而每行的剩余部分则告诉crontab执行什么内容。
    前两列指定了每天一到晚上11点就开始用wget下载,一到早上6点就停止一切wget下载。第三四列的*表示每个月的每一天都执行这个任务。第五列则指定了一个星期的哪几天来执行这个程序。–”1-5″表示从星期一到星期五。

    这样在每个工作日的晚上11点,下载工作开始,到了上午的6点,任何的wget任务就被停掉了。你可以用下面的命令来执行crontab:bash$crontab crontab.txt
    wget的这个”-N”参数将会检查目标文件的时间戳,如果匹配了,下载程序就会停止,因为它说明整个文件已经下载完全了。
    用”crontab-r”可以删除这个计划安排。我已经多次采用这种方法,通过共享的电话拨号来下载过很多的ISO镜像文件,还是比较实用的。

    E.如何下载动态变化的网页
    有些网页每天都要根据要求变化好几次.所以从技术上讲,目标不再是一个文件,它没有文件长度.因此”-c”这个参数也就失去了意义.
    例如:一个PHP写的并且经常变动的linux周末新闻网页:
    bash$ wget http://lwn.net/bigpage.php3

    我办公室里的网络条件经常很差,给我的下载带了很大的麻烦,所以我写了个简单的脚本来检测动态页面是否已经完全更新了.
    #!/bin/bash
    #create it if absent
    touch bigpage.php3
    #check if we got the whole thing
    while ! grep -qi bigpage.php3
    do
    rm -f bigpage.php3
    #download LWN in one big page
    wget http://lwn.net/bigpage.php3
    done
    这个脚本能够保证持续的下载该网页,直到网页里面出现了" ",这就表示该文件已经完全更新了.

    F.对于ssl和Cookies怎么办?
    如果你要通过ssl来上网,那么网站地址应该是以”https://”来开头的.在这样的情况下你就需要另外一种下载工具,叫做curl,它能够很容易获得.有些网站迫使网友在浏览的时候必须使用cookie.所以你必须从在网站上得到的那个Cookie里面得到”Cookie:”这个参数.这样才
    能保证下载的参数正确.对于lynx和Mozilla的Cookie的文件格式,用下面的:
    bash$ cookie=$( grep nytimes ~/.lynx_cookies |awk{printf(”%s=%s;”,$6,$7)} )
    就可以构造一个请求Cookie来下载http://www.nytimes.com上的内容.当然,你要已经用这个浏览器在该网站上完成注册.
    w3m使用了一种不同的,更小巧的Cookie文件格式:
    bash$ cookie=$( grep nytimes ~/.w3m/cookie |awk{printf(”%s=%s;”,$2,$3)} )
    现在就可以用这种方法来下载了:
    bash$ wget –header=”Cookie: $cookie”http://www.nytimes.com/reuters/technology/tech-tech-supercomput.html
    或者用curl工具:
    bash$ curl -v -b $cookie -o supercomp.htmlhttp://www.nytimes.com/reuters/technology/tech-tech-supercomput.htm

    G.如何建立地址列表?
    到现在为止我们下载的都是单个文件或者是整个网站.有的时候我们需要下载某个网页上链接的大量文件,但没有必要把它整个网站都镜像下来.比如说我们想从一个依次排列的100首歌里面下载前20首.注意,这里”–accept”和”–reject”参数是不会起作用的,因为他们只对文件操作起作用.所以一定要用”lynx -dump”参数来代替.
    bash$ lynx -dump ftp://ftp.ssc.com/pub/lg/ |grep gz$ |tail -10|awk {print $2} > urllist.txt
    lynx的输出结果可以被各种GNU文本处理工具过虑.在上面的例子里,我们的链接地址是以”gz”结尾的,并且把最后10个文件地址放到urllist.txt文件里.然后我们可以写一个简单的bash脚本来自动下载这个文件里的目标文件:
    bash$ for x in $(cat urllist.txt)
    > do
    > wget $x
    > done
    这样我们就能够成功下载LinuxGazette网站(ftp://ftp.ssc.com/pub/lg/)上的最新10个论题.

    H.扩大使用的带宽
    如果你选择下载一个受带宽限制的文件,那你的下载会因为服务器端的限制而变得很慢.下面这个技巧会大大缩短下载的过程.但这个技巧需要你使用curl并且远程服务器有多个镜像可以供你下载.例如,假设你想从下面的三个地址下载Mandrake8.0:
    url1=http://ftp.eecs.umich.edu/pub/linux/mandrake/iso/Mandrake80-inst.iso
    url2=http://ftp.rpmfind.net/linux/Mandrake/iso/Mandrake80-inst.iso
    url3=http://ftp.wayne.edu/linux/mandrake/iso/Mandrake80-inst.iso
    这个文件的长度是677281792个字节,所以用curl程序加”–range”参数来建立三个同时进行的下载:
    bash$ curl -r 0-199999999 -o mdk-iso.part1 $url1&
    bash$ curl -r 200000000-399999999 -o mdk-iso.part2 $url2&
    bash$ curl -r 400000000- -o mdk-iso.part3 $url3&
    这样就创建了三个后台进程.每个进程从不同的服务器传输这个ISO文件的不同部分.这个”-r”参数指定目标文件的字节范围.当这三个
    进程结束后,用一个简单的cat命令来把这三个文件衔接起来– cat mdk-iso.part?> mdk-80.iso.(强烈建议在刻盘之前先检查md5)
    你也可以用”–verbose”参数来使每个curl进程都有自己的窗口来显示传输的过程.
    展开全文
  • 场景:yum源一开始配置的是本地,后来需要配置阿里云yum源,同时wget命令无法使用

    1.备份之前的仓库

    mv /etc/yum.repos.d/CentOS-Local.repo /etc/yum.repos.d/CentOS-Local.repo.backup
    

    2.下载新的CentOS-Base.repo

    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-6.repo
    

    如果Linux执行 wget命令:提示command not found,需要
    去镜像网站下载wget,有人问为啥不用yum,本来就是配置yum源的,自然无法直接安装wget呀
    在http://ftp.sjtu.edu.cn/centos/6.10/os/x86_64/Packages/
    下载
    wget-1.12-10.el6.x86_64.rpm
    然后在执行上面的命令,具体根据wget版本来

    3.生成缓存

    yum clean all
    yum makecache
    

    yum就可以安装工具了

    展开全文
  • 我有一个linux服务器(全新的,虚拟主机,没有安装任何东西),并且想要使用" wget"命令。 目前找不到。 内核版本2.6.32-896.16.1.lve1.4.54.el6.x86_64我对linux完全陌生,尝试自己解决此问题,但无法解决。 我通过...

    我有一个linux服务器(全新的,虚拟主机,没有安装任何东西),并且想要使用" wget"命令。 目前找不到。 内核版本2.6.32-896.16.1.lve1.4.54.el6.x86_64

    我对linux完全陌生,尝试自己解决此问题,但无法解决。 我通过Windows OS笔记本电脑通过PuTTY登录到该Linux服务器。

    wget https://www.python.org/ftp/python/3.6.6/Python-3.6.6.tgz

    要使" wget"正常工作,我将需要安装它。 我想我需要先安装" sudo"和/或" apt"和/或" apt-get"。 但是做不到。 请给我简短的安装步骤列表。

    给定您的内核版本,看起来您的Linux发行版是CentOS 6或RHEL6。尝试使用以下命令安装wget:

    yum install wget

    运行此命令时,您必须是root用户。

    从内核版本来看,您似乎正在使用RHEL / Centos 6。

    请检查 -

    https://centos.pkgs.org/6/centos-x86_64/wget-1.12-10.el6.x86_64.rpm.html

    如果系统中存在上述依赖项,则可以直接触发rpm命令

    rpm命令指南-

    https://docs.fedoraproject.org/ro/Fedora_Draft_Documentation/0.1/html/RPM_Guide/ch02s03.html

    如果不起作用,则需要使用yum命令。 (如果尚未配置,则需要先配置yum命令)

    百胜安装wget

    要在centos6中配置yum命令-

    https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/6/html/deployment_guide/sec-configuring_yum_and_yum_repositories

    注意-您需要成为root用户才能进行上述活动。

    展开全文
  • linux 命令 wget

    2017-12-17 21:34:48
    用于从网络上下载资源,没有指定目录,下载资源回默认为当前目录。wget虽然功能强大,但是使用起来还是比较简单: 1)支持断点下传功能;这一点,也是网络蚂蚁和FlashGet当年最大的卖点,现在,Wget也可以使用此...
  • linuxwget未找到命令

    万次阅读 2018-05-22 16:43:13
    在装数据库的时候发现无法使用wget命令,提示未找到命令,如图所示那是因为没有安装wget,输入命令:yum -y install wget 如下图所示,wget及其依赖将会被安装安装完成后就可以使用wget命令啦...
  • Linux 命令 wget

    2015-06-17 21:55:36
    wgetLinux/Unix命令行文件下载器,它是下载网站...Wget是非交互的,这就是说它可以在用户没有登录到系统时在后台工作。 下载单个文件 wget http://mirror.nbrc.ac.in/centos/7.0.1406/isos/x86_64/CentOS-7.0-1406
  • linux没有安装FTP工具,因此想用wget命令来下载本机上的文件.   我用IIS映射了一个网站地址,然后把文件放在这个网站目录上 注意:IIS地址网站绑定的IP地址不能填写127.0.0.1,而是要填192.168.xx.xx 不然的话会...
  • 在装数据库的时候发现无法使用wget命令,提示未找到命令,如图所示 那是因为没有安装wget,输入命令:yum -y install wget 如下图所示,wget及其依赖将会被安装 安装完成后就可以使用wget命令啦 ...
  • 一、Linux wget简介 wgetlinux上的命令行的下载工具。这是一个GPL许可证下的自由软件。Linux wget支持HTTP和FTP协议,支持代理服务器和断点续传功能,...由于没有交互式界面,Linux wget可在后台运行,截获并忽...
  • wget这个功能太棒了!...(如果没有安装wget 可以使用如下命令安装:[root@localhost ~]# yum -y install wget)原文有些错误,以下做了些修正,查看帮助:wget --help linux wget 命令用法详解(附实...
  • 是我们必然会面对的问题,它的安装过程其实并不复杂,并且网络上的安装教程也非常多,但是对于新手来说,各种不同形式的安装教程,又给新手们带来了要选择哪种方式进行安装的难题,而且很多时候按照教程也没有能够...
  • linux下要批量下载百度云盘的文件,没有客户端,直接下载文件夹会发现生成了一个相对原文件很小的.cab文件,当然不能用,所以在这里我们可以使用常用的wget命令来下载。  命令用法: ~$ sudo wget -c -O [文件名...
  • wget 命令

    2018-09-14 15:22:50
    如果您没有Linux系统的管理经验,当前只需了解一下wget命令的参数以及作用,然后看一下下面的演示实验即可,切记不要急于求成。后面章节将 逐步讲解Linux系统的配置管理方法,可以等您掌握了网卡的配置方法后再来...
  • 记录Linux系统下既没有yum命令也没有wget命令时,安装命令的过程 先吐槽一下网上教程里面用wget下载yum、用yum下载wget的 我套我自己? 在新装的redhat6.5中使用yum命令提示以下错误: yum repolist Loaded plugins:...
  • 刚安装的Redhat7没有wget命令怎么办?

    千次阅读 2019-04-10 03:09:09
    在用wget命令安装网络yum源的时候,发现系统根本没有wget命令。顿时火冒三丈。。 这让我感觉就像一个没有网卡驱动的电脑,有WiFi也没法上网。遇到这种问题,我们常用的方法就是用U盘下载驱动,再安装到电脑上。 回到...
  • Linux命令wget

    2015-12-30 22:17:16
    Linux命令wget功能说明Linux系统中的wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,我们经常要下载一些软件或从远程服务器恢复备份到本地服务器。wget支持HTTP,HTTPS和FTP协议,...
  • 安装wget 、 wget命令

    2018-04-12 09:18:57
    安装wget 、 wget命令转载 2013年10月19日 16:13:07标签:linux28734今天给服务器安装新LNMP环境时,wget 时提示 -bash:wget command not found,很明显没有安装wget软件包。一般linux最小化安装时,wget不会默认被...
  • wget 命令实例

    2017-05-02 09:45:00
    wget 命令实例 wget是Linux/Unix命令行文件下载器,它是下载网站上文件的免费的非交互下载工具,它支持HTTP、HTTPS和FTP...在本帖中,我们将讨论wget命令的一些不同使用实例。 实例1 :下载单个文件 # wget ht...
  • Wget是一个十分常用命令行下载工具,多数Linux发行版本都默认包含这个工具。如果没有安装可在 http: //www.gnu.org/software/wget/wget.html 下载最新版本,并使用如下命令编译安装:  # tar zxvf wget-1.9.1.tar....
  • apt-get 用作于deb包 yum作用于tar包(也可以运作于rpm包) wget是下载工具 后面可以直接跟地址 如果当前linux没有wget,那么我们可以考虑使用sudo apt-get install wget来安装wget命令

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,038
精华内容 415
关键字:

linux没有wget命令

linux 订阅