精华内容
下载资源
问答
  • linux下载命令wget

    万次阅读 2018-04-14 19:27:30
    linux下载命令原创 2017年11月03日 14:20:0732Linux wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,尤其对于网络管理员,经常要下载一些软件或从远程服务器恢复备份到 本地服务器。...

    linux下载命令

    原创  2017年11月03日 14:20:07
    • 32

    Linux wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,尤其对于网络管理员,经常要下载一些软件或从远程服务器恢复备份到 本地服务器。如果我们使用虚拟主机,处理这样的事务我们只能先从远程服务器下载到我们电脑磁盘,然后再用ftp工具上传到服务器。这样既浪费时间又浪费精 力,那不没办法的事。而到了Linux VPS,它则可以直接下载到服务器而不用经过上传这一步。wget工具体积小但功能完善,它支持断点下载功能,同时支持FTP和HTTP下载方式,支持代 理服务器和设置起来方便简单。下面我们以实例的形式说明怎么使用wget。

    1、使用wget下载单个文件

    以下的例子是从网络下载一个文件并保存在当前目录

    wget http://cn.wordpress.org/wordpress-3.1-zh_CN.zip

    在下载的过程中会显示进度条,包含(下载完成百分比,已经下载的字节,当前下载速度,剩余下载时间)。

    2、使用wget -O下载并以不同的文件名保存

    wget默认会以最后一个符合”/”的后面的字符来命令,对于动态链接的下载通常文件名会不正确。

    错误:下面的例子会下载一个文件并以名称download.php?id=1080保存

    wget http://www.centos.bz/download?id=1

    即使下载的文件是zip格式,它仍然以download.php?id=1080命令。

    正确:为了解决这个问题,我们可以使用参数-O来指定一个文件名:

    wget -O wordpress.zip http://www.centos.bz/download.php?id=1080

    3、使用wget –limit -rate限速下载

    当你执行wget的时候,它默认会占用全部可能的宽带下载。但是当你准备下载一个大文件,而你还需要下载其它文件时就有必要限速了。

    wget –limit-rate=300k http://cn.wordpress.org/wordpress-3.1-zh_CN.zip

    4、使用wget -c断点续传

    使用wget -c重新启动下载中断的文件:

    wget -c http://cn.wordpress.org/wordpress-3.1-zh_CN.zip

    对于我们下载大文件时突然由于网络等原因中断非常有帮助,我们可以继续接着下载而不是重新下载一个文件。需要继续中断的下载时可以使用-c参数。

    5、使用wget -b后台下载

    对于下载非常大的文件的时候,我们可以使用参数-b进行后台下载。

    wget -b http://cn.wordpress.org/wordpress-3.1-zh_CN.zip

    Continuing in background, pid 1840.

    Output will be written to `wget-log’.

    你可以使用以下命令来察看下载进度

    tail -f wget-log

    6、伪装代理名称下载

    有些网站能通过根据判断代理名称不是浏览器而拒绝你的下载请求。不过你可以通过–user-agent参数伪装。

    wget –user-agent=”Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16″ 下载链接

    7、使用wget –spider测试下载链接

    当你打算进行定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加–spider参数进行检查。

    wget –spider URL

    如果下载链接正确,将会显示

    wget –spider URL

    Spider mode enabled. Check if remote file exists.

    HTTP request sent, awaiting response… 200 OK

    Length: unspecified [text/html]

    Remote file exists and could contain further links,

    but recursion is disabled — not retrieving.

    这保证了下载能在预定的时间进行,但当你给错了一个链接,将会显示如下错误

    wget –spider url

    Spider mode enabled. Check if remote file exists.

    HTTP request sent, awaiting response… 404 Not Found

    Remote file does not exist — broken link!!!

    你可以在以下几种情况下使用spider参数:

    定时下载之前进行检查

    间隔检测网站是否可用

    检查网站页面的死链接

    8、使用wget –tries增加重试次数

    如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次连接下载文件。如果需要,你可以使用–tries增加重试次数。

    wget –tries=40 URL

    9、使用wget -i下载多个文件

    首先,保存一份下载链接文件

    cat > filelist.txt

    url1

    url2

    url3

    url4

    接着使用这个文件和参数-i下载

    wget -i filelist.txt

    10、使用wget –mirror镜像网站

    下面的例子是下载整个网站到本地。

    wget –mirror -p –convert-links -P ./LOCAL URL

    –miror:开户镜像下载

    -p:下载所有为了html页面显示正常的文件

    –convert-links:下载后,转换成本地的链接

    -P ./LOCAL:保存所有文件和目录到本地指定目录

    11、使用wget –reject过滤指定格式下载

    你想下载一个网站,但你不希望下载图片,你可以使用以下命令。

    wget –reject=gif url

    12、使用wget -o把下载信息存入日志文件

    你不希望下载信息直接显示在终端而是在一个日志文件,可以使用以下命令:

    wget -o download.log URL

    13、使用wget -Q限制总下载文件大小

    当你想要下载的文件超过5M而退出下载,你可以使用以下命令:

    wget -Q5m -i filelist.txt

    注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。

    14、使用wget -r -A下载指定格式文件

    可以在以下情况使用该功能

    下载一个网站的所有图片

    下载一个网站的所有视频

    下载一个网站的所有PDF文件

    wget -r -A.pdf url

    15、使用wget FTP下载

    你可以使用wget来完成ftp链接的下载。

    使用wget匿名ftp下载

    wget ftp-url

    使用wget用户名和密码认证的ftp下载

    wget –ftp-user=USERNAME –ftp-password=PASSWORD url

    转载于http://www.cssor.com听雨

    展开全文
  • linux 下载 命令 wget 和 curl

    万次阅读 多人点赞 2016-12-16 11:57:52
    From:...From :Linux curl 命令详解 - http://www.cnblogs.com/duhuo/p/5695256.html Linux curl 命令参数详解:http://www.aiezu.com/system/linux/linux_curl_syntax.html Linux下...

     

    From:http://www.jb51.net/LINUXjishu/86326.html
    From :Linux curl 命令详解 - http://www.cnblogs.com/duhuo/p/5695256.html

    Linux curl 命令参数详解:http://www.aiezu.com/system/linux/linux_curl_syntax.html
    Linux下使用 curl :http://www.cnblogs.com/xd502djj/archive/2012/06/12/2546737.html

    Linux curl 命令详解:http://www.linuxdiyf.com/linux/2800.html

     

     

     

    wget 和 curl

     

    curl  和  wget  基础功能有诸多重叠,如 下载 等。

    wget 和 cURL 都可以下载内容。它们的核心就是这么设计的。它们都可以向互联网发送请求并返回请求项。这可以是文件、图片或者是其他诸如网站的原始 HTML 之类。

    这两个程序都可以进行 HTTP POST 请求。这意味着它们都可以向网站发送数据,比如说填充表单什么的。

    由于这两者都是命令行工具,它们都被设计成可脚本化。wget 和 cURL 都可以写进你的 Bash 脚本 ,自动与新内容交互,下载所需内容。

     

    curl wget 区别:

    • 1. curl 是 libcurl 这个库支持的,wget 是一个纯粹的命令行命令。
    • 2. curl 在指定要下载的链接时能够支持 URL 的序列或集合,而 wget 则不能这样;
    • 3. wget 支持 递归下载,而 curl 则没有这个功能。
    • 4. curl 由于可自定义各种请求参数,所以在 模拟 web 请求 方面更擅长;cURL是一个多功能工具。当然,它可以下载网络内容,但同时它也能做更多别的事情。cURL 技术支持库是:libcurl。这就意味着你可以基于 cURL 编写整个程序,允许你基于 libcurl 库中编写图形环境的下载程序,访问它所有的功能。cURL 宽泛的网络协议支持可能是其最大的卖点。cURL 支持访问 HTTP 和 HTTPS 协议,能够处理 FTP 传输。它支持 LDAP 协议,甚至支持 Samba 分享。实际上,你还可以用 cURL 收发邮件。cURL 也有一些简洁的安全特性。cURL 支持安装许多 SSL/TLS 库,也支持通过网络代理访问,包括 SOCKS。这意味着,你可以越过 Tor 来使用cURL。cURL 同样支持让数据发送变得更容易的 gzip 压缩技术。
    • 5. wget 由于支持 ftp 和 Recursive(递归)下载, 所以在下载文件方面更擅长。wget 简单直接。这意味着你能享受它超凡的下载速度。wget 是一个独立的程序,无需额外的资源库,更不会做其范畴之外的事情。wget 是专业的直接下载程序,支持递归下载。同时,它也允许你下载网页中或是 FTP 目录中的任何内容。wget 拥有智能的默认设置。它规定了很多在常规浏览器里的事物处理方式,比如 cookies 和重定向,这都不需要额外的配置。可以说,wget 简直就是无需说明,开罐即食!

    类比的话,可以把 curl 看做是一个精简的命令行网页浏览器。它支持几乎你能想到的所有协议,curl 宽泛的网络协议支持可能是其最大的卖点(curl支持更多的协议。curl supports FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, LDAP, LDAPS, FILE, POP3, IMAP, SMTP and RTSP at the time of this writing. Wget supports HTTP, HTTPS and FTP.)。curl 支持访问 HTTP 和 HTTPS 协议,能够处理 FTP 传输。它支持 LDAP 协议,甚至支持 Samba 分享。实际上,你还可以用 cURL 收发邮件。curl 可以交互访问几乎所有在线内容。唯一和浏览器不同的是,curl 不会渲染接收到的相应信息。
    而 wget 可以看做是 迅雷9 。

    那你应该使用 cURL 还是使用 wget?

    这个比较得看实际用途。如果你想快速下载并且没有担心参数标识的需求,那你应该使用轻便有效的 wget。如果你想做一些更复杂的使用,直觉告诉你,你应该选择 cRUL。

     

    curl 与 wget 高级用法https://jingyan.baidu.com/article/eb9f7b6d63f092869264e856.html

     

     

    wget 命令

     

    wget 是在 Linux 下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括 Windows 在内的各个平台上wget 是一个下载文件的工具,它用在命令行下。对于 Linux 用户是必不可少的工具,尤其对于网络管理员,经常要下载一些软件或从远程服务器恢复备份到本地服务器。

    wget 工具体积小但功能完善,它支持断点下载功能,同时支持 FTP 和 HTTP下载方式,支持代理服务器和设置起来方便简单。

    它有以下功能和特点:

    • (1)支持断点下传功能;这一点,也是网络蚂蚁和FlashGet当年最大的卖点,现在,Wget也可以使用此功能,那些网络不是太好的用户可以放心了;
    • (2)同时支持FTP和HTTP下载方式;尽管现在大部分软件可以使用HTTP方式下载,但是,有些时候,仍然需要使用FTP方式下载软件;
    • (3)支持代理服务器;对安全强度很高的系统而言,一般不会将自己的系统直接暴露在互联网上,所以,支持代理是下载软件必须有的功能;
    • (4)设置方便简单;可能,习惯图形界面的用户已经不是太习惯命令行了,但是,命令行在设置上其实有更多的优点,最少,鼠标可以少点很多次,也不要担心是否错点鼠标;
    • (5)程序小,完全免费;程序小可以考虑不计,因为现在的硬盘实在太大了;完全免费就不得不考虑了,即使网络上有很多免费软件,但是,这些软件的广告不是我们喜欢的;

     

     

    wget 参数

     

    更多参数:man wget

    wget -h   或者  wget --help

    命令格式: 
    wget [参数列表] [目标软件、网页的网址]             //  用法: wget [选项]... [URL]...
    
    长选项所必须的参数在使用短选项时也是必须的。
    
    启动:
      -V,  --version                   显示 Wget 的版本信息并退出
      -h,  --help                      打印此帮助
      -b,  --background                启动后转入后台
      -e,  --execute=命令              运行一个“.wgetrc”风格的命令
    
    日志和输入文件:
      -o,  --output-file=文件          将日志信息写入 FILE
      -a,  --append-output=文件        将信息添加至 FILE
      -d,  --debug                     打印大量调试信息
      -q,  --quiet                     安静模式 (无信息输出)
      -v,  --verbose                   详尽的输出 (此为默认值)
      -nv, --no-verbose                关闭详尽输出,但不进入安静模式
           --report-speed=类型         以 <类型> 报告带宽。类型可以是 bits
      -i,  --input-file=文件           下载本地或外部 <文件> 中的 URL
      -F,  --force-html                把输入文件当成 HTML 文件
      -B,  --base=URL                  解析相对于 URL 的 HTML 输入文件链接 (-i -F)
           --config=文件               指定要使用的配置文件
           --no-cookies                不读取任何配置文件
           --rejected-log=文件         将拒绝 URL 的原因写入 <文件>。
    
    下载:
      -t,  --tries=数字                设置重试次数为 <数字> (0 代表无限制)
           --retry-connrefused         即使拒绝连接也是重试
      -O,  --output-document=文件      将文档写入 FILE
      -nc, --no-clobber                不要下载已存在将被覆盖的文件
      -c,  --continue                  断点续传下载文件
           --start-pos=偏移量          从由零计数的 <偏移量> 开始下载
           --progress=类型             选择进度条类型
           --show-progress             在任意啰嗦状态下都显示进度条
      -N,  --timestamping              只获取比本地文件新的文件
           --no-if-modified-since      不要在时间戳 (timestamping) 模式下使用
                                         if-modified-since get 条件请求
           --no-use-server-timestamps  don't set the local file's timestamp by
                                         the one on the server
      -S,  --server-response           打印服务器响应
           --spider                    不下载任何文件
      -T,  --timeout=SECONDS           将所有超时设为 SECONDS 秒
           --dns-timeout=SECS          设置 DNS 查寻超时为 SECS 秒
           --connect-timeout=SECS      设置连接超时为 SECS 秒
           --read-timeout=SECS         设置读取超时为 SECS 秒
      -w,  --wait=SECONDS              等待间隔为 SECONDS 秒
           --waitretry=SECONDS         在获取文件的重试期间等待 1..SECONDS 秒
           --random-wait               获取多个文件时,每次随机等待间隔 (0.5~1.5)*WAIT 秒
           --no-proxy                  禁止使用代理
      -Q,  --quota=数字                设置获取配额为 <数字> 字节
           --bind-address=ADDRESS      绑定至本地主机上的 ADDRESS (主机名或是 IP)
           --limit-rate=RATE           限制下载速率为 RATE
           --no-dns-cache              关闭 DNS 查询缓存
           --restrict-file-names=系统  限定文件名中的字符为 <系统> 允许的字符
           --ignore-case               匹配文件/目录时忽略大小写
      -4,  --inet4-only                仅连接至 IPv4 地址
      -6,  --inet6-only                仅连接至 IPv6 地址
           --prefer-family=地址族      首先连接至指定家族(IPv6,IPv4 或 none)的地址
           --user=用户                 将 ftp 和 http 的用户名均设置为 <用户>
           --password=密码             将 ftp 和 http 的密码均设置为 <密码>
           --ask-password              提示输入密码
           --no-iri                    关闭 IRI 支持
           --local-encoding=ENC        使用 ENC 作为 IRI (国际化资源标识符) 的本地编码
           --remote-encoding=ENC       使用 ENC 作为默认远程编码
           --unlink                    覆盖前移除文件
    
    目录:
      -nd, --no-directories            不创建目录
      -x,  --force-directories         强制创建目录
      -nH, --no-host-directories       不要创建主 (host) 目录
           --protocol-directories      在目录中使用协议名称
      -P,  --directory-prefix=前缀     保存文件到 <前缀>/..
           --cut-dirs=数字             忽略远程目录中 <数字> 个目录层。
    
    HTTP 选项:
           --http-user=用户            设置 http 用户名为 <用户>
           --http-password=密码        设置 http 密码为 <密码>
           --no-cache                  不使用服务器缓存的数据。
           --default-page=NAME         改变默认页 (通常是“index.html”)。
      -E,  --adjust-extension          以合适的扩展名保存 HTML/CSS 文档
           --ignore-length             忽略头部的‘Content-Length’区域
           --header=字符串             在头部插入 <字符串>
           --max-redirect              每页所允许的最大重定向
           --proxy-user=用户           使用 <用户> 作为代理用户名
           --proxy-password=密码       使用 <密码> 作为代理密码
           --referer=URL               在 HTTP 请求头包含‘Referer: URL’
           --save-headers              将 HTTP 头保存至文件。
      -U,  --user-agent=代理           标识自己为 <代理> 而不是 Wget/VERSION。
           --no-http-keep-alive        禁用 HTTP keep-alive (持久连接)。
           --no-cookies                不使用 cookies。
           --load-cookies=文件         会话开始前从 <文件> 中载入 cookies。
           --save-cookies=文件         会话结束后保存 cookies 至 FILE。
           --keep-session-cookies      载入并保存会话 (非永久) cookies。
           --post-data=字符串          使用 POST 方式;把 <字串>作为数据发送。
           --post-file=文件            使用 POST 方式;发送 <文件> 内容。
           --method=HTTP方法           在请求中使用指定的 <HTTP 方法>。
           --post-data=字符串          把 <字串> 作为数据发送,必须设置 --method
           --post-file=文件            发送 <文件> 内容,必须设置 --method
           --content-disposition       当选择本地文件名时允许 Content-Disposition
                                       头部 (实验中)。
           --content-on-error          在服务器错误时输出接收到的内容
           --auth-no-challenge         不先等待服务器询问就发送基本 HTTP 验证信息。
    
    HTTPS (SSL/TLS) 选项:
           --secure-protocol=PR         选择安全协议,可以是 auto、SSLv2、
                                        SSLv3、TLSv1、PFS 中的一个。
           --https-only                 只跟随安全的 HTTPS 链接
           --no-check-certificate       不要验证服务器的证书。
           --certificate=文件           客户端证书文件。
           --certificate-type=类型      客户端证书类型,PEM 或 DER。
           --private-key=文件           私钥文件。
           --private-key-type=类型      私钥文件类型,PEM 或 DER。
           --ca-certificate=文件        带有一组 CA 证书的文件。
           --ca-directory=DIR           保存 CA 证书的哈希列表的目录。
           --ca-certificate=文件        带有一组 CA 证书的文件。
           --pinnedpubkey=FILE/HASHES  Public key (PEM/DER) file, or any number
                                       of base64 encoded sha256 hashes preceded by
                                       'sha256//' and seperated by ';', to verify
                                       peer against
    
    HSTS 选项:
           --no-hsts                   禁用 HSTS
           --hsts-file                 HSTS 数据库路径(将覆盖默认值)
    
    FTP 选项:
           --ftp-user=用户             设置 ftp 用户名为 <用户>。
           --ftp-password=密码         设置 ftp 密码为 <密码>
           --no-remove-listing         不要删除‘.listing’文件
           --no-glob                   不在 FTP 文件名中使用通配符展开
           --no-passive-ftp            禁用“passive”传输模式
           --preserve-permissions      保留远程文件的权限
           --retr-symlinks             递归目录时,获取链接的文件 (而非目录)
    
    FTPS 选项:
           --ftps-implicit                 使用隐式 FTPS(默认端口 990)
           --ftps-resume-ssl               打开数据连接时继续控制连接中的 SSL/TLS 会话
           --ftps-clear-data-connection    只加密控制信道;数据传输使用明文
           --ftps-fallback-to-ftp          回落到 FTP,如果目标服务器不支持 FTPS
    WARC 选项:
           --warc-file=文件名          在一个 .warc.gz 文件里保持请求/响应数据
           --warc-header=字符串        在头部插入 <字符串>
           --warc-max-size=数字        将 WARC 的最大尺寸设置为 <数字>
           --warc-cdx                  写入 CDX 索引文件
           --warc-dedup=文件名         不要记录列在此 CDX 文件内的记录
           --no-warc-compression       不要 GZIP 压缩 WARC 文件
           --no-warc-digests           不要计算 SHA1 摘要
           --no-warc-keep-log          不要在 WARC 记录中存储日志文件
           --warc-tempdir=目录         WARC 写入器的临时文件目录
    
    递归下载:
      -r,  --recursive                 指定递归下载
      -l,  --level=数字                最大递归深度 (inf 或 0 代表无限制,即全部下载)。
           --delete-after             下载完成后删除本地文件
      -k,  --convert-links            让下载得到的 HTML 或 CSS 中的链接指向本地文件
           --convert-file-only         convert the file part of the URLs only (usually known as the basename)
           --backups=N                 写入文件 X 前,轮换移动最多 N 个备份文件
      -K,  --backup-converted         在转换文件 X 前先将它备份为 X.orig。
      -m,  --mirror                   -N -r -l inf --no-remove-listing 的缩写形式。
      -p,  --page-requisites          下载所有用于显示 HTML 页面的图片之类的元素。
           --strict-comments          用严格方式 (SGML) 处理 HTML 注释。
    
    递归接受/拒绝:
      -A,  --accept=列表               逗号分隔的可接受的扩展名列表
      -R,  --reject=列表               逗号分隔的要拒绝的扩展名列表
           --accept-regex=REGEX        匹配接受的 URL 的正则表达式
           --reject-regex=REGEX        匹配拒绝的 URL 的正则表达式
           --regex-type=类型           正则类型 (posix|pcre)
      -D,  --domains=列表              逗号分隔的可接受的域名列表
           --exclude-domains=列表      逗号分隔的要拒绝的域名列表
           --follow-ftp                跟踪 HTML 文档中的 FTP 链接
           --follow-tags=列表          逗号分隔的跟踪的 HTML 标识列表
           --ignore-tags=列表          逗号分隔的忽略的 HTML 标识列表
      -H,  --span-hosts                递归时转向外部主机
      -L,  --relative                  仅跟踪相对链接
      -I,  --include-directories=列表  允许目录的列表
           --trust-server-names        使用重定向 URL 的最后一段作为本地文件名
      -X,  --exclude-directories=列表  排除目录的列表
      -np, --no-parent                 不追溯至父目录

     

     

    wget 使用示例

     

    wget 虽然功能强大,但是使用起来还是比较简单的,基本的语法是:wget [参数列表] URL
    下面就结合具体的例子来说明一下wget的用法。

     

    1、使用 wget 下载单个文件 

    以下的例子是从网络下载一个文件并保存在当前目录 
    wget http://cn.wordpress.org/wordpress-3.1-zh_CN.zip 
    在下载的过程中会显示进度条,包含(下载完成百分比,已经下载的字节,当前下载速度,剩余下载时间)。 

     

    2、使用 wget -O 下载并以不同的文件名保存

    wget默认会以最后一个符合”/”的后面的字符来命令,对于动态链接的下载通常文件名会不正确。 
    错误:下面的例子会下载一个文件并以名称download.php?id=1080保存 
    
    wget http://www.centos.bz/download?id=1 
    即使下载的文件是zip格式,它仍然以download.php?id=1080命令。 
    正确:为了解决这个问题,我们可以使用参数-O来指定一个文件名: 
    
    wget -O wordpress.zip http://www.centos.bz/download.php?id=1080 

     

    3、使用 wget --limit -rate 限速下载

    当你执行wget的时候,它默认会占用全部可能的宽带下载。但是当你准备下载一个大文件,而你还需要下载其它文件时就有必要限速了。 
    
    wget –limit-rate=300k http://cn.wordpress.org/wordpress-3.1-zh_CN.zip 

     

    4、使用 wget -c 断点续传

    当文件特别大或者网络特别慢的时候,往往一个文件还没有下载完,连接就已经被切断,此时就需要断点续传。
    wget的断点续传是自动的,只需要使用 -c 参数。使用断点续传要求服务器支持断点续传。
    例如: wget -c http://the.url.of/incomplete/file 
    -t 参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。
    -T 参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。 

     

     

    5、使用 wget -b 后台下载

    对于下载非常大的文件的时候,我们可以使用参数-b进行后台下载。 
    
    wget -b http://cn.wordpress.org/wordpress-3.1-zh_CN.zip 
    Continuing in background, pid 1840. 
    Output will be written to `wget-log’. 
    你可以使用以下命令来察看下载进度 
    
    tail -f wget-log 

     

    6、使用代理服务器(proxy) 和 伪装代理(user-agent)名称下载

     

    如果用户的网络需要经过代理服务器,那么可以让 wget 通过代理服务器进行文件的下载。
    此时需要在当前用户的目录下创建一个 .wgetrc 文件。

    文件中可以设置代理服务器:
    http-proxy = 111.111.111.111:8080
    ftp-proxy = 111.111.111.111:8080
    分别表示http的代理服务器和ftp的代理服务器。

    如果代理服务器需要密码,则使用这两个参数:
    –proxy-user=USER      设置代理用户
    –proxy-passwd=PASS    设置代理密码

    使用参数 –proxy=on/off 使用或者关闭代理。

     

    有些网站能通过根据判断代理名称不是浏览器而拒绝你的下载请求。不过你可以通过 --user-agent 参数伪装。
    wget --user-agent=”Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16″ 下载链接

    wget 还有很多有用的功能,需要用户去挖掘。

     

     

    7、使用 wget --spider 测试下载链接

    当你打算进行定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加–spider参数进行检查。 
    
    wget –spider URL 
    如果下载链接正确,将会显示 
    
    wget –spider URL 
    Spider mode enabled. Check if remote file exists. 
    HTTP request sent, awaiting response… 200 OK 
    Length: unspecified [text/html] 
    Remote file exists and could contain further links, 
    but recursion is disabled — not retrieving. 
    这保证了下载能在预定的时间进行,但当你给错了一个链接,将会显示如下错误 
    
    wget –spider url 
    Spider mode enabled. Check if remote file exists. 
    HTTP request sent, awaiting response… 404 Not Found 
    Remote file does not exist — broken link!!! 
    你可以在以下几种情况下使用spider参数: 
    
    定时下载之前进行检查 
    间隔检测网站是否可用 
    检查网站页面的死链接 

     

    8、使用 wget --tries 增加重试次数

    如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次连接下载文件。如果需要,你可以使用–tries增加重试次数。 
    
    wget –tries=40 URL 

     

    9、使用 wget -i 下载多个文件 (批量下载)

     

    如果有多个文件需要下载,那么可以生成一个文件,把每个文件的 URL 写一行。

    例如,生成文件 download.txt,然后用命令:wget -i download.txt

    这样就会把download.txt里面列出的每个URL都下载下来。(如果列的是文件就下载文件,如果列的是网站,那么下载首页)

    首先,保存一份下载链接文件 
    
    cat > filelist.txt 
    url1 
    url2 
    url3 
    url4 
    接着使用这个文件和参数-i下载 
    
    wget -i filelist.txt 

     

    10、使用 wget --mirror 镜像网站

    下面的例子是下载整个网站到本地。 
    
    wget –mirror -p –convert-links -P ./LOCAL URL 
    –miror:开户镜像下载 
    -p:下载所有为了html页面显示正常的文件 
    –convert-links:下载后,转换成本地的链接 
    -P ./LOCAL:保存所有文件和目录到本地指定目录 

     

    11、使用 wget --reject 过滤指定格式下载

    可以指定让 wget 只下载一类文件,或者不下载什么文件。
    
    例如: 
            wget -m –reject=gif http://target.web.site/subdirectory 
            表示下载 http://target.web.site/subdirectory,但是忽略gif文件。
    
    –accept=LIST    可以接受的文件类型,
    –reject=LIST    拒绝接受的文件类型。
    
    
    你想下载一个网站,但你不希望下载图片,你可以使用以下命令。 
    
    wget –reject=gif url 

     

    12、使用 wget -o 把下载信息存入日志文件

    你不希望下载信息直接显示在终端而是在一个日志文件,可以使用以下命令: 
    
    wget -o download.log URL 

     

    13、使用 wget -Q 限制总下载文件大小

    当你想要下载的文件超过5M而退出下载,你可以使用以下命令: 
    
    wget -Q5m -i filelist.txt 
    注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。 

     

    14、使用 wget -r -A 下载指定格式文件

    可以在以下情况使用该功能 
    
    下载一个网站的所有图片 
    下载一个网站的所有视频 
    下载一个网站的所有PDF文件 
    wget -r -A.pdf url 

     

    15、下载整个 http 或者  wget FTP 下载 

    wget http://place.your.url/here 
    这个命令可以将 http://place.your.url/here 首页下载下来。
    使用 -x 会强制建立服务器上一模一样的目录,
    如果使用 -nd 参数,那么服务器上下载的所有内容都会加到本地当前目录。 
    
    wget -r http://place.your.url/here 
    这个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。
    这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同 样会被下载,
    因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!
    基于这个原因,这个参数不常用。
    可以用 -l number 参数来指定下载的层次。例如只下载两层,那么使用-l 2。 
    
    要是您想制作镜像站点,那么可以使用 -m 参数,
    例如:wget -m http://place.your.url/here 
    这时 wget 会自动判断合适的参数来制作镜像站点。
    此时,wget会登录到服务器上,读入robots.txt 并按 robots.txt的规定来执行。 
    
    
     
    使用 wget 匿名ftp 下载 
    wget ftp -url 
    
    使用 wget 用户名 和 密码认证的 ftp 下载 
    wget –ftp-user=USERNAME –ftp-password=PASSWORD url

     

    16、密码和认证

    wget 可以处理利用 用户名/密码 方式限制访问的网站,可以利用两个参数:
           --http-user=用户                设置 http 用户名为 <用户>
           --http-password=密码        设置 http 密码为 <密码>
    对于需要证书做认证的网站,就只能利用其他下载工具了,例如 curl


     

    中文文件名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的,
    wget -r -np -nH –cut-dirs=3 ftp://host/test/
    测试.txt
    wget -r -np -nH -nd ftp://host/test/
    %B4%FA%B8%D5.txt
    wget “ftp://host/test/*”
    %B4%FA%B8%D5.txt

    由于不知名的原因,可能是为了避开特殊文件名, wget 会自动将抓取文件名的部分用 encode_string 处理过,
    所以该 patch 就把被 encode_string 处理成 “%3A” 这种东西, 用 decode_string 还原成 “:”,并套用在目录与文件名称的部分,
    decode_string 是 wget 内建的函式。

    wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log

     

     

     

    curl 命令

     

    linux 的 curl  是  一个强大的 网络传输工具

    linux 的 curl 是通过 url 语法 在命令行下上传或下载文件的工具软件,它支持 http、https、ftp,、ftps、telnet 等多种协议,常被用来抓取网页 和 监控Web服务器状态。

    curl 命令是一个功能强大的网络工具,它能够通过 http、ftp 等方式下载文件,也能够上传文件。其实 curl 远不止前面所说的那些功能,大家可以通过 man curl 阅读手册页获取更多的信息。类似的工具还有 wget

    curl 命令使用了 libcurl 库来实现,libcurl 库常用在 C程序 中用来处理 HTTP 请求,curlpp 是 libcurl 的一个 C++ 封装,这几个东西可以用在抓取网页、网络监控等方面的开发,而 curl 命令可以帮助来解决开发过程中遇到的问题。

     

     

    curl 常用参数

    语法:# curl [option] [url]
    
    -A/--user-agent <string>              设置用户代理发送给服务器
    -b/--cookie <name=string/file>    cookie字符串或文件读取位置
    -c/--cookie-jar <file>                    操作结束后把cookie写入到这个文件中
    -C/--continue-at <offset>            断点续转
    -d/--data/--data-ascii <data> 指定POST的内容
    -D/--dump-header <file>              把header信息写入到该文件中
    -e/--referer                          来源网址
    -f/--fail                                          连接失败时不显示http错误
    -H/--header <header> 指定请求头参数
    -I/--head 仅返回头部信息,使用HEAD请求
    -m/--max-time <seconds> 指定处理的最大时长
    -o/--output                                  把输出写到该文件中
    -O/--remote-name                      把输出写到该文件中,保留远程文件的文件名
    -r/--range <range>                      检索来自HTTP/1.1或FTP服务器字节范围
    -s/--silent                                    静音模式。不输出任何东西
    -T/--upload-file <file> 指定上传文件路径
    -u/--user <user[:password]>      设置服务器的用户和密码
    -v/--verbose 小写的v参数,用于打印更多信息,包括发送的请求信息,这在调试脚本是特别有用。
    -w/--write-out [format]                什么输出完成后
    -x/--proxy <proxyhost[:port]> 指定代理服务器地址和端口,端口默认为1080
    -#/--progress-bar                        进度条显示当前的传送状态
    
    --connect-timeout <seconds> 指定尝试连接的最大时长
    --retry <num> 指定重试次数
    

     

     

    使用示例:

     

    1、基本用法

    # curl http://www.linux.com

    执行后,www.linux.com 的html就会显示在屏幕上了
    Ps:由于安装linux的时候很多时候是没有安装桌面的,也意味着没有浏览器,因此这个方法也经常用于测试一台服务器是否可以到达一个网站

     

    2、保存访问的网页

    2.1:使用linux的重定向功能保存

    # curl http://www.linux.com >> linux.html

    2.2:可以使用curl的内置option:-o(小写)保存网页

    $ curl -o linux.html http://www.linux.com

    执行完成后会显示如下界面,显示100%则表示保存成功

    % Total    % Received % Xferd  Average Speed  Time    Time    Time  Current
                                    Dload  Upload  Total  Spent    Left  Speed
    100 79684    0 79684    0    0  3437k      0 --:--:-- --:--:-- --:--:-- 7781k

    2.3:可以使用curl的内置option:-O(大写)保存网页中的文件。

    要注意这里后面的 url 要具体到某个文件,不然抓不下来

    # curl -O http://www.linux.com/hello.sh

     

    3、测试网页返回值

    # curl -o /dev/null -s -w %{http_code} www.linux.com

    Ps:在脚本中,这是很常见的测试网站是否正常的用法

     

    4、指定proxy服务器以及其端口

    很多时候上网需要用到代理服务器(比如是使用代理服务器上网或者因为使用curl别人网站而被别人屏蔽IP地址的时候),幸运的是curl通过使用内置option:-x来支持设置代理

    # curl -x 192.168.100.100:1080 http://www.linux.com

     

    5、cookie

    有些网站是使用 cookie 来记录 session信息。对于 chrome 这样的浏览器,可以轻易处理 cookie 信息,但在 curl 中只要增加相关参数也是可以很容易的处理 cookie

     

    5.1:保存http的response里面的cookie信息。内置option:-c(小写)

    # curl -c cookiec.txt  http://www.linux.com

    执行后cookie信息就被存到了cookiec.txt里面了

     

    5.2:保存http的response里面的header信息。内置option: -D

    # curl -D cookied.txt http://www.linux.com

    执行后cookie信息就被存到了cookied.txt里面了

    注意:-c(小写)产生的cookie和-D里面的cookie是不一样的。


    5.3:使用cookie

    很多网站都是通过监视你的cookie信息来判断你是否按规矩访问他们的网站的,因此我们需要使用保存的cookie信息。内置option: -b

    # curl -b cookiec.txt http://www.linux.com

     

    6、模仿浏览器

    有些网站需要使用特定的浏览器去访问他们,有些还需要使用某些特定的版本。curl 内置option:-A可以让我们指定浏览器去访问网站

    # curl -A "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.0)" http://www.linux.com

    这样服务器端就会认为是使用IE8.0去访问的

     

    7、伪造 referer(盗链)

    很多服务器会检查http访问的referer从而来控制访问。比如:你是先访问首页,然后再访问首页中的邮箱页面,这里访问邮箱的referer地址就是访问首页成功后的页面地址,如果服务器发现对邮箱页面访问的referer地址不是首页的地址,就断定那是个盗连了
    curl中内置option:-e可以让我们设定referer

    # curl -e "www.linux.com" http://mail.linux.com

    这样就会让服务器其以为你是从www.linux.com点击某个链接过来的

     

    8、下载文件

     

    8.1:利用curl下载文件。
    #使用内置option:-o(小写)

    # curl -o dodo1.jpg http:www.linux.com/dodo1.JPG

    #使用内置option:-O(大写)

    # curl -O http://www.linux.com/dodo1.JPG

    这样就会以服务器上的名称保存文件到本地

     

    8.2:循环下载

    有时候下载图片可以能是前面的部分名称是一样的,就最后的尾椎名不一样

    # curl -O http://www.linux.com/dodo[1-5].JPG

    这样就会把dodo1,dodo2,dodo3,dodo4,dodo5全部保存下来

     

    8.3:下载重命名

    # curl -O http://www.linux.com/{hello,bb}/dodo[1-5].JPG

    由于下载的hello与bb中的文件名都是dodo1,dodo2,dodo3,dodo4,dodo5。因此第二次下载的会把第一次下载的覆盖,这样就需要对文件进行重命名。

    # curl -o #1_#2.JPG http://www.linux.com/{hello,bb}/dodo[1-5].JPG

    这样在hello/dodo1.JPG的文件下载下来就会变成hello_dodo1.JPG,其他文件依此类推,从而有效的避免了文件被覆盖

     

    8.4:分块下载

    有时候下载的东西会比较大,这个时候我们可以分段下载。使用内置option:-r

    # curl -r 0-100 -o dodo1_part1.JPG http://www.linux.com/dodo1.JPG
    # curl -r 100-200 -o dodo1_part2.JPG http://www.linux.com/dodo1.JPG
    # curl -r 200- -o dodo1_part3.JPG http://www.linux.com/dodo1.JPG
    # cat dodo1_part* > dodo1.JPG

    这样就可以查看dodo1.JPG的内容了

     

    8.5:通过ftp下载文件

    curl可以通过ftp下载文件,curl提供两种从ftp中下载的语法

    # curl -O -u 用户名:密码 ftp://www.linux.com/dodo1.JPG
    # curl -O ftp://用户名:密码@www.linux.com/dodo1.JPG

    8.6:显示下载进度条

    # curl -# -O http://www.linux.com/dodo1.JPG

    8.7:不会显示下载进度信息

    # curl -s -O http://www.linux.com/dodo1.JPG

     

    9、断点续传

    在 windows中,我们可以使用迅雷这样的软件进行断点续传。curl可以通过内置 option:-C 同样可以达到相同的效果
    如果在下载 dodo1.JPG 的过程中突然掉线了,可以使用以下的方式续传

    # curl -C -O http://www.linux.com/dodo1.JPG

     

    10、上传文件

    curl 不仅仅可以下载文件,还可以上传文件。通过内置 option:-T 来实现

    # curl -T dodo1.JPG -u 用户名:密码 ftp://www.linux.com/img/

    这样就向ftp服务器上传了文件dodo1.JPG

     

    11、显示抓取错误

    # curl -f http://www.linux.com/error

    其他参数(此处翻译为转载):

    -a/--append                        上传文件时,附加到目标文件
    --anyauth                            可以使用“任何”身份验证方法
    --basic                                使用HTTP基本验证
    -B/--use-ascii                      使用ASCII文本传输
    -d/--data <data>                  HTTP POST方式传送数据
    --data-ascii <data>            以ascii的方式post数据
    --data-binary <data>          以二进制的方式post数据
    --negotiate                          使用HTTP身份验证
    --digest                        使用数字身份验证
    --disable-eprt                  禁止使用EPRT或LPRT
    --disable-epsv                  禁止使用EPSV
    --egd-file <file>              为随机数据(SSL)设置EGD socket路径
    --tcp-nodelay                  使用TCP_NODELAY选项
    -E/--cert <cert[:passwd]>      客户端证书文件和密码 (SSL)
    --cert-type <type>              证书文件类型 (DER/PEM/ENG) (SSL)
    --key <key>                    私钥文件名 (SSL)
    --key-type <type>              私钥文件类型 (DER/PEM/ENG) (SSL)
    --pass  <pass>                  私钥密码 (SSL)
    --engine <eng>                  加密引擎使用 (SSL). "--engine list" for list
    --cacert <file>                CA证书 (SSL)
    --capath <directory>            CA目   (made using c_rehash) to verify peer against (SSL)
    --ciphers <list>                SSL密码
    --compressed                    要求返回是压缩的形势 (using deflate or gzip)
    --connect-timeout <seconds>    设置最大请求时间
    --create-dirs                  建立本地目录的目录层次结构
    --crlf                          上传是把LF转变成CRLF
    --ftp-create-dirs              如果远程目录不存在,创建远程目录
    --ftp-method [multicwd/nocwd/singlecwd]    控制CWD的使用
    --ftp-pasv                      使用 PASV/EPSV 代替端口
    --ftp-skip-pasv-ip              使用PASV的时候,忽略该IP地址
    --ftp-ssl                      尝试用 SSL/TLS 来进行ftp数据传输
    --ftp-ssl-reqd                  要求用 SSL/TLS 来进行ftp数据传输
    -F/--form <name=content>        模拟http表单提交数据
    -form-string <name=string>      模拟http表单提交数据
    -g/--globoff                    禁用网址序列和范围使用{}和[]
    -G/--get                        以get的方式来发送数据
    -h/--help                      帮助
    -H/--header <line>              自定义头信息传递给服务器
    --ignore-content-length        忽略的HTTP头信息的长度
    -i/--include                    输出时包括protocol头信息
    -I/--head                      只显示文档信息
    -j/--junk-session-cookies      读取文件时忽略session cookie
    --interface <interface>        使用指定网络接口/地址
    --krb4 <level>                  使用指定安全级别的krb4
    -k/--insecure                  允许不使用证书到SSL站点
    -K/--config                    指定的配置文件读取
    -l/--list-only                  列出ftp目录下的文件名称
    --limit-rate <rate>            设置传输速度
    --local-port<NUM>              强制使用本地端口号
    -m/--max-time <seconds>        设置最大传输时间
    --max-redirs <num>              设置最大读取的目录数
    --max-filesize <bytes>          设置最大下载的文件总量
    -M/--manual                    显示全手动
    -n/--netrc                      从netrc文件中读取用户名和密码
    --netrc-optional                使用 .netrc 或者 URL来覆盖-n
    --ntlm                          使用 HTTP NTLM 身份验证
    -N/--no-buffer                  禁用缓冲输出
    -p/--proxytunnel                使用HTTP代理
    --proxy-anyauth                选择任一代理身份验证方法
    --proxy-basic                  在代理上使用基本身份验证
    --proxy-digest                  在代理上使用数字身份验证
    --proxy-ntlm                    在代理上使用ntlm身份验证
    -P/--ftp-port <address>        使用端口地址,而不是使用PASV
    -Q/--quote <cmd>                文件传输前,发送命令到服务器
    --range-file                    读取(SSL)的随机文件
    -R/--remote-time                在本地生成文件时,保留远程文件时间
    --retry <num>                  传输出现问题时,重试的次数
    --retry-delay <seconds>        传输出现问题时,设置重试间隔时间
    --retry-max-time <seconds>      传输出现问题时,设置最大重试时间
    -S/--show-error                显示错误
    --socks4 <host[:port]>          用socks4代理给定主机和端口
    --socks5 <host[:port]>          用socks5代理给定主机和端口
    -t/--telnet-option <OPT=val>    Telnet选项设置
    --trace <file>                  对指定文件进行debug
    --trace-ascii <file>            Like --跟踪但没有hex输出
    --trace-time                    跟踪/详细输出时,添加时间戳
    --url <URL>                    Spet URL to work with
    -U/--proxy-user <user[:password]>  设置代理用户名和密码
    -V/--version                    显示版本信息
    -X/--request <command>          指定什么命令
    -y/--speed-time                放弃限速所要的时间。默认为30
    -Y/--speed-limit                停止传输速度的限制,速度时间'秒
    -z/--time-cond                  传送时间设置
    -0/--http1.0                    使用HTTP 1.0
    -1/--tlsv1                      使用TLSv1(SSL)
    -2/--sslv2                      使用SSLv2的(SSL)
    -3/--sslv3                      使用的SSLv3(SSL)
    --3p-quote                      like -Q for the source URL for 3rd party transfer
    --3p-url                        使用url,进行第三方传送
    --3p-user                      使用用户名和密码,进行第三方传送
    -4/--ipv4                      使用IP4
    -6/--ipv6                      使用IP6

    转自:http://www.linuxdiyf.com/linux/2800.html

     

     

     

    展开全文
  • linux系列之常用运维命令整理笔录

    万次阅读 多人点赞 2019-10-28 17:33:21
    本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些...

    系列博客专栏:

    本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新,本博客命令基于Centos系统

    在这里插入图片描述

    一、系统监控

    1、free命令使用

    • free命令简介
      free 命令能够显示系统中物理上的空闲和已用内存,还有交换内存,同时,也能显示被内核使用的缓冲和缓存

    • free命令语法

    语法:free [param]
    

    param可以为:

    • -b:以Byte为单位显示内存使用情况;

    • -k:以KB为单位显示内存使用情况;

    • -m:以MB为单位显示内存使用情况;

    • -o:不显示缓冲区调节列;

    • -s<间隔秒数>:持续观察内存使用状况;

    • -t:显示内存总和列;

    • -V:显示版本信息。

    • free命令使用
      在这里插入图片描述
      Mem:表示物理内存统计

    • total:表示物理内存总数(total=used+free)

    • used:表示系统分配给缓存使用的数量(这里的缓存包括buffer和cache)

    • free:表示未分配的物理内存总数

    • shared:表示共享内存

    • buffers:系统分配但未被使用的buffers 数量。

    • cached:系统分配但未被使用的cache 数量。

    -/+ buffers/cache:表示物理内存的缓存统计

    • (-buffers/cache) 内存数: (指的第一部分Mem行中的used – buffers – cached)
    • (+buffers/cache) 内存数: (指的第一部分Mem行中的free + buffers + cached)

    (-buffers/cache)表示真正使用的内存数, (+buffers/cache) 表示真正未使用的内存数

    Swap:表示硬盘上交换分区的使用情况

    2、ulimit命令使用

    ulimit用于显示系统资源限制的信息
    语法:ulimit [param]
    param参数可以为:

    • -a  显示目前资源限制的设定。
    • -c <core文件上限>  设定core文件的最大值,单位为区块。
    • -d <数据节区大小>  程序数据节区的最大值,单位为KB。
    • -f <文件大小>  shell所能建立的最大文件,单位为区块。
    • -H  设定资源的硬性限制,也就是管理员所设下的限制。
    • -m <内存大小>  指定可使用内存的上限,单位为KB。
    • -n <文件数目>  指定同一时间最多可开启的文件数。
    • -p <缓冲区大小>  指定管道缓冲区的大小,单位512字节。
    • -s <堆叠大小>  指定堆叠的上限,单位为KB。
    • -S  设定资源的弹性限制。
    • -t <CPU时间>  指定CPU使用时间的上限,单位为秒。
    • -u <程序数目>  用户最多可开启的程序数目。
    • -v <虚拟内存大小>  指定可使用的虚拟内存上限,单位为KB

    在这里插入图片描述

    3、top命令使用

    top命令可以实时动态地查看系统的整体运行情况,是一个综合了多方信息监测系统性能和运行信息的实用工具,TOP命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,有点像window系统的任务管理器

    语法:top [param]
    

    param为:

    • -b:以批处理模式操作;
    • -c:显示完整的治命令;
    • -d:屏幕刷新间隔时间;
    • -I:忽略失效过程;
    • -s:保密模式;
    • -S:累积模式;
    • -u [用户名]:指定用户名;
    • -p [进程号]:指定进程;
    • -n [次数]:循环显示的次数。

    top命令分为上下两个部分:

    • 系统统计信息
    • 系统进程信息
      在这里插入图片描述
      系统统计信息
    top - 11:38:01 up 231 days,  2:06,  1 user,  load average: 0.88, 0.22, 0.18
    Tasks: 170 total,   1 running, 169 sleeping,   0 stopped,   0 zombie
    %Cpu(s): 38.7 us,  3.5 sy,  0.0 ni, 42.0 id, 15.5 wa,  0.0 hi,  0.3 si,  0.0 st
    KiB Mem :  8010580 total,   927820 free,  2411572 used,  4671188 buff/cache
    KiB Swap:  4063228 total,  2933688 free,  1129540 used.  5153128 avail Mem 
    
    • row1:任务队列信息,同 uptime 命令的执行结果
      top - 11:38:01 up 231 days, 2:06, 1 user, load average: 0.88, 0.22, 0.18

      • 11:38:01 (当前系统时间)
      • up 231 days, 2:06(系统运行时间)
      • 1 user (当前登录用户数)
      • load average: 0.88, 0.22, 0.18 (系统的平均负载数,表示 1分钟、5分钟、15分钟到现在的平均数)
    • row2:进程统计信息
      Tasks: 170 total, 1 running, 169 sleeping, 0 stopped, 0 zombie

      • 170 total(系统当前总进程总数)
      • 1 running (正在运行的进程数)
      • 169 sleeping(睡眠进程数)
      • 0 stopped (停止进程数)
      • 0 zombie (僵尸进程数)
    • row3:CPU 统计信息
      %Cpu(s): 38.7 us, 3.5 sy, 0.0 ni, 42.0 id, 15.5 wa, 0.0 hi, 0.3 si, 0.0 st

      • 38.7 us, (用户空间CPU占用率)
      • 3.5 sy (内核空间CPU占用率)
      • 0.0 ni (用户进程空间改变过优先级的进程CPU的占用率)
      • 42.0 id(空闲CPU占有率)
      • 15.5 wa (等待输入输出的CPU时间百分比)
      • 0.0%hi (硬件中断请求)
      • 0.3%si (软件中断请求)
      • 0.0%st (分配给运行在其它虚拟机上的任务的实际 CPU时间)
    • row4:内存状态
      KiB Mem : 8010580 4671188 , 927820 free, 2411572 used, 4671188 buff/cache

      • 4671188 total (物理内存总量 )
      • 2411572 used (已使用的内存 )
      • 927820 free (空闲内存 )
      • 4671188 buffers (内核缓存使用)
        ps:以k为单位
    • row5:swap交换分区信息
      KiB Swap: 4063228 total, 2933688 free, 1129540 used. 5153128 avail Mem

      • 4063228 total (交换分区总量 )
      • 1129540 used (已使用交换分区内存 )
      • 2933688 free (空闲交换分区 )
      • 5153128 cached (缓冲交换区 )

    在这里插入图片描述

    系统进程信息

    • PID :进程id
    • USER :进程所有者的用户名
    • PR :进程优先级
    • NI :nice值。负值表示高优先级,正值表示低优先级
    • VIRT :进程使用的虚拟内存总量,单位kb。VIRT=SWAP+RES
    • RES :进程使用的、未被换出的物理内存大小,单位kb。RES=CODE+DATA
    • SHR :共享内存大小,单位kb
    • S :进程状态。D=不可中断的睡眠状态 R=运行 S=睡眠 T=跟踪/停止 Z=僵尸进程
    • %CPU :上次更新到现在的CPU时间占用百分比
    • %MEM :进程使用的物理内存百分比
    • TIME+ :进程使用的CPU时间总计,单位1/100秒
    • COMMAND :进程名称[命令名/命令行]

    在这里插入图片描述

    按“1”键,可打开或关闭显示详细CPU统计信息:
    在这里插入图片描述
    按字母“B”键,可打开或关闭当前进程的显示效果
    在这里插入图片描述

    4、df命令使用

    df命令用于显示磁盘分区上的可使用的磁盘空间。默认显示单位为KB。可以利用该命令来获取硬盘被占用了多少空间,目前还剩下多少空间等信息。

    语法:df(选项)(参数)

    选项:

    -a或–all:包含全部的文件系统;
    –block-size=<区块大小>:以指定的区块大小来显示区块数目;
    -h或–human-readable:以可读性较高的方式来显示信息;
    -H或–si:与-h参数相同,但在计算时是以1000 Bytes为换算单位而非1024 Bytes;
    -i或–inodes:显示inode的信息;
    -k或–kilobytes:指定区块大小为1024字节;
    -l或–local:仅显示本地端的文件系统;
    -m或–megabytes:指定区块大小为1048576字节;
    –no-sync:在取得磁盘使用信息前,不要执行sync指令,此为预设值;
    -P或–portability:使用POSIX的输出格式;
    –sync:在取得磁盘使用信息前,先执行sync指令;
    -t<文件系统类型>或–type=<文件系统类型>:仅显示指定文件系统类型的磁盘信息;
    -T或–print-type:显示文件系统的类型;
    -x<文件系统类型>或–exclude-type=<文件系统类型>:不要显示指定文件系统类型的磁盘信息;
    –help:显示帮助;
    –version:显示版本信息。

    参数:

    文件:指定文件系统上的文件。

    比较常用的有:

    • df -a 查看全部的文件系统
    • df -h查看磁盘使用情况
    • df -i 查看inode使用情况

    在这里插入图片描述

    5、ps命令使用

    ps命令用于查看进程统计信息

    常用参数:

    • a:显示当前终端下的所有进程信息,包括其他用户的进程。
    • u:使用以用户为主的格式输出进程信息。
    • x:显示当前用户在所有终端下的进程。
    • -e:显示系统内的所有进程信息。
    • -l:使用长(long)格式显示进程信息。
    • -f:使用完整的(full)格式显示进程信息。

    在使用中可以加上grep命令一起使用,也可以单独使用

    # ps命令单独使用的情况
    ps -elf tomcat
    #结合管道操作和grep命令进行过滤,用于查询某一个进程的信息
    ps -elf | grep tomcat
    

    6、crontab 命令

    crontab 命令,用于定时程序的命令
    -e : 执行文字编辑器来设定时程表,内定的文字编辑器是 VI,如果你想用别的文字编辑器,则请先设定 VISUAL 环境变数来指定使用那个文字编辑器(比如说 setenv VISUAL joe)
    -r : 删除目前的时程表
    -l : 列出目前的时程表

    二、文件操作

    1、tail查看文件

    tail 命令可用于查看文件的内容,语法为

    tail [param] [filename]
    

    其中param可为:

    • -f :循环读取
    • -q :不显示处理信息
    • -v :显示详细的处理信息
    • -c [数目]: 显示的字节数
    • -n [行数]: 显示文件的尾部 n 行内容
    • –pid=PID :与-f合用,表示在进程ID,PID死掉之后结束
    • -q, --quiet, --silent :从不输出给出文件名的首部
    • -s, --sleep-interval=S :与-f合用,表示在每次反复的间隔休眠S秒

    2、查看文件情况

    ll -ah命令,可以用于查看文件情况

    ll -ah
    

    3、文件权限设置

    Linux的文件基本权限有9个,分别是owenr、group、others三种身份各自有自己的r、w和x,比如“rwxrwxrwx”,就表示owener具有r(read 读)、w(write 写)、x(execute 访问)权限,同样group和others同样具有r、w、x权限,可以用xftp查看文件权限

    在这里插入图片描述

    可以使用数字表示权限:

    r->4

    w->2

    x->1

    当文件权限为“rwxrwxrwx”时,分数是:

    owner->4+2+1=7

    group->4+2+1=7

    others->4+2+1=7

    此时文件的权限数字就是777

    然后要给文件file赋权的话,就可以使用Linux命令:

    chmod 777 file
    

    owner、group和others三种身份各自的三个权限,用u、g、o代表三种身份,用a(all)代表所有身份,所以还有下面的Linux命令

    chmod u|g|o|a  =(设置权限)|+(添加权限)|-(减少权限)  r|w|x  文件或者目录
    

    eg:给文件file赋值权限

        chmod u=rwx file
    

    4、文件上传下载

    在不使用xftp等linux工具的情况,可以通过linux命令,sz命令是利用ZModem协议来从Linux服务器传送文件到本地,一次可以传送一个或多个文件。

    • 下载文件
      sz命令发送文件到本地:
    sz filename
    

    在这里插入图片描述
    敲命令之后,直接弹出下载保存窗口页面

    • 上传文件
    rz
    

    敲命令之后,直接弹出上传窗口页面
    在这里插入图片描述

    rz、sz命令需要有如下条件:

    • linux系统
    • root权限
    • lrzsz安装包

    lrzsz安装步骤:

    // 编译安装
    //root 账号登陆后,依次执行以下命令:
    tar zxvf lrzsz-0.12.20.tar.gz
    cd lrzsz-0.12.20
    ./configure
    make
    make install
    //上面安装过程默认把lsz和lrz安装到了/usr/local/bin/目录下,现在我们并不能直接使用,下面创建软链接,并命名为rz/sz:
    cd /usr/bin
    ln -s /usr/local/bin/lrz rz
    ln -s /usr/local/bin/lsz sz
    

    Centos可以直接这样安装

    yum install lrzsz -y
    

    5、压缩文件解压

    linux解压zip压缩文件可以用unzip命令,如果没安装,可以先安装

    yum install -y unzip zip
    

    语法一般为:unzip [选项] [压缩文件名]

    • -c 将解压缩的结果显示到屏幕上,并对字符做适当的转换。
    • -f 更新现有的文件。
    • -l 显示压缩文件内所包含的文件。
    • -p 与-c参数类似,会将解压缩的结果显示到屏幕上,但不会执行任何的转换。
    • -t 检查压缩文件是否正确。
    • -u 与-f参数类似,但是除了更新现有的文件外,也会将压缩文件中的其他文件解压缩到目录中。
    • -v 执行是时显示详细的信息。
    • -z 仅显示压缩文件的备注文字。
    • -a 对文本文件进行必要的字符转换。
    • -b 不要对文本文件进行字符转换。
    • -C 压缩文件中的文件名称区分大小写。
    • -j 不处理压缩文件中原有的目录路径。
    • -L 将压缩文件中的全部文件名改为小写。
    • -M 将输出结果送到more程序处理。
    • -n 解压缩时不要覆盖原有的文件。
    • -o 不必先询问用户,unzip执行后覆盖原有文件。
    • -P<密码> 使用zip的密码选项。
    • -q 执行时不显示任何信息。
    • -s 将文件名中的空白字符转换为底线字符。
    • -V 保留VMS的文件版本信息。
    • -X 解压缩时同时回存文件原来的UID/GID。
    • [.zip文件] 指定.zip压缩文件。
    • [文件] 指定要处理.zip压缩文件中的哪些文件。
    • -d<目录> 指定文件解压缩后所要存储的目录。
    • -x<文件> 指定不要处理.zip压缩文件中的哪些文件。
    • -Z unzip -Z等于执行zipinfo指令。

    6、查看文件夹大小

    du [选项][文件]
    

    -a或-all 显示目录中个别文件的大小。
    -b或-bytes 显示目录或文件大小时,以byte为单位。
    -c或–total 除了显示个别目录或文件的大小外,同时也显示所有目录或文件的总和。
    -k或–kilobytes 以KB(1024bytes)为单位输出。
    -m或–megabytes 以MB为单位输出。
    -s或–summarize 仅显示总计,只列出最后加总的值。
    -h或–human-readable 以K,M,G为单位,提高信息的可读性。
    -x或–one-file-xystem 以一开始处理时的文件系统为准,若遇上其它不同的文件系统目录则略过。
    -L<符号链接>或–dereference<符号链接> 显示选项中所指定符号链接的源文件大小。
    -S或–separate-dirs 显示个别目录的大小时,并不含其子目录的大小。
    -X<文件>或–exclude-from=<文件> 在<文件>指定目录或文件。
    –exclude=<目录或文件> 略过指定的目录或文件。
    -D或–dereference-args 显示指定符号链接的源文件大小。
    -H或–si 与-h参数相同,但是K,M,G是以1000为换算单位。
    -l或–count-links 重复计算硬件链接的文件。

    常用命令:

    du -sh /opt
    

    7、文件数据排序

    sort命令可以用于文件数据排序,然后将排序结果打印出来。

    语法:

    sort [选项] [文件]
    

    常用选项:

    选项含义
    -b忽略每行前面开始出的空格字符
    -c检查文件是否已经按照顺序排序
    -d排序时,处理英文字母、数字及空格字符外,忽略其他的字符
    -f排序时,将小写字母视为大写字母
    -i排序时,除了040至176之间的ASCII字符外,忽略其他的字符
    -m将几个排序号的文件进行合并
    -M将前面3个字母依照月份的缩写进行排序
    -n依照数值的大小排序
    -o<输出文件> 将排序后的结果存入制定的文件
    -r以相反的顺序来排序
    -t<分隔字符> 指定排序时所用的栏位分隔字符
    -k指定需要排序的栏位

    8、去除文件重复行

    使用uniq这个命令只能去除连续的的重复行。所以需要结合sort命令使用,先sort排序,然后uniq去除重复的

    语法:

    uniq [选项] [文件]
    
    选项含义
    -c打印每行在文本中重复出现的次数
    -d只显示有重复的纪录,每个重复纪录只出现一次
    -u只显示没有重复的纪录

    三、网络通信

    1、netstat监控命令

    netstat命令是用于监控进出网络的包和网络接口统计的命令行工具

    语法:netstat [param]
    

    param参数可以为:

    • -h : 查看帮助
    • -r : 显示路由表
    • -i : 查看网络接口

    2、linux重启网络

    设置了linux网络,需要重启网络,可以用命令:

    service network restart 
    

    3、SELinux简介

    SELinux全称是 Security-Enhanced Linux,它是由美国国家安全局(NSA)贡献的,它为 Linux 内核子系统引入了一个健壮的强制控制访问Mandatory Access Control架构。详情可以参考SELinux 入门SELINUX工作原理

    其实SELinux的功能也就是类似于防火墙的功能,不过安全相对比较好,ok,所以本博客介绍一下SELinux的使用命令

    查看selinux状态

    getenforce
    

    临时禁用SELINUX(学习用的linux才可以禁用,生产的不建议禁用SELINUX)

    setenforce
    

    永久禁用SELINUX(学习用的linux才可以禁用,生产的不建议禁用SELINUX)

     # 将SELINUX=enforce改成SELINUX=disabled
     vi /etc/selinux/config
    

    4、防火墙设置

    查询linux系统防火墙开启状态

    firewall-cmd --state
    

    临时关闭防火墙(学习用的linux才可以禁用,生产的不建议禁用SELINUX)

    systemctl stop firewalld.service
    

    永久关闭防火墙(学习用的linux才可以禁用,生产的不建议禁用SELINUX)

    systemctl disable firewalld.service
    

    5、CURL命令使用

    curl命令是一个利用URL规则在shell终端命令行下工作的文件传输工具;curl命令作为一款强力工具,curl支持包括HTTP、HTTPS、ftp等众多协议,还支持POST、cookies、认证、从指定偏移处下载部分文件、用户代理字符串、限速、文件大小、进度条等特征;
    在这里插入图片描述
    语法:语法格式:curl [参数] [网址]

    5.1 查看curl帮助

    • 查看命令参数
      curl的参数很多,可以用命令curl --help查看:
    [root@localhost ~]# curl --help
    

    国内翻译过来的curl文档:curl参数介绍

    5.2 查看curl手册

    • 查看详细使用
      也可以使用curl --manual查看基本用法例子:
      在这里插入图片描述

    5.3 提取指定网页

    • 查看网页源码
      语法:curl uri
    [root@localhost ~]# curl www.baidu.com
    <!DOCTYPE html>
    <!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=http://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');</script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必读</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>
    
    
    • 显示头信息
    curl -i https://www.baidu.com
    

    打印信息:

    [root@localhost ~]# curl -i https://www.baiud.com
    curl: (7) Failed connect to www.baiud.com:443; Connection refused
    [root@localhost ~]# curl -i https://www.baidu.com
    HTTP/1.1 200 OK
    Accept-Ranges: bytes
    Cache-Control: private, no-cache, no-store, proxy-revalidate, no-transform
    Connection: keep-alive
    Content-Length: 2443
    Content-Type: text/html
    Date: Mon, 13 Jul 2020 07:22:02 GMT
    Etag: "588603eb-98b"
    Last-Modified: Mon, 23 Jan 2017 13:23:55 GMT
    Pragma: no-cache
    Server: bfe/1.0.8.18
    Set-Cookie: BDORZ=27315; max-age=86400; domain=.baidu.com; path=/
    ...	
    
    • 显示通信过程
    curl -v www.baidu.com
    
    curl -v www.baidu.com
    * About to connect() to www.baidu.com port 80 (#0)
    *   Trying 182.61.200.7...
    * Connected to www.baidu.com (182.61.200.7) port 80 (#0)
    > GET / HTTP/1.1
    > User-Agent: curl/7.29.0
    > Host: www.baidu.com
    > Accept: */*
    > 
    < HTTP/1.1 200 OK
    < Accept-Ranges: bytes
    < Cache-Control: private, no-cache, no-store, proxy-revalidate, no-transform
    < Connection: keep-alive
    < Content-Length: 2381
    < Content-Type: text/html
    < Date: Mon, 13 Jul 2020 07:24:46 GMT
    < Etag: "588604c8-94d"
    < Last-Modified: Mon, 23 Jan 2017 13:27:36 GMT
    < Pragma: no-cache
    < Server: bfe/1.0.8.18
    < Set-Cookie: BDORZ=27315; max-age=86400; domain=.baidu.com; path=/
    < 
    <!DOCTYPE html>
    ...
    
    • 查看议定书
    [root@localhost ~]# curl --trace-ascii output.txt https://www.baidu.com
    
    

    在这里插入图片描述

    在这里插入图片描述

    • 查看时间
    curl --trace-ascii output.txt --trace-time https://www.baidu.com
    

    在这里插入图片描述

    5.4 用curl进行认证

    • referer设置
      referer参数描述了一个网页的来源,可以按F12调试模式,查看:
      在这里插入图片描述
      访问百度时候,加上referer为csdn:
    [root@localhost ~]# curl --referer https://blog.csdn.net https://www.baidu.com
    
    • 用户代理设置
      用户代理常被用于兼容ie,有时,您会看到获取带有curl的页面不会返回与使用浏览器获取页面时看到的页面相同的页面,这时候可以设置用户代理:
    curl www.baidu.com --user-agent "Mozilla/5.0"
    curl www.baidu.com -A "Mozilla/5.0"
    

    5.5 curl文件操作

    • 保存文件
      语法:curl -o filename uri
    [root@localhost ~]# curl -o baidu.html www.baidu.com
      % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                     Dload  Upload   Total   Spent    Left  Speed
    100  2381  100  2381    0     0  22761      0 --:--:-- --:--:-- --:--:-- 22894
    
    

    在这里插入图片描述

    • 文件下载
      语法:curl uri filename --silent|progress
      • –silent:不显示进度条
      • –progress:显示进度条
    [root@localhost ~]# curl https://avatar.csdnimg.cn/3/5/E/1_meituantech_1564971608.jpg -omeituan.jpg --progress
    ######################################################################## 100.0%
    
    

    在这里插入图片描述

    • 上传文件
      语法:$ curl --form upload=@localfilename --form press=OK [URL]
    [root@localhost ~]# curl --form upload=@baidu.html --form press=OK url
    
    

    5.6 设置cookie

    设置cookie,可以用命令--cookie

    -c cookie-file可以保存服务器返回的cookie到文件,-b cookie-file可以使用这个文件作为cookie信息,进行后续的请求。

    $ curl -c cookies http://example.com
    $ curl -b cookies http://example.com
    
    [root@localhost ~]# curl -c "name=cookiename" www.baidu.com
    
    

    在这里插入图片描述

    也可以用–cookie-jar指定cookie文件

    [root@localhost ~]# curl www.baidu.com --cookie-jar cookie_file
    
    

    在这里插入图片描述
    指定可下载的最大文件大小,可以用命令–limit-rate

    [root@localhost ~]# curl www.baidu.com --limit-rate 50k
    
    

    5.7 RESTFul API

    ps:-H指定请求header,-d指定参数

    • CURL POST:
    [root@localhost ~]# curl -H "Content-Type:application/json" -X POST localhost:9200/company/employees/1 -d '{"id" :1,"name":"admin","password":"123"}'
    
    
    • CURL GET:
    [root@localhost ~]# curl -X GET localhost:9200/company/employees/1?pretty=true
    
    • CURL DELETE:
    [root@localhost ~]# curl -X DELETE localhost:9200/company/employees/1
    
    • CURL PUT:
    curl -H "Content-Type:application/json" -X PUT localhost:9200/company/employees/1 -d '{"id" :1,"name":"admin","password":"111"}'
    

    curl默认是GET方式请求url的,要调POST等接口,必须加上-X参数指定

    比较详细的可以参考:

    四、系统管理

    1、查看内核版本

    uname命令用于查看内核版本
    在这里插入图片描述

    2、查看linux系统ip

    查看linux的ip地址:可以用命令

     ip addr
    

    3、查看ip是否被占用

    lsof -i:8080
    

    4、uptime命令使用

    uptime命令能够打印系统总共运行了多长时间和系统的平均负载。uptime命令可以显示的信息显示依次为:现在时间、系统已经运行了多长时间、目前有多少登陆用户、系统在过去的1分钟、5分钟和15分钟内的平均负载。

    用help参数参数

    [shared@localhost~]$ uptime --help
    
    Usage:
     uptime [options]
    
    Options:
     -p, --pretty   show uptime in pretty format 
     -h, --help     display this help and exit 
     -s, --since    system up since 
     -V, --version  output version information and exit
    
    For more details see uptime(1).
    [shared@localhost~]$ uptime -V
    uptime from procps-ng 3.3.10
    
    

    Options:

    • -p, --pretty show uptime in pretty format //比较美观的打印
    • -h, --help display this help and exit // 查看参数帮助
    • -s, --since system up since // 查看系统当前时间
    • -V, --version output version information and exit // 查看版本

    在这里插入图片描述

    5、telnet命令使用

    不管在window还是linux系统要校验某台服务器是否可以ping通,都可以使用命令,如果要加上断口的,linux可以使用telnet命令
    语法:telnet ip port

    telnet 127.0.0.1 8080
    

    6、查看系统当前登录用户

    可以使用w命令:

    [root@localhost ~]# w 
    

    下面列举主要的

    选项含义
    -h不显示输出信息的标题
    -l用长格式输出
    -s用短格式输出,不显示登陆时间,JCPU 和 PCPU 时间
    -V显示版本信息

    只显示某个用户的信息

    [root@localhost ~]# w [选项] [用户名]
    

    ps:切换用户可以使用命令su root进行系统用户切换

    附录:

    微信打赏
    在这里插入图片描述
    技术博客公众号
    在这里插入图片描述
    QQ群:1129337987

    展开全文
  • Linuxlinux常用基本命令

    万次阅读 多人点赞 2013-03-22 13:54:04
    Linux中许多常用命令是必须掌握的,这里将我学linux入门时学的一些常用的基本命令分享给大家一下,希望可以帮助你们。

    Linux中许多常用命令是必须掌握的,这里将我学linux入门时学的一些常用的基本命令分享给大家一下,希望可以帮助你们。


    这个是我将鸟哥书上的进行了一下整理的,希望不要涉及到版权问题。


    1、显示日期的指令: date




    2、显示日历的指令:cal



    3、简单好用的计算器:bc



    怎么10/100会变成0呢?这是因为bc预设仅输出整数,如果要输出小数点下位数,那么就必须要执行 scale=number ,那个number就是小数点位数,例如:



    4、重要的几个热键[Tab],[ctrl]-c, [ctrl]-d 


    [Tab]按键---具有『命令补全』不『档案补齐』的功能


    [Ctrl]-c按键---让当前的程序『停掉』


    [Ctrl]-d按键---通常代表着:『键盘输入结束(End Of File, EOF 戒 End OfInput)』的意思;另外,他也可以用来取代exit


    5、man

    退出用q,

    man -f man



    6、数据同步写入磁盘: sync


    输入sync,那举在内存中尚未被更新的数据,就会被写入硬盘中;所以,这个挃令在系统关机戒重新启劢乀前, 径重要喔!最好多执行几次!



    7、惯用的关机指令:shutdown



    此外,需要注意的是,时间参数请务必加入指令中,否则shutdown会自动跳到 run-level 1 (就是单人维护的登入情况),这样就伤脑筋了!底下提供几个时间参数的例子吧:



    重启,关机: reboot, halt,poweroff



    8、切换执行等级: init


    Linux共有七种执行等级:


    --run level 0 :关机


    --run level 3 :纯文本模式


    --run level 5 :含有图形接口模式


    --run level 6 :重新启动


     

    使用init这个指令来切换各模式:


    如果你想要关机的话,除了上述的shutdown -h now以及poweroff之外,你也可以使用如下的指令来关机:  



    9、改变文件的所属群组:chgrp



    10、改变文件拥有者:chown


    他还可以顸便直接修改群组的名称



    11、改变文件的权限:chmod


    权限的设定方法有两种, 分别可以使用数字或者是符号来进行权限的变更。


    --数字类型改变档案权限:



     

    --符号类型改变档案权限:



    12、查看版本信息等



    13、变换目录:cd



    14、显示当前所在目录:pwd



    15、建立新目录:mkdir


     

    不建议常用-p这个选项,因为担心如果你打错字,那么目录名称就回变得乱七八糟的

     

    16、删除『空』的目录:rmdir



    17、档案与目录的显示:ls



    18、复制档案或目录:cp



    19、移除档案或目录:rm



    20、移动档案与目录,或更名:mv



    21、取得路径的文件名与目录名:basename,dirname



    22、由第一行开始显示档案内容:cat



    23、从最后一行开始显示:tac(可以看出 tac 是 cat 的倒着写)



    24、显示的时候,顺道输出行号:nl



    25、一页一页的显示档案内容:more



    26、与 more 类似,但是比 more 更好的是,他可以往前翻页:less



    27、只看头几行:head



    28、只看尾几行:tail



    29、以二进制的放置读取档案内容:od



    30、修改档案时间或新建档案:touch



    31、档案预设权限:umask



    32、配置文件档案隐藏属性:chattr



    33、显示档案隐藏属性:lsattr



    34、观察文件类型:file



    35、寻找【执行挡】:which



    36、寻找特定档案:whereis



    37、寻找特定档案:locate



    38、寻找特定档案:find



    39、压缩文件和读取压缩文件:gzip,zcat



    40、压缩文件和读取压缩文件:bzip2,bzcat



    41、压缩文件和读取压缩文件:tar



     

     

    好了,累死了,终于搞完了,希望能对的大家有所帮助。

     

     您的支持是对作者最大的鼓励!



     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     



     


    展开全文
  • Linux基础命令

    万次阅读 多人点赞 2018-02-26 17:36:16
    help查看 Linux 内置命令的帮助,比如 cd 命令。文件和目录操作命令 (18 个)ls全拼 list,功能是列出目录的内容及其内容属性信息。cd全拼 change directory,功能是从当前工作目录切换到指定的工作目录。cp全拼 copy...
  • linux常用命令全集

    千次下载 热门讨论 2011-11-09 11:46:46
    常用的linux命令集合,下载此资源文档,可以非常方便查询常用的linux命令
  • Linux常用命令

    千次阅读 2017-09-19 15:57:47
    Linux常用命令查看进程ps -ef |grep java 是用标准的格式显示java这个进程,显示的项目有UID , PID , PPID , C , STIME , TTY , TIME , CMD获取用户权限sudo这个SuperUserDo是Linux新手要使用的最重要的命令。...
  • 1.上传本地文件到linux服务器 get 文件名 2.下载linux服务器上文件到本地 mput 文件名
  • linux下载文件到本地命令

    千次阅读 2020-07-30 10:35:23
    linux下载文件到本地的命令
  • Linux系统编程常用命令总结

    万次阅读 多人点赞 2019-08-14 23:08:29
    一、Linux常用命令 1、常用工具 2、目录和文件命令 3、安装和卸载软件命令 4、压缩包管理 5、文件属性、用户用户组及查找与检索命令 6、网络管理命令 7、其他命令 二、Linux vi/vim常用命令 三、Linux下...
  • Linux简单命令

    千次阅读 2018-09-21 19:40:16
    1. Linux查看帮助命令 要想高效完成各种任务,仅仅靠命令本身是不够的,还应该根据实际情况来灵活调整各种命令的参数,此时就要多使用帮助 命令使用方法: 命令 [选项参数] [文件或目录] #以空格分割 命令帮助方法:...
  • linux shuf 命令

    千次阅读 2018-09-21 15:38:09
    今天发现可以使用 linux 命令就能解决,而且效率很高,这个命令就是 shuf。 下载 shuf 命令是 coreutils 包中的命令,所以需要下载,可以使用 yum 或者 brew 工具下载 yum install coreutils or brew install...
  • linux命令下载和安装

    千次阅读 2017-07-26 11:04:39
    本地环境一般会使用rz、sz命令进行linux文件的下载和安装,我们队这2个命令进行下载和安装操作。 有软件安装权限的账户,一般为root 账号登陆,依次执行以下命令: 1、cd /tmp 2、wget ...
  • Linux dpkg 命令

    千次阅读 2017-08-24 10:52:20
    Linux dpkg 命令note:软件测试实习笔记1 dpkg dpkg -i dpkg -r dpkg -P dpkg -l dpkgdpkg 是 linux 系统下用来安装、创建和管理软件包的工具。 其安装的软件包一般是下载到本地的软件包,拓展名是deb。格式 : ...
  • Linux wget命令

    万次阅读 多人点赞 2019-06-14 10:02:17
    wget命令用来从指定的URL下载文件。wget非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性,如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务器打断下载过程,它会...
  • Linux命令 - wget

    千次阅读 2019-08-18 15:15:51
    文章目录Linux命令 - wget1、命令介绍2、语法3、wget选项4、参数5、日常使用1、下载单个文件到当前目录2、下载文件并重命名文件3、后台下载4、同时下载多个链接的文件 Linux命令 - wget 1、命令介绍 wget命令用来从...
  • Linux rpm命令

    千次阅读 2019-06-11 11:54:28
    Linux rpm 命令用于管理套件。 rpm(redhat package manager) 原本是 Red Hat Linux 发行版专门用来管理 Linux 各项套件的程序,由于它遵循 GPL 规则且功能强大方便,因而广受欢迎。逐渐受到其他发行版的采用。RPM ...
  • 照着书敲linux下载安装命令?大汇总来咯!!!

    千次阅读 多人点赞 2020-05-14 12:37:15
    linux下载安装的命令本地上传网络远程下载 你是否想对linux下载命令有一些了解,你是否知道wegt,curl,yum如何使用,如果文件在本地又该如何上传服务器,下载后不同后缀的文件又该如何解压,又该解压到哪里,这...
  • Linux-下载命令总结

    千次阅读 2016-11-09 11:02:28
    Linux下载指令有curl和wget,两者的区别自行百度吧,我是小白,不是太清楚,一般我也用不到,下面逐一介绍一下两者的简单用法。1.curl使用方法:#curl [OPTION] [URL] curl ...
  • Linux解压命令

    万次阅读 2018-08-24 10:29:44
    1.压缩命令:  命令格式:tar -zcvf 压缩文件名.tar.gz 被压缩文件名  可先切换到当前目录下。压缩文件名和被压缩文件名都可加入路径。   2.解压缩命令: ...3.Linux下如何解压tar.bz2文件  在l...
  • linux常用的命令,入门学习linux值得拥有

    万次阅读 多人点赞 2021-07-30 11:11:59
    linux常用的命令文件/目录的基本操作01.ls命令02.pwd命令03.cd命令04.touch命令05.mkdir命令06.rm命令07.cp命令08.mv命令09.cat命令10.man命令11.less命令12.head命令13.tail命令14.date命令搭建部署环境1....
  • ① 文件目录操作类的命令,比如:cd、ls、cp、rm、find、grep、zip、tar、yum、less等。 ② 系统权限操作命令,比如:chmod 、chown 、sudo等。 ③ 操作系统级命令,比如:shutdown、uname 、top、du、df、losf、...
  • linux常用命令和部署项目命令

    千次阅读 多人点赞 2018-03-20 17:01:48
    部署项目的时候经常使用linux命令,下面列出常用的命令1. 基本的命令1. cd 切换命令 2. cp 拷贝 3. mv 移动 4. mkdir 创建文件夹 5. rm 删除 6. rm -rf 强制删除 7. touch 创建文件夹 8. ll 查看文件列表 9. cat ...
  • linux最常用的20个命令

    万次阅读 多人点赞 2018-05-09 09:07:25
    玩过Linux的人都会知道,Linux中的命令的确是非常多,但是玩过Linux的人也从来不会因为Linux命令如此之多而烦恼,因为我们只需要掌握我们最常用的命令就可以了。当然你也可以在使用时去找一下man,他会帮你解决...
  • Linux sftp命令

    万次阅读 2019-06-14 10:15:47
    sftp命令是一款交互式的文件传输程序,命令的运行和使用方式与ftp命令相似,但是,sftp命令对传输的所有信息使用ssh加密,它还支持公钥认证和压缩等功能。 1.1 语法 sftp(选项)(参数) 1.2 选项 选项 描述 ...
  • Linux locate命令

    千次阅读 2019-06-28 08:50:23
    一、locate命令 locate命令和slocate命令都用来查找文件或目录。 ...Linux系统自动创建这个数据库,并且每天自动更新一次,所以使用locate命令查不到最新变动过的文件。为了避免这种情况,可以...
  • Linux 安装命令

    万次阅读 2019-02-27 10:52:54
    常用Linux发行版本1、centos/redhat 2、ubuntu 1、Ubuntu下安装命令 dpkg dpkg命令常用格式如下:sudo dpkg -I iptux.deb#查看iptux.deb软件包的详细信息,包括软件名称、版本以及大小等(其中-I等价于--info)sudo...
  • Linux sftp 命令使用

    万次阅读 2019-05-11 10:49:32
    sftp命令是常用的文件传输工具,通过ssh来上传和下载文件。
  • Linux find命令详解

    千次阅读 2019-05-30 11:05:41
    Linux find命令用来在指定目录下查找文件。任何位于参数之前的字符串都将被视为欲查找的目录名。如果使用该命令时,不设置任何参数,则find命令将在当前目录下查找子目录与文件。并且将查找到的子目录和文件全部进行...
  • linux命令远程下载文件

    千次阅读 2018-01-14 22:00:01
    我们在做开发的时候经常需要用linux,必要时还需要传送文件,传送来传送去,我这里把我的常用方法分享出来,我的系统是ubuntu 16.04,除了一些图形化的工具,我们还可以使用下面的方式 首先安装 sudo apt-get ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 710,668
精华内容 284,267
关键字:

linux下载命令

linux 订阅