-
2021-05-17 20:46:44
偶然看到防火墙的配置操作说明,感觉不错。执行”setup”命令启动文字模式配置实用程序,在”选择一种工具”中选择”防火墙配置”,然后选择”运行工具”按钮,出现防火墙配置界面,将”安全级别”设为”禁用”,然后选择”确定”即可.
或者用命令:
#/sbin/iptables -I INPUT -p tcp –dport 80 -j ACCEPT
#/sbin/iptables -I INPUT -p tcp –dport 22 -j ACCEPT
#/etc/rc.d/init.d/iptables save
这样重启计算机后,防火墙默认已经开放了80和22端口
这里应该也可以不重启计算机:
#/etc/init.d/iptables restart
防火墙的关闭,关闭其服务即可:
查看防火墙信息:
#/etc/init.d/iptables status
关闭防火墙服务:#/etc/init.d/iptables stop
永久关闭?不知道怎么个永久法:
#chkconfig –level 35 iptables off
看了好几个页面内容都有错,下面是正确方法:
#/sbin/iptables -I INPUT -p tcp --dport 80 -j ACCEPT
#/sbin/iptables -I INPUT -p tcp --dport 22 -j ACCEPT
然后保存:
#/etc/rc.d/init.d/iptables save
再查看是否已经有了:
[root@vcentos ~]# /etc/init.d/iptables status
Table: filter
Chain INPUT (policy ACCEPT)
num target prot opt source destination
1 ACCEPT udp -- 0.0.0.0/0 0.0.0.0/0 udp dpt:80
2 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:80
3 RH-Firewall-1-INPUT all -- 0.0.0.0/0 0.0.0.0/0
Chain FORWARD (policy ACCEPT)
num target prot opt source destination
1 RH-Firewall-1-INPUT all -- 0.0.0.0/0 0.0.0.0/0
服务器遭受到大量的大量SYN_RECV,80端号占死,网站打不开
没有硬防
有什么办法可以解决吗
1
sysctl -w net.ipv4.tcp_syncookies=1 #启用使用syncookies
sysctl -w net.ipv4.tcp_synack_retries=1 #降低syn重试次数
sysctl -w net.ipv4.tcp_syn_retries=1 #降低syn重试次数
sysctl -w net.ipv4.tcp_max_syn_backlog=6000 #最大半连接数
sysctl -w net.ipv4.conf.all.send_redirects=0
sysctl -w net.ipv4.conf.all.accept_redirects=0 #不接受重定向的icmp????br />sysctl -w net.ipv4.tcp_fin_timeout=30
sysctl -w net.ipv4.tcp_keepalive_time=60
sysctl -w net.ipv4.tcp_window_scaling=1
sysctl -w net.ipv4.icmp_echo_ignore_all=1 #禁止ICMP
sysctl -w net.ipv4.icmp_echo_ignore_broadcasts=1 #ICMP禁止广播
2.限制单位时间内连接数
如
iptables -N syn-flood
iptables -A FORWARD -p tcp --syn -j syn-flood
iptables -A INPUT -p tcp --syn -j syn-flood
iptables -A syn-flood -p tcp --syn -m limit --limit 3/s --limit-burst 1 -j ACCEP
iptables -A syn-flood -j DROP
iptables -A INPUT -i eth0 -p tcp ! --syn -m state --state NEW -j DROP
iptables -A INPUT -p tcp --syn -m state --state NEW -j DROP
3 如果还是不行,
iptables -A INPUT -p tcp --dport 80 -m recent --name BAD_HTTP_ACCESS --update --seconds 60 --hitcount 30 -j REJECT
iptables -A INPUT -p tcp --dport 80 -m recent --name BAD_HTTP_ACCESS --set -j ACCEP
如攻击过来的流量大于你的服务器的流量,那就没有什么办法了,如果流量不大,以上方法,可以暂时保证你的80可以访问
如果你的内核已经支持iptables connlimit可以使用, iptables 设定部份,也可以使用
iptables -I FORWARD -p tcp --syn -m connlimit --connlimit-above 5 -j DROP
或
iptables -A INPUT -p tcp --syn --dport 80 -m connlimit --connlimit-above 5 -j REJECT
对付SYN FLOOD的话,真正起作用的是:
sysctl -w net.ipv4.tcp_syncookies=1 #启用使用syncookies
sysctl -w net.ipv4.tcp_synack_retries=1 #降低syn重试次数
其他IPTABLES的限制速度功能不能用来对付SYN FLOOD的(不能阻止拒绝服务,但是确实可以防止服务器CRASH)。
更多相关内容 -
Linux中curl命令详解(做定时任务超级有用)!
2019-01-29 16:54:29Linux curl命令详解 命令:curl 在kingle中curl是一个利用URL规则在命令行下工作的文件传输工具,可以说是一款很强大的http命令行工具。它支持文件的上传和下载,是综合传输工具,但按传统,习惯称url为下载工具...Linux curl命令详解
命令:curl
在kingle中curl是一个利用URL规则在命令行下工作的文件传输工具,可以说是一款很强大的http命令行工具。它支持文件的上传和下载,是综合传输工具,但按传统,习惯称url为下载工具。
语法:# curl [option] [url]
常见参数:
-A/--user-agent <string> 设置用户代理发送给服务器 -b/--cookie <name=string/file> cookie字符串或文件读取位置 -c/--cookie-jar <file> 操作结束后把cookie写入到这个文件中 -C/--continue-at <offset> 断点续转 -D/--dump-header <file> 把header信息写入到该文件中 -e/--referer 来源网址 -f/--fail 连接失败时不显示http错误 -o/--output 把输出写到该文件中 -O/--remote-name 把输出写到该文件中,保留远程文件的文件名 -r/--range <range> 检索来自HTTP/1.1或FTP服务器字节范围 -s/--silent 静音模式。不输出任何东西 -T/--upload-file <file> 上传文件 -u/--user <user[:password]> 设置服务器的用户和密码 -w/--write-out [format] 什么输出完成后 -x/--proxy <host[:port]> 在给定的端口上使用HTTP代理 -#/--progress-bar 进度条显示当前的传送状态
例子:
1、基本用法# curl http://www.kingle.com
执行后,www.kingle.com 的html就会显示在屏幕上了
Ps:由于安装kingle的时候很多时候是没有安装桌面的,也意味着没有浏览器,因此这个方法也经常用于测试一台服务器是否可以到达一个网站2、保存访问的网页
2.1:使用kingle的重定向功能保存# curl http://www.kingle.com >> kingle.html
2.2:可以使用curl的内置option:-o(小写)保存网页
$ curl -o kingle.html http://www.kingle.com
执行完成后会显示如下界面,显示100%则表示保存成功
% Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 79684 0 79684 0 0 3437k 0 --:--:-- --:--:-- --:--:-- 7781k
2.3:可以使用curl的内置option:-O(大写)保存网页中的文件
要注意这里后面的url要具体到某个文件,不然抓不下来# curl -O http://www.kingle.com/hello.sh
3、测试网页返回值
# curl -o /dev/null -s -w %{http_code} www.kingle.com
Ps:在脚本中,这是很常见的测试网站是否正常的用法
4、指定proxy服务器以及其端口
很多时候上网需要用到代理服务器(比如是使用代理服务器上网或者因为使用curl别人网站而被别人屏蔽IP地址的时候),幸运的是curl通过使用内置option:-x来支持设置代理# curl -x 192.168.100.100:1080 http://www.kingle.com
5、cookie
有些网站是使用cookie来记录session信息。对于chrome这样的浏览器,可以轻易处理cookie信息,但在curl中只要增加相关参数也是可以很容易的处理cookie
5.1:保存http的response里面的cookie信息。内置option:-c(小写)# curl -c cookiec.txt http://www.kingle.com
执行后cookie信息就被存到了cookiec.txt里面了
5.2:保存http的response里面的header信息。内置option: -D
# curl -D cookied.txt http://www.kingle.com
执行后cookie信息就被存到了cookied.txt里面了
注意:-c(小写)产生的cookie和-D里面的cookie是不一样的。
5.3:使用cookie
很多网站都是通过监视你的cookie信息来判断你是否按规矩访问他们的网站的,因此我们需要使用保存的cookie信息。内置option: -b# curl -b cookiec.txt http://www.kingle.com
6、模仿浏览器
有些网站需要使用特定的浏览器去访问他们,有些还需要使用某些特定的版本。curl内置option:-A可以让我们指定浏览器去访问网站# curl -A "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.0)" http://www.kingle.com
这样服务器端就会认为是使用IE8.0去访问的
7、伪造referer(盗链)
很多服务器会检查http访问的referer从而来控制访问。比如:你是先访问首页,然后再访问首页中的邮箱页面,这里访问邮箱的referer地址就是访问首页成功后的页面地址,如果服务器发现对邮箱页面访问的referer地址不是首页的地址,就断定那是个盗连了
curl中内置option:-e可以让我们设定referer# curl -e "www.kingle.com" http://mail.kingle.com
这样就会让服务器其以为你是从www.kingle.com点击某个链接过来的
8、下载文件
8.1:利用curl下载文件。
#使用内置option:-o(小写)# curl -o dodo1.jpg http:www.kingle.com/dodo1.JPG
#使用内置option:-O(大写)
# curl -O http://www.kingle.com/dodo1.JPG
这样就会以服务器上的名称保存文件到本地
8.2:循环下载
有时候下载图片可以能是前面的部分名称是一样的,就最后的尾椎名不一样# curl -O http://www.kingle.com/dodo[1-5].JPG
这样就会把dodo1,dodo2,dodo3,dodo4,dodo5全部保存下来
8.3:下载重命名
# curl -O http://www.kingle.com/{hello,bb}/dodo[1-5].JPG
由于下载的hello与bb中的文件名都是dodo1,dodo2,dodo3,dodo4,dodo5。因此第二次下载的会把第一次下载的覆盖,这样就需要对文件进行重命名。
# curl -o #1_#2.JPG http://www.kingle.com/{hello,bb}/dodo[1-5].JPG
这样在hello/dodo1.JPG的文件下载下来就会变成hello_dodo1.JPG,其他文件依此类推,从而有效的避免了文件被覆盖
8.4:分块下载
有时候下载的东西会比较大,这个时候我们可以分段下载。使用内置option:-r# curl -r 0-100 -o dodo1_part1.JPG http://www.kingle.com/dodo1.JPG # curl -r 100-200 -o dodo1_part2.JPG http://www.kingle.com/dodo1.JPG # curl -r 200- -o dodo1_part3.JPG http://www.kingle.com/dodo1.JPG # cat dodo1_part* > dodo1.JPG
这样就可以查看dodo1.JPG的内容了
8.5:通过ftp下载文件
curl可以通过ftp下载文件,curl提供两种从ftp中下载的语法# curl -O -u 用户名:密码 ftp://www.kingle.com/dodo1.JPG # curl -O ftp://用户名:密码@www.kingle.com/dodo1.JPG
8.6:显示下载进度条
# curl -# -O http://www.kingle.com/dodo1.JPG
8.7:不会显示下载进度信息
# curl -s -O http://www.kingle.com/dodo1.JPG
9、断点续传
在windows中,我们可以使用迅雷这样的软件进行断点续传。curl可以通过内置option:-C同样可以达到相同的效果
如果在下载dodo1.JPG的过程中突然掉线了,可以使用以下的方式续传# curl -C -O http://www.kingle.com/dodo1.JPG
10、上传文件
curl不仅仅可以下载文件,还可以上传文件。通过内置option:-T来实现# curl -T dodo1.JPG -u 用户名:密码 ftp://www.kingle.com/img/
这样就向ftp服务器上传了文件dodo1.JPG
11、显示抓取错误
# curl -f http://www.kingle.com/error
其他参数(此处翻译为转载):
-a/--append 上传文件时,附加到目标文件 --anyauth 可以使用“任何”身份验证方法 --basic 使用HTTP基本验证 -B/--use-ascii 使用ASCII文本传输 -d/--data <data> HTTP POST方式传送数据 --data-ascii <data> 以ascii的方式post数据 --data-binary <data> 以二进制的方式post数据 --negotiate 使用HTTP身份验证 --digest 使用数字身份验证 --disable-eprt 禁止使用EPRT或LPRT --disable-epsv 禁止使用EPSV --egd-file <file> 为随机数据(SSL)设置EGD socket路径 --tcp-nodelay 使用TCP_NODELAY选项 -E/--cert <cert[:passwd]> 客户端证书文件和密码 (SSL) --cert-type <type> 证书文件类型 (DER/PEM/ENG) (SSL) --key <key> 私钥文件名 (SSL) --key-type <type> 私钥文件类型 (DER/PEM/ENG) (SSL) --pass <pass> 私钥密码 (SSL) --engine <eng> 加密引擎使用 (SSL). "--engine list" for list --cacert <file> CA证书 (SSL) --capath <directory> CA目 (made using c_rehash) to verify peer against (SSL) --ciphers <list> SSL密码 --compressed 要求返回是压缩的形势 (using deflate or gzip) --connect-timeout <seconds> 设置最大请求时间 --create-dirs 建立本地目录的目录层次结构 --crlf 上传是把LF转变成CRLF --ftp-create-dirs 如果远程目录不存在,创建远程目录 --ftp-method [multicwd/nocwd/singlecwd] 控制CWD的使用 --ftp-pasv 使用 PASV/EPSV 代替端口 --ftp-skip-pasv-ip 使用PASV的时候,忽略该IP地址 --ftp-ssl 尝试用 SSL/TLS 来进行ftp数据传输 --ftp-ssl-reqd 要求用 SSL/TLS 来进行ftp数据传输 -F/--form <name=content> 模拟http表单提交数据 -form-string <name=string> 模拟http表单提交数据 -g/--globoff 禁用网址序列和范围使用{}和[] -G/--get 以get的方式来发送数据 -h/--help 帮助 -H/--header <line> 自定义头信息传递给服务器 --ignore-content-length 忽略的HTTP头信息的长度 -i/--include 输出时包括protocol头信息 -I/--head 只显示文档信息 -j/--junk-session-cookies 读取文件时忽略session cookie --interface <interface> 使用指定网络接口/地址 --krb4 <level> 使用指定安全级别的krb4 -k/--insecure 允许不使用证书到SSL站点 -K/--config 指定的配置文件读取 -l/--list-only 列出ftp目录下的文件名称 --limit-rate <rate> 设置传输速度 --local-port<NUM> 强制使用本地端口号 -m/--max-time <seconds> 设置最大传输时间 --max-redirs <num> 设置最大读取的目录数 --max-filesize <bytes> 设置最大下载的文件总量 -M/--manual 显示全手动 -n/--netrc 从netrc文件中读取用户名和密码 --netrc-optional 使用 .netrc 或者 URL来覆盖-n --ntlm 使用 HTTP NTLM 身份验证 -N/--no-buffer 禁用缓冲输出 -p/--proxytunnel 使用HTTP代理 --proxy-anyauth 选择任一代理身份验证方法 --proxy-basic 在代理上使用基本身份验证 --proxy-digest 在代理上使用数字身份验证 --proxy-ntlm 在代理上使用ntlm身份验证 -P/--ftp-port <address> 使用端口地址,而不是使用PASV -Q/--quote <cmd> 文件传输前,发送命令到服务器 --range-file 读取(SSL)的随机文件 -R/--remote-time 在本地生成文件时,保留远程文件时间 --retry <num> 传输出现问题时,重试的次数 --retry-delay <seconds> 传输出现问题时,设置重试间隔时间 --retry-max-time <seconds> 传输出现问题时,设置最大重试时间 -S/--show-error 显示错误 --socks4 <host[:port]> 用socks4代理给定主机和端口 --socks5 <host[:port]> 用socks5代理给定主机和端口 -t/--telnet-option <OPT=val> Telnet选项设置 --trace <file> 对指定文件进行debug --trace-ascii <file> Like --跟踪但没有hex输出 --trace-time 跟踪/详细输出时,添加时间戳 --url <URL> Spet URL to work with -U/--proxy-user <user[:password]> 设置代理用户名和密码 -V/--version 显示版本信息 -X/--request <command> 指定什么命令 -y/--speed-time 放弃限速所要的时间。默认为30 -Y/--speed-limit 停止传输速度的限制,速度时间'秒 -z/--time-cond 传送时间设置 -0/--http1.0 使用HTTP 1.0 -1/--tlsv1 使用TLSv1(SSL) -2/--sslv2 使用SSLv2的(SSL) -3/--sslv3 使用的SSLv3(SSL) --3p-quote like -Q for the source URL for 3rd party transfer --3p-url 使用url,进行第三方传送 --3p-user 使用用户名和密码,进行第三方传送 -4/--ipv4 使用IP4 -6/--ipv6 使用IP6
-
使用Linux命令cURL实现文件定时上传到ftp服务器的程序
2020-08-27 08:16:40有个同学私信问我,想实现某个文件定时上传到服务器要怎么来实现。我突然想到在之前公司为高通的iot模组编写FOTA功能时使用的一个超级强大的工具curl。心血来潮,决定专门写一篇文章,送给需要的朋友。 文章分两部分...前言
前段时间群里讨论,想实现某个文件定时上传到服务器要怎么来实现。我记得之前做过
一个项目:为高通的iot模组编写FOTA功能
:实现模组可以远程下载升级镜像包,实现版本升级功能。并当时使用的一个超级强大的工具cURL。心血来潮,决定专门写一篇文章,送给需要的朋友。文章分两部分
- 首先介绍cURL的用法;
- 实现一个定时上传日志文件的一个简单的程序。
概念
cURL 是常用的命令行工具,用来请求 Web 服务器。它的名字就是客户端(client)的 URL 工具的意思。
cURL 的原作者是 Daniel Stenberg (目前是 cURL 的核心开发者),同时也是 IETF HTTPbis 工作组的资深成员。Daniel 在 1998 年创建了 curl 项目,他编写了最初的 curl 版本,并创建了 libcurl 库。到目前为止,代码仓库包括的 24000 次 commit 有超过一半是 Daniel 本人提交的,他依然是项目的核心开发者。Daniel 表示已将 curl 视为自己的孩子。
作为一款强力工具,支持的协议包括 (DICT, FILE, FTP, FTPS, GOPHER, HTTP, HTTPS, IMAP, IMAPS, LDAP, LDAPS, POP3, POP3S, RTMP, RTSP, SCP, SFTP, SMTP, SMTPS, TELNET and TFTP),还支持POST、cookies、认证、从指定偏移处下载部分文件等功能,具有用户代理字符串、限速、文件大小、进度条、cookie支持、用户认证、断点续传等特征。
一、命令的安装
sudo apt-get install curl
二、cURL命令语法:
curl [options] [URL...]
三、URL格式
URL的格式定义要参考 RFC 1808 。
地址:http://www.w3.org/Addressing/rfc1808.txt 《Relative Uniform Resource Locators 》
URL由三部分组成:资源类型、存放资源的主机域名、资源文件名。
也可认为由4部分组成:协议、主机、端口、路径
URL的一般语法格式为:protocol :// hostname[:port] / path / [;parameters][?query]#fragment
(带方括号[]的为可选项)。
protocol(协议)
指定使用的传输协议,下表列出 protocol 属性的有效方案名称。 最常用的是HTTP协议,它也是WWW中应用最广的协议。
- file 资源是本地计算机上的文件。格式file:///,注意后边应是三个斜杠。
- ftp 通过 FTP访问资源。格式 FTP://
- gopher 通过 Gopher 协议访问该资源。
- http 通过 HTTP 访问该资源。 格式 HTTP://
- https 通过安全的 HTTPS 访问该资源。 格式 HTTPS://
- mailto 资源为电子邮件地址,通过 SMTP 访问。 格式 mailto:
- MMS 通过 支持MMS(流媒体)协议的播放该资源。(代表软件:Windows Media Player)格式 MMS://
- ed2k 通过 支持ed2k(专用下载链接)协议的P2P软件访问该资源。(代表软件:电驴) 格式 ed2k://
- Flashget 通过 支持Flashget:(专用下载链接)协议的P2P软件访问该资源。(代表软件:快车) 格式 Flashget://
- thunder 通过 支持thunder(专用下载链接)协议的P2P软件访问该资源。(代表软件:迅雷) 格式 thunder://
- news 通过 NNTP 访问该资源。
hostname(主机名)
是指存放资源的服务器的域名系统(DNS) 主机名或 IP 地址。有时,在主机名前也可以包含连接到服务器所需的用户名和密码(格式:username:password@hostname)。
port(端口号)
整数,可选,省略时使用方案的默认端口,各种传输协议都有默认的端口号,如http的默认端口为80。如果输入时省略,则使用默认端口号。有时候出于安全或其他考虑,可以在服务器上对端口进行重定义,即采用非标准端口号,此时,URL中就不能省略端口号这一项。
path(路径)
由零或多个“/”符号隔开的字符串,一般用来表示主机上的一个目录或文件地址。
parameters(参数)
这是用于指定特殊参数的可选项。
query(查询)
可选,用于给动态网页(如使用CGI、ISAPI、PHP/JSP/ASP/ASP.NET等技术制作的网页)传递参数,可有多个参数,用“&”符号隔开,每个参数的名和值用“=”符号隔开。
fragment(信息片断)
字符串,用于指定网络资源中的片断。例如一个网页中有多个名词解释,可使用fragment直接定位到某一名词解释。
四、curl命令参数详解:
由于linux curl功能十分强大,所以命令参数十分多,下表只筛选出来部分常用的参数,更多参数请运行“man curl”命令查看。
参数 功能 -a/–append 上传文件时,附加到目标文件 -A/–user-agent 设置用户代理发送给服务器 -anyauth 可以使用“任何”身份验证方法 -b/–cookie <name=string/file> cookie字符串或文件读取位置 –basic 使用HTTP基本验证 -B/–use-ascii 使用ASCII /文本传输 -c/–cookie-jar 操作结束后把cookie写入到这个文件中 -C/–continue-at 断点续转 -d/–data HTTP POST方式传送数据 –data-ascii 以ascii的方式post数据 –data-binary 以二进制的方式post数据 –negotiate 使用HTTP身份验证 –digest 使用数字身份验证 –disable-eprt 禁止使用EPRT或LPRT –disable-epsv 禁止使用EPSV -D/–dump-header 把header信息写入到该文件中 –egd-file 为随机数据(SSL)设置EGD socket路径 –tcp-nodelay 使用TCP_NODELAY选项 -e/–referer 来源网址 -E/–cert <cert[:passwd]> 客户端证书文件和密码 (SSL) –cert-type 证书文件类型 (DER/PEM/ENG) (SSL) –key 私钥文件名 (SSL) –key-type 私钥文件类型 (DER/PEM/ENG) (SSL) –pass 私钥密码 (SSL) –engine 加密引擎使用 (SSL). “–engine list” for list –cacert CA证书 (SSL) –capath CA目录 (made using c_rehash) to verify peer against (SSL) –ciphers SSL密码 –compressed 要求返回是压缩的形势 (using deflate or gzip) –connect-timeout 设置最大请求时间 –create-dirs 建立本地目录的目录层次结构 –crlf 上传是把LF转变成CRLF -f/–fail 连接失败时不显示http错误 –ftp-create-dirs 如果远程目录不存在,创建远程目录 –ftp-method [multicwd/nocwd/singlecwd] 控制CWD的使用 –ftp-pasv 使用 PASV/EPSV 代替端口 –ftp-skip-pasv-ip 使用PASV的时候,忽略该IP地址 –ftp-ssl 尝试用 SSL/TLS 来进行ftp数据传输 –ftp-ssl-reqd 要求用 SSL/TLS 来进行ftp数据传输 -F/–form <name=content> 模拟http表单提交数据 –form-string <name=string> 模拟http表单提交数据 -g/–globoff 禁用网址序列和范围使用{}和[] -G/–get 以get的方式来发送数据 -H/–header 自定义头信息传递给服务器 –ignore-content-length 忽略的HTTP头信息的长度 -i/–include 输出时包括protocol头信息 -I/–head 只显示请求头信息 -j/–junk-session-cookies 读取文件进忽略session cookie –interface 使用指定网络接口/地址 –krb4 使用指定安全级别的krb4 -k/–insecure 允许不使用证书到SSL站点 -K/–config 指定的配置文件读取 -l/–list-only 列出ftp目录下的文件名称 –limit-rate 设置传输速度 –local-port 强制使用本地端口号 -m/–max-time 设置最大传输时间 –max-redirs 设置最大读取的目录数 –max-filesize 设置最大下载的文件总量 -M/–manual 显示全手动 -n/–netrc 从netrc文件中读取用户名和密码 –netrc-optional 使用 .netrc 或者 URL来覆盖-n –ntlm 使用 HTTP NTLM 身份验证 -N/–no-buffer 禁用缓冲输出 -o/–output 把输出写到该文件中 -O/–remote-name 把输出写到该文件中,保留远程文件的文件名 -p/–proxytunnel 使用HTTP代理 –proxy-anyauth 选择任一代理身份验证方法 –proxy-basic 在代理上使用基本身份验证 –proxy-digest 在代理上使用数字身份验证 –proxy-ntlm 在代理上使用ntlm身份验证 -P/–ftp-port 使用端口地址,而不是使用PASV -q 作为第一个参数,关闭 .curlrc -Q/–quote 文件传输前,发送命令到服务器 -r/–range 检索来自HTTP/1.1或FTP服务器字节范围 –range-file 读取(SSL)的随机文件 -R/–remote-time 在本地生成文件时,保留远程文件时间 –retry 传输出现问题时,重试的次数 –retry-delay 传输出现问题时,设置重试间隔时间 –retry-max-time 传输出现问题时,设置最大重试时间 -s/–silent 静默模式。不输出任何东西 -S/–show-error 显示错误 –socks4 <host[:port]> 用socks4代理给定主机和端口 –socks5 <host[:port]> 用socks5代理给定主机和端口 –stderr -t/–telnet-option <OPT=val> Telnet选项设置 –trace 对指定文件进行debug –trace-ascii Like --跟踪但没有hex输出 –trace-time 跟踪/详细输出时,添加时间戳 -T/–upload-file 上传文件 –url Spet URL to work with -u/–user <user[:password]> 设置服务器的用户和密码 -U/–proxy-user <user[:password]> 设置代理用户名和密码 -w/–write-out [format] 什么输出完成后 -x/–proxy <host[:port]> 在给定的端口上使用HTTP代理 -X/–request 指定什么命令 -y/–speed-time 放弃限速所要的时间,默认为30 -Y/–speed-limit 停止传输速度的限制,速度时间 五、Linux curl命令退出码:
下面是linux curl命令的错误代码和她们的相应的错误消息,命令执行错误的时候可以通过错误码来查看出错原因,方便开发调试。
退 出 码 错误描述 1 Unsupported protocol. This build of curl has no support for this protocol. 2 Failed to initialize. 3 URL malformed. The syntax was not correct. 5 Couldn’t resolve proxy. The given proxy host could not be resolved. 6 Couldn’t resolve host. The given remote host was not resolved. 7 Failed to connect to host. 8 FTP weird server reply. The server sent data curl couldn’t parse. 9 FTP access denied. The server denied login or denied access to the particular resource or directory you wanted to reach. Most often you tried to change to a directory that doesn’t exist on the server. 11 FTP weird PASS reply. Curl couldn’t parse the reply sent to the PASS request. 13 FTP weird PASV reply, Curl couldn’t parse the reply sent to the PASV request. 14 FTP weird 227 format. Curl couldn’t parse the 227-line the server sent. 15 FTP can’t get host. Couldn’t resolve the host IP we got in the 227-line. 17 FTP couldn’t set binary. Couldn’t change transfer method to binary. 18 Partial file. Only a part of the file was transferred. 19 FTP couldn’t download/access the given file, the RETR (or similar) command failed. 21 FTP quote error. A quote command returned error from the server. 22 HTTP page not retrieved. The requested url was not found or returned another error with the HTTP error code being 400 or above. This return code only appears if -f/–fail is used. 23 Write error. Curl couldn’t write data to a local filesystem or similar. 25 FTP couldn’t STOR file. The server denied the STOR operation, used for FTP uploading. 26 Read error. Various reading problems. 27 Out of memory. A memory allocation request failed. 28 Operation timeout. The specified time-out period was reached according to the conditions. 30 FTP PORT failed. The PORT command failed. Not all FTP servers support the PORT command, try doing a transfer using PASV instead! 31 FTP couldn’t use REST. The REST command failed. This command is used for resumed FTP transfers. 33 HTTP range error. The range “command” didn’t work. 34 HTTP post error. Internal post-request generation error. 35 SSL connect error. The SSL handshaking failed. 36 FTP bad download resume. Couldn’t continue an earlier aborted download. 37 FILE couldn’t read file. Failed to open the file. Permissions? 38 LDAP cannot bind. LDAP bind operation failed. 39 LDAP search failed. 41 Function not found. A required LDAP function was not found. 42 Aborted by callback. An application told curl to abort the operation. 43 Internal error. A function was called with a bad parameter. 45 Interface error. A specified outgoing interface could not be used. 47 Too many redirects. When following redirects, curl hit the maximum amount. 48 Unknown TELNET option specified. 49 Malformed telnet option. 51 The peer’s SSL certificate or SSH MD5 fingerprint was not ok. 52 The server didn’t reply anything, which here is considered an error. 53 SSL crypto engine not found. 54 Cannot set SSL crypto engine as default. 55 Failed sending network data. 56 Failure in receiving network data. 58 Problem with the local certificate. 59 Couldn’t use specified SSL cipher. 60 Peer certificate cannot be authenticated with known CA certificates. 61 Unrecognized transfer encoding. 62 Invalid LDAP URL. 63 Maximum file size exceeded. 64 Requested FTP SSL level failed. 65 Sending the data requires a rewind that failed. 66 Failed to initialize SSL Engine. 67 The user name, password, or similar was not accepted and curl failed to log in. 68 File not found on TFTP server. 69 Permission problem on TFTP server. 70 Out of disk space on TFTP server. 71 Illegal TFTP operation. 72 Unknown TFTP transfer ID. 73 File already exists (TFTP). 74 No such user (TFTP). 75 Character conversion failed. 76 Character conversion functions required. 77 Problem with reading the SSL CA cert (path? access rights?). 78 The resource referenced in the URL does not exist. 79 An unspecified error occurred during the SSH session. 80 Failed to shut down the SSL connection. 82 Could not load CRL file, missing or wrong format (added in 7.19.0). 83 Issuer check failed (added in 7.19.0). XX More error codes will appear here in future releases. The existing ones are meant to never change. 六、用法演示:
为节省篇幅,部分操作不再贴上执行结果。
1、查看网页源码
直接在curl命令后加上网址,就可以看到网页源码。我们以网址www.sina.com为例(选择该网址,主要因为它的网页代码较短):
root@ubuntu:/home/peng# curl www.sohu.com <html> <head><title>307 Temporary Redirect</title></head> <body bgcolor="white"> <center><h1>307 Temporary Redirect</h1></center> <hr><center>nginx</center> </body> </html>
执行结果显示
307 Temporary Redirect
,说明该网址需要重定向。如果要把这个网页保存下来,可以使用
-o
参数,这就相当于使用wget命令了。curl -o [文件名] www.sohu.com
2、自动跳转
有的网址是自动跳转的。使用
-L
参数,curl就会跳转到新的网址。curl -L www.sohu.com
键入上面的命令,结果就自动跳转为www.sohu.com.cn。
3、显示头信息
-i
参数可以显示http response的头信息,连同网页代码一起。root@ubuntu:/home/peng/driver/test# curl -i www.sohu.com HTTP/1.1 307 Temporary Redirect Content-Type: text/html Content-Length: 180 Connection: keep-alive Server: nginx Date: Tue, 25 Aug 2020 10:10:54 GMT Location: https://www.sohu.com/ FSS-Cache: from 9790436.18244590.10468709 FSS-Proxy: Powered by 2384755.3433341.3062915 <html> <head><title>307 Temporary Redirect</title></head> <body bgcolor="white"> <center><h1>307 Temporary Redirect</h1></center> <hr><center>nginx</center> </body> </html>
-I
参数则是只显示http response的头信息。4、显示通信过程
-v
参数可以显示一次http通信的整个过程,包括端口连接和http request头信息。root@ubuntu:/home/peng/driver/test# curl -v www.sohu.com * About to connect() to www.sohu.com port 80 (#0) * Trying 240e:83:201:3700::5... connected > GET / HTTP/1.1 > User-Agent: curl/7.22.0 (i686-pc-linux-gnu) libcurl/7.22.0 OpenSSL/1.0.1 zlib/1.2.3.4 libidn/1.23 librtmp/2.3 > Host: www.sohu.com > Accept: */* > < HTTP/1.1 307 Temporary Redirect < Content-Type: text/html < Content-Length: 180 < Connection: keep-alive < Server: nginx < Date: Tue, 25 Aug 2020 10:11:49 GMT < Location: https://www.sohu.com/ < FSS-Cache: from 9855973.18375663.10534247 < FSS-Proxy: Powered by 2450292.3564414.3128453 < <html> <head><title>307 Temporary Redirect</title></head> <body bgcolor="white"> <center><h1>307 Temporary Redirect</h1></center> <hr><center>nginx</center> </body> </html> * Connection #0 to host www.sohu.com left intact * Closing connection #0
如果你觉得上面的信息还不够,那么下面的命令可以查看更详细的通信过程。
curl --trace output.txt www.sohu.com
或者
curl --trace-ascii output.txt www.sohu.com
运行后,请打开output.txt文件查看。
5、发送表单信息
发送表单信息有GET和POST两种方法。GET方法相对简单,只要把数据附在网址后面就行。
curl example.com/form.cgi?data=xxx
POST方法必须把数据和网址分开,curl就要用到–data参数。
curl -X POST --data "data=xxx" example.com/form.cgi
如果你的数据没有经过表单编码,还可以让curl为你编码,参数是
--data-urlencode
。curl -X POST--data-urlencode "date=April 1" example.com/form.cgi
6、HTTP动词
curl默认的HTTP动词是GET,使用
-X
参数可以支持其他动词。curl -X POST www.example.com curl -X DELETE www.example.com
7、文件上传
假定文件上传的表单是下面这样:
<form method="POST" enctype='multipart/form-data' action="upload.cgi"> <input type=file name=upload> <input type=submit name=press value="OK"> </form>
你可以用curl这样上传文件:
curl --form upload=@localfilename --form press=OK [URL]
8、Referer字段
有时你需要在http request头信息中,提供一个referer字段,表示你是从哪里跳转过来的。
curl --referer http://www.example.com http://www.example.com
9、User Agent字段
这个字段是用来表示客户端的设备信息。服务器有时会根据这个字段,针对不同设备,返回不同格式的网页,比如手机版和桌面版。
iPhone4的User Agent是
Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_0 like Mac OS X; en-us) AppleWebKit/532.9 (KHTML, like Gecko) Version/4.0.5 Mobile/8A293 Safari/6531.22.7
curl可以这样模拟:
curl --user-agent "[User Agent]" [URL]
10、cookie
使用
--cookie
参数,可以让curl发送cookie。curl --cookie "name=xxx" www.example.com
至于具体的cookie的值,可以从http response头信息的
Set-Cookie
字段中得到。-c cookie-file
可以保存服务器返回的cookie到文件,-b cookie-file
可以使用这个文件作为cookie信息,进行后续的请求。curl -c cookies http://example.com curl -b cookies http://example.com
11、增加头信息
有时需要在http request之中,自行增加一个头信息。
--header
参数就可以起到这个作用。$ curl --header "Content-Type:application/json" http://example.com
12、认证
使用curl选项 -u 可以完成HTTP或者FTP的认证,可以指定密码,也可以不指定密码在后续操作中输入密码:
curl -u user:pwd http://man.linuxde.net curl -u user http://man.linuxde.net
13、FTP
1)、列出ftp服务器上的目录列表
curl ftp://www.xxx.com/ --user name:passwd curl ftp://www.xxx.com/ –u name:passwd #简洁写法 curl ftp://name:passwd@www.xxx.com #简洁写法2
例如:在IP地址192.168.43.117上搭建FTP服务器,并设置用户名为
user
,密码为123456
现在我们要显示服务器上根目录下的所有文件信息,命令如下:curl -u user:123456 ftp://192.168.43.117
执行结果如下:
简洁写法:curl ftp://user:123456@192.168.43.117
执行结果如下:
2)、只列出目录,不显示进度条
curl ftp://www.xxx.com –u name:passwd -s
3)、下载一个文件:
格式
curl ftp://www.xxx.com/size.zip –u name:passwd -o size.zip
示例如下:
从服务器的根目录下下载文件test.c,保存到本地,本地文件名也为test.c。
【注意】如果没有-o选项,程序会吧数据流定向到stdout,即直接把文件内容显示到终端上。curl ftp://user:123456@192.168.43.117/test.c -o test.c
执行结果如下:
简洁模式curl -u user:123456 ftp://192.168.43.117/list.h -o list.h
执行结果如下:
4)、上载一个文件:
curl –u name:passwd -T size.mp3 ftp://www.xxx.com/mp3/
举例如下:
curl -u user:123456 ftp://192.168.43.117/ -T list.h
可以看到文件并没有上传成功,返回错误码是25,参考第五章25 FTP couldn't STOR file. The server denied the STOR operation, used for FTP uploading.
可知,是因为服务器没有赋予存储的权限,所以设置服务器的write权限即可。
5)、从服务器上删除文件(使用curl传递ftp协议的DELE命令):
curl –u name:passwd ftp://www.xxx.com/ -X 'DELE mp3/size.mp3'
6)、另外curl不支持递归下载,不过可以用数组方式下载文件,比如我们要下载1-10.gif连续命名的文件:**
curl –u name:passwd ftp://www.xxx.com/img/[1-10].gif –O #O字母大写
7)、要连续下载多个文件:
curl –u name:passwd ftp://www.xxx.com/img/[one,two,three].jpg –O #O字母大写
六、实现日志文件定时上传
功能
- 程序运行时要记录当前日志文件的最后修改时间;
- 每个10秒钟就检查下log文件是否被修改,如果没有被修改就休眠10秒钟;
- 如果log文件被修改了,就将当前的日志文件拷贝成备份文件,备份文件名字加上当前时间;
- 通过curl发送给ftp服务器;
- 删除备份文件,重复步骤2。
程序流程图如下:
函数功能介绍
init()
首先记录当前log文件时间,并记录到全局变量
last_mtime
中。check_file_change()
读取文件最后修改时间,并和
last_mtime
进行比较,如果相同就返回0,不同就返回1.file_name_add_time()
将当前的日志文件拷贝成备份文件,备份文件名字加上当前时间。
stat()
得到对应文件的属性信息,存放到struct stat结构体变量中。
system()
执行参数中字符串对应的命令
代码如下:
/* Copyright (C) 公众号: yikoulinux */ #include <sys/stat.h> #include <stdio.h> #include <stdlib.h> #include <unistd.h> #include <time.h> typedef struct stat ST; unsigned long last_mtime; /*用户名密码暂时写死,实际应该保存在配置文件*/ char name[32]="user"; char pass[32] ="123456"; char ip[32] ="192.168.43.117"; char filename[32]="t.log"; char dstfile[256] ={0}; int init(void) { //准备结构体 ST status; //调用stat函数 int res = stat(filename,&status); if(-1 == res) { perror("error:open file fail\n"); return 0; } last_mtime = status.st_mtime; printf("init time:%s \n",ctime(&last_mtime)); return 1; } int check_file_change(void) { //准备结构体 ST status; //调用stat函数 int res = stat(filename,&status); if(-1 == res) { perror("error:open file fail\n"); return 0; } // printf("old:%s new:%s",ctime(&last_mtime),ctime(&status.st_mtime)); if(last_mtime == status.st_mtime) { printf("file not change\n"); return 0; }else{ printf("file updated\n"); last_mtime = status.st_mtime; return 1; } } void file_name_add_time(void) { ST status; time_t t; struct tm *tblock; char cmd[1024]={0}; t = time(NULL); tblock = localtime(&t); sprintf(dstfile,"t-%d-%d-%d-%d-%d-%d.log", tblock->tm_year+1900, tblock->tm_mon, tblock->tm_mday, tblock->tm_hour, tblock->tm_min, tblock->tm_sec); sprintf(cmd,"cp %s %s",filename,dstfile); // printf("cdm=%s\n",cmd); system(cmd); } int main(void) { char cmd[1024]={0}; init(); while(1) { if(check_file_change() == 1) { file_name_add_time(); sprintf(cmd,"curl -u %s:%s ftp://%s/ -T %s",name,pass,ip,dstfile); // printf("cdm=%s\n",cmd); system(cmd); unlink(dstfile); } sleep(10); } }
运行截图:
第一步:
因为log文件没有被修改过,所以程序不会上传。第二步:
手动输入字符串 yikoulinux 到日志文件 t.log中。
第三步:
因为文件发生了改变,所以打印“file updated”,同时可以看到curl上传文件的log信息。
以下是FTP服务器的根目录,可以看到,上传的日志文件:
t-2020-7-26-1-19-45.log
。
【补充】
- 配置信息,直接在代码中写死,通常应该从配置文件中读取,为方便读者阅读,本代码没有增加该功能;
- FTP服务器搭建,本文没有说明,相关文件比较多,大家可以自行搜索,一口君用的是File zilla;
- 通常这种需要长时间运行的程序,需要设置成守护进程,本文没有添加相应功能,读者可以自行搜索。如果强烈要求可以单开一篇详细介绍。
- 代码中time的管理函数,请读者自行搜索相关文章。
- curl也提供了相关的函数库curl.lib,如果要实现更灵活的功能可以使用对应的api。
- 之所以先把文件拷贝成备份文件,主要是考虑其他模块随时可能修改日志文件,起到一定保护作用。
想和博主交流,请关注公众号「一口Linux」
-
curl post https_Linux命令cURL详解,并实现文件定时上传到ftp服务器的程序
2020-10-29 02:47:00前言前段时间群里讨论,想实现某个文件定时上传到服务器要怎么来实现。我记得之前做过 一个项目:为高通的iot模组编写FOTA功能:实现模组可以远程下载升级镜像包,实现版本升级功能。并当时使用的一个超级强大的工具...前言
前段时间群里讨论,想实现某个文件定时上传到服务器要怎么来实现。我记得之前做过 一个项目:
为高通的iot模组编写FOTA功能
:实现模组可以远程下载升级镜像包,实现版本升级功能。并当时使用的一个超级强大的工具cURL。心血来潮,决定专门写一篇文章,送给需要的朋友。文章分两部分
- 首先介绍cURL的用法;
- 实现一个定时上传日志文件的一个简单的程序。
概念
cURL 是常用的命令行工具,用来请求 Web 服务器。它的名字就是客户端(client)的 URL 工具的意思。
cURL 的原作者是 Daniel Stenberg (目前是 cURL 的核心开发者),同时也是 IETF HTTPbis 工作组的资深成员。Daniel 在 1998 年创建了 curl 项目,他编写了最初的 curl 版本,并创建了 libcurl 库。到目前为止,代码仓库包括的 24000 次 commit 有超过一半是 Daniel 本人提交的,他依然是项目的核心开发者。Daniel 表示已将 curl 视为自己的孩子。
作为一款强力工具,支持的协议包括 (DICT, FILE, FTP, FTPS, GOPHER, HTTP, HTTPS, IMAP, IMAPS, LDAP, LDAPS, POP3, POP3S, RTMP, RTSP, SCP, SFTP, SMTP, SMTPS, TELNET and TFTP),还支持POST、cookies、认证、从指定偏移处下载部分文件等功能,具有用户代理字符串、限速、文件大小、进度条、cookie支持、用户认证、断点续传等特征。
一、命令的安装
sudo apt-get install curl
二、cURL命令语法:
curl [options] [URL...]
三、URL格式
URL的格式定义要参考 RFC 1808 。
地址:http://www.w3.org/Addressing/rfc1808.txt 《Relative Uniform Resource Locators 》
URL由三部分组成:资源类型、存放资源的主机域名、资源文件名。 也可认为由4部分组成:
协议、主机、端口、路径
URL的一般语法格式为:protocol :// hostname[:port] / path / [;parameters][?query]#fragment
(带方括号[]的为可选项)。
protocol(协议)
指定使用的传输协议,下表列出 protocol 属性的有效方案名称。 最常用的是HTTP协议,它也是WWW中应用最广的协议。
- file 资源是本地计算机上的文件。格式file:///,注意后边应是三个斜杠。
- ftp 通过 FTP访问资源。格式 FTP://
- gopher 通过 Gopher 协议访问该资源。
- http 通过 HTTP 访问该资源。 格式 HTTP://
- https 通过安全的 HTTPS 访问该资源。 格式 HTTPS://
- mailto 资源为电子邮件地址,通过 SMTP 访问。 格式 mailto:
- MMS 通过 支持MMS(流媒体)协议的播放该资源。(代表软件:Windows Media Player)格式 MMS://
- ed2k 通过 支持ed2k(专用下载链接)协议的P2P软件访问该资源。(代表软件:电驴) 格式 ed2k://
- Flashget 通过 支持Flashget:(专用下载链接)协议的P2P软件访问该资源。(代表软件:快车) 格式 Flashget://
- thunder 通过 支持thunder(专用下载链接)协议的P2P软件访问该资源。(代表软件:迅雷) 格式 thunder://
- news 通过 NNTP 访问该资源。
hostname(主机名)
是指存放资源的服务器的域名系统(DNS) 主机名或 IP 地址。有时,在主机名前也可以包含连接到服务器所需的用户名和密码(格式:username:password@hostname)。
port(端口号)
整数,可选,省略时使用方案的默认端口,各种传输协议都有默认的端口号,如http的默认端口为80。如果输入时省略,则使用默认端口号。有时候出于安全或其他考虑,可以在服务器上对端口进行重定义,即采用非标准端口号,此时,URL中就不能省略端口号这一项。
path(路径)
由零或多个“/”符号隔开的字符串,一般用来表示主机上的一个目录或文件地址。
parameters(参数)
这是用于指定特殊参数的可选项。
query(查询)
可选,用于给动态网页(如使用CGI、ISAPI、PHP/JSP/ASP/http://ASP.NET等技术制作的网页)传递参数,可有多个参数,用“&”符号隔开,每个参数的名和值用“=”符号隔开。
fragment(信息片断)
字符串,用于指定网络资源中的片断。例如一个网页中有多个名词解释,可使用fragment直接定位到某一名词解释。
四、curl命令参数详解:
由于linux curl功能十分强大,所以命令参数十分多,下表只筛选出来部分常用的参数,更多参数请运行“man curl”命令查看。
ble data-draft-node="block" data-draft-type="table" data-size="normal" data-row-style="normal">五、Linux curl命令退出码:
下面是linux curl命令的错误代码和她们的相应的错误消息,命令执行错误的时候可以通过错误码来查看出错原因,方便开发调试。
ble da ta-draft-node="block" data-draft-type="table" data-size="normal" data-row-style="normal">六、用法演示:
为节省篇幅,部分操作不再贴上执行结果。
1、查看网页源码
直接在curl命令后加上网址,就可以看到网页源码。我们以网址http://www.sina.com为例(选择该网址,主要因为它的网页代码较短):
root@ubuntu:/home/peng# curl www.sohu.com <html> <head><title>307 Temporary Redirect</title></head> <body bgcolor="white"> <center><h1>307 Temporary Redirect</h1></center> <hr><center>nginx</center> </body> </html>
执行结果显示
307 Temporary Redirect
,说明该网址需要重定向。如果要把这个网页保存下来,可以使用
-o
参数,这就相当于使用wget命令了。curl -o [文件名] www.sohu.com
2、自动跳转
有的网址是自动跳转的。使用
-L
参数,curl就会跳转到新的网址。curl -L www.sohu.com
键入上面的命令,结果就自动跳转为http://www.sohu.com.cn。
3、显示头信息
-i
参数可以显示http response的头信息,连同网页代码一起。root@ubuntu:/home/peng/driver/test# curl -i www.sohu.com HTTP/1.1 307 Temporary Redirect Content-Type: text/html Content-Length: 180 Connection: keep-alive Server: nginx Date: Tue, 25 Aug 2020 10:10:54 GMT Location: https://www.sohu.com/ FSS-Cache: from 9790436.18244590.10468709 FSS-Proxy: Powered by 2384755.3433341.3062915 <html> <head><title>307 Temporary Redirect</title></head> <body bgcolor="white"> <center><h1>307 Temporary Redirect</h1></center> <hr><center>nginx</center> </body> </html>
-I
参数则是只显示http response的头信息。4、显示通信过程
-v
参数可以显示一次http通信的整个过程,包括端口连接和http request头信息。root@ubuntu:/home/peng/driver/test# curl -v www.sohu.com * About to connect() to www.sohu.com port 80 (#0) * Trying 240e:83:201:3700::5... connected > GET / HTTP/1.1 > User-Agent: curl/7.22.0 (i686-pc-linux-gnu) libcurl/7.22.0 OpenSSL/1.0.1 zlib/1.2.3.4 libidn/1.23 librtmp/2.3 > Host: www.sohu.com > Accept: */* > < HTTP/1.1 307 Temporary Redirect < Content-Type: text/html < Content-Length: 180 < Connection: keep-alive < Server: nginx < Date: Tue, 25 Aug 2020 10:11:49 GMT < Location: https://www.sohu.com/ < FSS-Cache: from 9855973.18375663.10534247 < FSS-Proxy: Powered by 2450292.3564414.3128453 < <html> <head><title>307 Temporary Redirect</title></head> <body bgcolor="white"> <center><h1>307 Temporary Redirect</h1></center> <hr><center>nginx</center> </body> </html> * Connection #0 to host www.sohu.com left intact * Closing connection #0
如果你觉得上面的信息还不够,那么下面的命令可以查看更详细的通信过程。
curl --trace output.txt www.sohu.com
或者
curl --trace-ascii output.txt www.sohu.com
运行后,请打开output.txt文件查看。
5、发送表单信息
发送表单信息有GET和POST两种方法。GET方法相对简单,只要把数据附在网址后面就行。
curl example.com/form.cgi?data=xxx
POST方法必须把数据和网址分开,curl就要用到--data参数。
curl -X POST --data "data=xxx" example.com/form.cgi
如果你的数据没有经过表单编码,还可以让curl为你编码,参数是
--data-urlencode
。curl -X POST--data-urlencode "date=April 1" example.com/form.cgi
6、HTTP动词
curl默认的HTTP动词是GET,使用
-X
参数可以支持其他动词。curl -X POST www.example.com curl -X DELETE www.example.com
7、文件上传
假定文件上传的表单是下面这样:
<form method="POST" enctype='multipart/form-data' action="upload.cgi"> <input type=file name=upload> <input type=submit name=press value="OK"> </form>
你可以用curl这样上传文件:
curl --form upload=@localfilename --form press=OK [URL]
8、Referer字段
有时你需要在http request头信息中,提供一个referer字段,表示你是从哪里跳转过来的。
curl --referer http://www.example.com http://www.example.com
9、User Agent字段
这个字段是用来表示客户端的设备信息。服务器有时会根据这个字段,针对不同设备,返回不同格式的网页,比如手机版和桌面版。
iPhone4的User Agent是
Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_0 like Mac OS X; en-us) AppleWebKit/532.9 (KHTML, like Gecko) Version/4.0.5 Mobile/8A293 Safari/6531.22.7
curl可以这样模拟:
curl --user-agent "[User Agent]" [URL]
10、cookie
使用
--cookie
参数,可以让curl发送cookie。curl --cookie "name=xxx" www.example.com
至于具体的cookie的值,可以从http response头信息的
Set-Cookie
字段中得到。-c cookie-file
可以保存服务器返回的cookie到文件,-b cookie-file
可以使用这个文件作为cookie信息,进行后续的请求。curl -c cookies http://example.com curl -b cookies http://example.com
11、增加头信息
有时需要在http request之中,自行增加一个头信息。
--header
参数就可以起到这个作用。$ curl --header "Content-Type:application/json" http://example.com
12、认证
使用curl选项 -u 可以完成HTTP或者FTP的认证,可以指定密码,也可以不指定密码在后续操作中输入密码:
curl -u user:pwd http://man.linuxde.net curl -u user http://man.linuxde.net
13、FTP
1)、列出ftp服务器上的目录列表
curl ftp://www.xxx.com/ --user name:passwd curl ftp://www.xxx.com/ –u name:passwd #简洁写法 curl ftp://name:passwd@www.xxx.com #简洁写法2
例如:在IP地址192.168.43.117上搭建FTP服务器,并设置用户名为
user
,密码为123456
现在我们要显示服务器上根目录下的所有文件信息,命令如下:curl -u user:123456 ftp://192.168.43.117
执行结果如下:
简洁写法:
curl ftp://user:123456@192.168.43.117
执行结果如下:
2)、只列出目录,不显示进度条
curl ftp://www.xxx.com –u name:passwd -s
3)、下载一个文件:
格式
curl ftp://www.xxx.com/size.zip –u name:passwd -o size.zip
示例如下: 从服务器的根目录下下载文件test.c,保存到本地,本地文件名也为test.c。 【注意】如果没有-o选项,程序会吧数据流定向到stdout,即直接把文件内容显示到终端上。
curl ftp://user:123456@192.168.43.117/test.c -o test.c
执行结果如下:
简洁模式
curl -u user:123456 ftp://192.168.43.117/list.h -o list.h
执行结果如下:
4)、上载一个文件:
curl –u name:passwd -T size.mp3 ftp://www.xxx.com/mp3/
举例如下:
curl -u user:123456 ftp://192.168.43.117/ -T list.h
可以看到文件并没有上传成功,返回错误码是25,参考第五章
25 FTP couldn't STOR file. The server denied the STOR operation, used for FTP uploading.
可知,是因为服务器没有赋予存储的权限,所以设置服务器的write权限即可。
5)、从服务器上删除文件(使用curl传递ftp协议的DELE命令):
curl –u name:passwd ftp://www.xxx.com/ -X 'DELE mp3/size.mp3'
6)、另外curl不支持递归下载,不过可以用数组方式下载文件,比如我们要下载1-10.gif连续命名的文件:**
curl –u name:passwd ftp://www.xxx.com/img/[1-10].gif –O #O字母大写
7)、要连续下载多个文件:
curl –u name:passwd ftp://www.xxx.com/img/[one,two,three].jpg –O #O字母大写
六、实现日志文件定时上传
功能
- 程序运行时要记录当前日志文件的最后修改时间;
- 每个10秒钟就检查下log文件是否被修改,如果没有被修改就休眠10秒钟;
- 如果log文件被修改了,就将当前的日志文件拷贝成备份文件,备份文件名字加上当前时间;
- 通过curl发送给ftp服务器;
- 删除备份文件,重复步骤2。
程序流程图如下:
函数功能介绍
init()
首先记录当前log文件时间,并记录到全局变量
last_mtime
中。check_file_change()
读取文件最后修改时间,并和
last_mtime
进行比较,如果相同就返回0,不同就返回1.file_name_add_time()
将当前的日志文件拷贝成备份文件,备份文件名字加上当前时间。
stat()
得到对应文件的属性信息,存放到struct stat结构体变量中。
system()
执行参数中字符串对应的命令
代码如下:
/* Copyright (C) 公众号: yikoulinux */ #include <sys/stat.h> #include <stdio.h> #include <stdlib.h> #include <unistd.h> #include <time.h> typedef struct stat ST; unsigned long last_mtime; /*用户名密码暂时写死,实际应该保存在配置文件*/ char name[32]="user"; char pass[32] ="123456"; char ip[32] ="192.168.43.117"; char filename[32]="t.log"; char dstfile[256] ={0}; int init(void) { //准备结构体 ST status; //调用stat函数 int res = stat(filename,&status); if(-1 == res) { perror("error:open file failn"); return 0; } last_mtime = status.st_mtime; printf("init time:%s n",ctime(&last_mtime)); return 1; } int check_file_change(void) { //准备结构体 ST status; //调用stat函数 int res = stat(filename,&status); if(-1 == res) { perror("error:open file failn"); return 0; } // printf("old:%s new:%s",ctime(&last_mtime),ctime(&status.st_mtime)); if(last_mtime == status.st_mtime) { printf("file not changen"); return 0; }else{ printf("file updatedn"); last_mtime = status.st_mtime; return 1; } } void file_name_add_time(void) { ST status; time_t t; struct tm *tblock; char cmd[1024]={0}; t = time(NULL); tblock = localtime(&t); sprintf(dstfile,"t-%d-%d-%d-%d-%d-%d.log", tblock->tm_year+1900, tblock->tm_mon, tblock->tm_mday, tblock->tm_hour, tblock->tm_min, tblock->tm_sec); sprintf(cmd,"cp %s %s",filename,dstfile); // printf("cdm=%sn",cmd); system(cmd); } int main(void) { char cmd[1024]={0}; init(); while(1) { if(check_file_change() == 1) { file_name_add_time(); sprintf(cmd,"curl -u %s:%s ftp://%s/ -T %s",name,pass,ip,dstfile); // printf("cdm=%sn",cmd); system(cmd); unlink(dstfile); } sleep(10); } }
运行截图:
第一步:
因为log文件没有被修改过,所以程序不会上传。
第二步: 手动输入字符串 yikoulinux 到日志文件 t.log中。
第三步: 因为文件发生了改变,所以打印“file updated”,同时可以看到curl上传文件的log信息。
以下是FTP服务器的根目录,可以看到,上传的日志文件:
t-2020-7-26-1-19-45.log
。【补充】
- 配置信息,直接在代码中写死,通常应该从配置文件中读取,为方便读者阅读,本代码没有增加该功能;
- FTP服务器搭建,本文没有说明,相关文件比较多,大家可以自行搜索,一口君用的是File zilla;
- 通常这种需要长时间运行的程序,需要设置成守护进程,本文没有添加相应功能,读者可以自行搜索。如果强烈要求可以单开一篇详细介绍。
- 代码中time的管理函数,请读者自行搜索相关文章。
- curl也提供了相关的函数库curl.lib,如果要实现更灵活的功能可以使用对应的api。
- 之所以先把文件拷贝成备份文件,主要是考虑其他模块随时可能修改日志文件,起到一定保护作用。
想和博主交流,请关注公众号「一口Linux」
-
宝塔面板kill定时任务
2022-01-06 10:19:501.平时使用宝塔的计算任务作为定时任务 2.后面有一次启动错误的定时任务,并且这任务在后台一直运行,我需要kill掉,但是不知道这个定时任务的端口号和pid号,下面发出我的解决方法 3.s`1.打开cmd查询刚才的启动... -
linux系列之常用运维命令整理笔录
2019-10-28 17:33:21大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 ... -
Linux crontab 定时任务的使用
2018-01-17 18:57:14近期,在设定 CentOS 定时任务时发现,有一些注意事项总是被自己忽略,而每次又需要百度解决,有些绕远的感觉,所以自己整理一些认为重要的事项,欢迎批评指正 系统:CentOS6.5 CentOS7.0 crond 是 linux 下用来... -
linux_rsync定时备份
2017-12-19 20:03:00在linux系统中,需要注意空格使用,有着整体性原则,并且注意大小写问题 Rsync数据同步工具 开源、快速、多功能、可实现全量和增量的本地或远程 具有本地和远程两台主机之间数据快速同步镜像、远程备份的功能... -
Linux精简教程
2021-10-24 23:00:48Linux精简教程 ROS 依赖 Linux 提供底层支持,一般基于 Linux 系统开发,玩转 ROS 机器人操作系统需要具备基本的 Linux 知识。本篇对Linux 进行基本讲解,并讲解常用 Linux 操作命令。如果您对 Linux 熟练掌握,请... -
ftp如何做到精确限速?
2021-01-14 10:45:52其他机器通过ftp客户端每天定时get数据,由于集群上跑了很多服务,为了不影响其他服务需要对ftp进行限速现方案:使用python的pyftplib搭建了简单的ftp服务端,客户端使用Linux NetKit的ftp,python的限速代码片段:#... -
Linux wget命令
2022-04-20 14:19:41你可以在以下几种情况下使用--spider参数: 定时下载之前进行检查 间隔检测网站是否可用 检查网站页面的死链接 增加重试次数 wget --tries=40 URL 如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次... -
Linux命令cURL详解,并实现文件定时上传到ftp服务器的程序
2021-01-12 19:27:49前言前段时间群里讨论,想实现某个文件定时上传到服务器要怎么来实现。我记得之前做过 一个项目:为高通的iot模组编写FOTA功能:实现模组可以远程下载升级镜像包,实现版本升级功能。并当时使用的一个超级强大的工具... -
linux文件实时同步之一 inotify+rsync、sersync、lsyncd工具比较
2021-05-10 18:42:18一、inotify + rsync最近一直在寻求生产服务服务器上的同步替代方案,原先使用的是inotify + rsync,但随着文件数量的增大到100W+,目录下的文件列表就达20M,在网络状况不佳或者限速的情况下,变更的文件可能10来个... -
【Linux】一步一步学Linux——wget命令(192)
2019-08-29 19:45:2500. 目录 文章目录00. 目录01. 命令概述02. 命令格式03. 常用选项04. 参考示例05. 附录 01. 命令概述 02. 命令格式 03. 常用选项 04. 参考示例 ...参考:【Linux】一步一步学Linux系列教程汇总 ... -
Linux-定时任务(备份)-进程管理-后台screen管理-ssh
2019-08-21 19:06:52定时任务 crond 系统级别 :定时文件清理,日志切割,定时收集系统的状态 用户级别 :同步系统时间,定时备份数据 定时任务相关的文件 [root@qls ~]# [root@qls ~]# ll /etc/cron* -d drwxr-xr-x. 2 root ... -
wget - Linux系统下载文件工具
2021-11-18 11:16:03wget - Linux系统下载文件工具 Linux系统下载文件工具 补充说明 wget命令 用来从指定的URL下载文件。wget非常稳定,它在带宽很窄的情况下和不稳定网络中有很强 的适应性,如果是由于网络的原因下载失败,wget会不断... -
Linux - nginx(详解)
2020-12-01 20:01:06TCP的keepalive是侧重在保持客户端和服务端的连接,一方会不定期发送心跳包给另一方,当一方端掉的时候,没有断掉的定时发送几次心跳包,如果间隔发送几次,对方都返回的是RST,而不是ACK,那么就释放当前链接。... -
Linux服务器部署
2020-04-12 19:00:29Linux服务器部署 系统信息和硬盘挂载 1.系统信息 2.挂载新硬盘 系统设置 1.网络 2.服务 3.远程 ssh telnet tigervnc scp vsftpd 4.Yum 5.计划任务 6.文件系统 压缩 权限 编辑 软件 1.系统 openssh telnet 2.开发 ... -
服务器安装Rocky Linux 8.x安装及显卡配置
2021-11-18 21:35:22前置步骤 镜像下载 启动盘制作(系统无法安装时,尝试使用其他软件制作启动盘尝试,例如ubunto官方推出的...Install Rocky Linux 8 #安装Rocky Linux 8 Test this media & install Rocky Linux 8 #测试安装文件并 -
Linux安装 Aria2
2021-05-13 01:08:51input-file=/home/pi/.config/aria2/aria2.session # 在Aria2退出时保存`错误/未完成`的下载任务到会话文件 save-session=/home/pi/.config/aria2/aria2.session # 定时保存会话, 0为退出时才保存, 需1.16.1以上版本... -
Linux下配置NAS的一些总结经验
2020-12-21 22:50:18前言经历了上一次的Windows Server的痛苦配置以后,我决定换成Linux来配置NAS。相对于Windows平台,Linux平台会更加自由和简洁。而且清晰的权限和后台也要比Win更加干净,唯一的弊端就是要去学不少命令。但是我这里... -
操作系统——linux命令实战
2021-09-04 16:45:48常用工具示例参考篇 1. gdb 调试利器 ...8. top linux下的任务管理器 9. free 查询可用内存 10. vmstat 监视内存使用情况 11. iostat 监视I/O子系统 12. sar 找出系统瓶颈的利器 13. rea. -
Linux下快速迁移海量文件的操作记录
2021-05-14 13:45:433)可以写个rsync同步脚本,在夜里定时执行(比如凌晨1点执行,6点结束同步),100G的文件,要不了几个晚上就能搞定。 4)待旧站图片全都同步过去了,再一次性把新上传的图片rsync同步过去。并迁移网站代码。 2.... -
linux系列---常见命令
2021-03-11 14:50:14其主要作用是通过http、ftp等方式下载文件,也能够上传文件,作为一个功能强大的网络工具,curl命令同时支持HTTPS等众多协议,还支持POST、cookies、认证、从指定偏移处下载部分文件、用户代理字符串、限速、文件... -
Linux下载HTTP文件
2020-04-13 17:57:17你可以在以下几种情况下使用–spider参数: 定时下载之前进行检查 间隔检测网站是否可用 检查网站页面的死链接 增加重试次数 wget --tries=40 URL 如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次... -
TC模拟网络控制,使用Linux命令验证认证kafka消费和生产性能
2022-05-22 16:46:32tc qdisc del dev eth0 root 查看规则 tc qdisc show 验证测试网络限速和延时 延时验证:ping 192.168.30.41 验证网络速度:scp -r root@192.168.30.41:~/logstash-6.7.2.tar.gz ./ 5、新建一个topic进行跑批为test_... -
Linux CGroups v2 IO writeback原理详解
2021-05-14 22:23:03[TOC]## io writeback代码分析本文主要从 writeback 触发开始,对整个writeback 过程进行分析,中间也加入了对 cgroup 如何支持 writeback 限速的分析。通过梳理cgroup writeback的流程,我们可以知道在加入 cgroup ...