-
2021-01-17 15:17:12
wget是linux最常用的下载命令, 通常的运用要领是: “wget 空格+要下载文件的url路径”。
比方 : [linux]#
wget http://www.test.com/xxxx/xxx.tar.gz
其中-c参数, 支持断点续传, 下载大文件时,假如不注意终止了, 能够继续运用命令接着下载。
比方 : [linux]# wget -c http://www.test.com/xxxx/xxx.tar.gz
直接使用wget下载github.com HTTPS链接,报错
[linux]#wget https://github.com/mitsuhiko/flask/archive/master.zip
[root@11_09 ~]# wget https://github.com/mitsuhiko/flask/archive/master.zip
--2013-08-18 12:55:24-- https://github.com/mitsuhiko/flask/archive/master.zip
Resolving github.com... 204.232.175.90
Connecting to github.com|204.232.175.90|:443... connected.
ERROR: cannot verify github.com's certificate, issued by `/C=US/O=DigiCert Inc/OU=www.digicert.com/CN=DigiCert High Assurance EV CA-1':
Unable to locally verify the issuer's authority.
To connect to github.com insecurely, use `--no-check-certificate'.
Unable to establish SSL connection. 增加一个选项--no-check-certificate
[linux]# wget --no-check-certificate https://github.com/mitsuhiko/flask/archive/master.zip
可又增加一个问题,保存下来的文件是master,未知是什么格式。再增加一个选项-O xxx。
[linux]# wget -O master.zip --no-check-certificate https://github.com/mitsuhiko/flask/archive/master.zip 保存下来的是master.zip,与预想一致。配合-c参数,实现断点续传,PERFECT。
最络结果:[linux]#wget -c -O master.zip --no-check-certificate https://github.com/mitsuhiko/flask/archive/master.zip
------------------------------------------------------------------
HTTPS (SSL/TLS) Options(HTTPS (SSL)参数选项)
--certificate=file
可选的客户段端证书
--private-key=file
对此证书可选的“密钥文档”
--private-key-type=type
对此证书可选的“密钥类型“
--egd-file=file
EGD socket文档名
--ca-directory=directory
CA散列表所在的目录
--ca-certificate=file
包含CA的文档
--certificate-type=[ PEM(默认),DER ]
Client-Cert类型:PEM,DER
--no-check-certificate
不用检查服务器的证书
--secure-protocol=[ auto,SSLv2,SSLv3,TLSv1 ]
选择SSL协议:auto,SSLv2,SSLv3,TLSv1
FTP Options(FTP参数选项)
--ftp-user
登录ftp的用户名(注意:最好方法是在.netrc或.wgetrc文件中定义)
--ftp-password
登录ftp的密码(注意:最好方法是在.netrc或.wgetrc文件中定义)
--no-remove-listing
不删除“.listing”文档
--no-glob
关闭所有通配符的ftp文档名
--no-passive-ftp
禁用“被动”传输模式
--retr-symlinks
在递归模式中,下载链接所指示的文档(排除连接目录的)
wget
使用详解
1、下载单个文件
wget url+filename
下载过程中同时可以看到四项信息
已经下载的比例
已经下载的大小
当前下载的速度
剩余的时间
2、使用一个大写O做参数表示另存为
wget -O save_name url
这种方法适用于对应链接中没有显式文件名的情况。
例如:wget -O xx.zip http://www.vim.org/scripts/download_script.php?src_id=7701
再用不带-O参数的下载一次。
ls -al
总计 132
drwxr-xr-x 2 root root 4096 07-12 10:43 .
drwxr-xr-x 4 root root 4096 07-11 16:26 ..
-rw-r--r-- 1 root root 50243 07-12 10:43 download_script.php?src_id=7701
-rw-r--r-- 1 root root 50243 07-12 10:43 xx.zip
我们发现,下载的大小都是一样。但是不带-O参数的,文件名还要转换一次。不如用-O参数方便。
mv "download_script.php?src_id=7701" yy.zip
3、指定下载速率
方法是使用wget --limit-rate
wget程序默认是使用所有的带宽,如果
是在生产服务器上下载很大的文件就不可接受了。
为了避免这种情况使用--limit-rate参数
wget --limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
4、断点下载
使用wget -c完成未完成的下载
下载到一半需要停下来干别的事情,用^c就可以停顿住。
回来后,继续下载可以加一个-c参数。
注意:如果不加入-c,那么下载的文件会多出一个.1的后缀。
5、在后台下载
方法:加一个-b的参数
wget -b url/filename为后台下载。下载经过写入到wget-log文件中。
用tail -f wget-log查看下载日志
6、模拟在浏览器下下载
有的网站不允许客户在非浏览器环境下下载。使用--user-agent来设置
wget --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD
7、测试下载链接
方法:使用--spider
试图做计划下载时候,需要先检查一下下载链接是否有效。
wget --spider DOWNLOAD-URL
如果返回OK,则表示下载链接是正确的!
例如
wget --spider "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"
Spider mode enabled. Check if remote file exists.
--2010-07-12 11:36:32-- http://ip138.com/ips.asp?ip=58.251.193.137&action=2
正在解析主机 ip138.com... 221.5.47.136
Connecting to ip138.com|221.5.47.136|:80... 已连接。
已发出 HTTP 请求,正在等待回应... 200 OK
长度:7817 (7.6K) [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
8、增加尝试次数
方法:--tries=1000
如果网速有问题,下载大文件的时候可能会发生错误,
默认wget尝试20次链接。
如果尝试75次,可以
wget --tires=75 DOWNLOAD-URL
9、下载多个文件使用wget -i
将多个下载链接写入到一个download-file-list.txt文件中,而后用
wget -i download-file-list.txt
10、下载整站
方法:用--mirror参数
当你要下载一个完整站点并实现本地浏览的时候,
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
参数讲解:
--mirror:设置这个参数用来建立本地镜像
-p:下载所有html文件适合显示的元素
--convert-links:下载完成后,将文档链接都转换成本地的
-P ./LOCAL-DIR:保存所有的文件和目录到指定文件夹下
11、下载时候禁止下载指定类型的文件
例如下载站点时候,不打算下载gif动画图片。
wget --reject=gif WEBSITE-TO-BE-DOWNLOADED
12、记录下载日志
方法:使用小写字母o
wget -o xx.html.log -O xx.html "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"
检查一下日志:
[root@localhost opt]# cat xx.html.log
--2010-07-12 11:57:22-- http://ip138.com/ips.asp?ip=58.251.193.137&action=2
正在解析主机 ip138.com... 221.5.47.136
Connecting to ip138.com|221.5.47.136|:80... 已连接。
已发出 HTTP 请求,正在等待回应... 200 OK
长度:7817 (7.6K) [text/html]
Saving to: `xx.html'
0K ....... 100% 65.5K=0.1s
2010-07-12 11:57:22 (65.5 KB/s) - `xx.html' saved [7817/7817]
13、是第9条的增强版。可以限制下载容量
wget -Q5m -i FILE-WHICH-HAS-URLS
当下载的文件达到5兆的时候,停止下载。
注意:如果不是对一个文件下载链接清单,对单个文件,
这个限制不会生效的。
14、和第11条正好相反,
这条技巧是讲述如何仅仅下载指定类型的文件
从一个网站中下载所有的pdf文件
wget -r -A.pdf http://url-to-webpage-with-pdfs/
15、使用wget完成ftp下载
匿名ftp下载类似于http下载
wget ftp-url即可。
如果是需要输入用户名和密码,则是
wget --ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL
更多相关内容 -
详解Linux 查看服务器开放的端口号
2021-01-10 07:20:55物理端口指的是物理存在的端口,如ADSL Modem、集线器、交换机、路由器上用 于连接其他网络设备的接口,如RJ-45端口、SC端口等等。逻辑端口是指逻辑意义上用于区分服务的端口,如TCP/IP协议中的服务端口,端口号的... -
TCP/IP 端口号大全
2013-11-26 10:17:591 tcpmux TCP 端口服务多路复用 5 rje 远程作业入口 7 echo Echo 服务 ...11 systat 用于列举连接了的端口的系统状态 13 daytime 给请求主机发送日期和时间 17 qotd 给连接了的主机发送每日格言http://www.douban.co
m/group/topic/764705 1
1 tcpmux TCP 端口服务多路复用
5 rje 远程作业入口
7 echo Echo 服务
9 discard 用于连接测试的空服务
11 systat 用于列举连接了的端口的系统状态
13 daytime 给请求主机发送日期和时间
17 qotd 给连接了的主机发送每日格言
18 msp 消息发送协议
19 chargen 字符生成服务;发送无止境的字符流
20 ftp-data FTP 数据端口
21 ftp 文件传输协议(FTP)端口;有时被文件服务协议(FSP)使用
22 ssh 安全 Shell(SSH)服务
23 telnet Telnet 服务
25 smtp 简单邮件传输协议(SMTP)
37 time 时间协议
39 rlp 资源定位协议
42 nameserver 互联网名称服务
43 nicname WHOIS 目录服务
49 tacacs 用于基于 TCP/IP 验证和访问的终端访问控制器访问控制系统
50 re-mail-ck 远程邮件检查协议
53 domain 域名服务(如 BIND)
63 whois++ WHOIS++,被扩展了的 WHOIS 服务
67 bootps 引导协议(BOOTP)服务;还被动态主机配置协议(DHCP)服务使用
68 bootpc Bootstrap(BOOTP)客户;还被动态主机配置协议(DHCP)客户使用
69 tftp 小文件传输协议(TFTP)
70 gopher Gopher 互联网文档搜寻和检索
71 netrjs-1 远程作业服务
72 netrjs-2 远程作业服务
73 netrjs-3 远程作业服务
73 netrjs-4 远程作业服务
79 finger 用于用户联系信息的 Finger 服务
80 http 用于万维网(WWW)服务的超文本传输协议(HTTP)
88 kerberos Kerberos 网络验证系统
95 supdup Telnet 协议扩展
101 hostname SRI-NIC 机器上的主机名服务
102 iso-tsap ISO 开发环境(ISODE)网络应用
105 csnet-ns 邮箱名称服务器;也被 CSO 名称服务器使用
107 rtelnet 远程 Telnet
109 pop2 邮局协议版本2
110 pop3 邮局协议版本3
111 sunrpc 用于远程命令执行的远程过程调用(RPC)协议,被网络文件系统(NFS)使用
113 auth 验证和身份识别协议
115 sftp 安全文件传输协议(SFTP)服务
117 uucp-path Unix 到 Unix 复制协议(UUCP)路径服务
119 nntp 用于 USENET 讨论系统的网络新闻传输协议(NNTP)
123 ntp 网络时间协议(NTP)
137 netbios-ns 在红帽企业 Linux 中被 Samba 使用的 NETBIOS 名称服务
138 netbios-dgm 在红帽企业 Linux 中被 Samba 使用的 NETBIOS 数据报服务
139 netbios-ssn 在红帽企业 Linux 中被 Samba 使用的NET BIOS 会话服务
143 imap 互联网消息存取协议(IMAP)
161 snmp 简单网络管理协议(SNMP)
162 snmptrap SNMP 的陷阱
163 cmip-man 通用管理信息协议(CMIP)
164 cmip-agent 通用管理信息协议(CMIP)
174 mailq MAILQ
177 xdmcp X 显示管理器控制协议
178 nextstep NeXTStep 窗口服务器
179 bgp 边界网络协议
191 prospero Cliffod Neuman 的 Prospero 服务
194 irc 互联网中继聊天(IRC)
199 smux SNMP UNIX 多路复用
201 at-rtmp AppleTalk 选路
202 at-nbp AppleTalk 名称绑定
204 at-echo AppleTalk echo 服务
206 at-zis AppleTalk 区块信息
209 qmtp 快速邮件传输协议(QMTP)
210 z39.50 NISO Z39.50 数据库
213 ipx 互联网络分组交换协议(IPX),被 Novell Netware 环境常用的数据报协议
220 imap3 互联网消息存取协议版本3
245 link LINK
347 fatserv Fatmen 服务器
363 rsvp_tunnel RSVP 隧道
369 rpc2portmap Coda 文件系统端口映射器
370 codaauth2 Coda 文件系统验证服务
372 ulistproc UNIX Listserv
389 ldap 轻型目录存取协议(LDAP)
427 svrloc 服务位置协议(SLP)
434 mobileip-agent 可移互联网协议(IP)代理
435 mobilip-mn 可移互联网协议(IP)管理器
443 https 安全超文本传输协议(HTTP)
444 snpp 小型网络分页协议
445 microsoft-ds 通过 TCP/IP 的服务器消息块(SMB)
464 kpasswd Kerberos 口令和钥匙改换服务
468 photuris Photuris 会话钥匙管理协议
487 saft 简单不对称文件传输(SAFT)协议
488 gss-http 用于 HTTP 的通用安全服务(GSS)
496 pim-rp-disc 用于协议独立的多址传播(PIM)服务的会合点发现(RP-DISC)
500 isakmp 互联网安全关联和钥匙管理协议(ISAKMP)
535 iiop 互联网内部对象请求代理协议(IIOP)
538 gdomap GNUstep 分布式对象映射器(GDOMAP)
546 dhcpv6-client 动态主机配置协议(DHCP)版本6客户
547 dhcpv6-server 动态主机配置协议(DHCP)版本6服务
554 rtsp 实时流播协议(RTSP)
563 nntps 通过安全套接字层的网络新闻传输协议(NNTPS)
565 whoami whoami
587 submission 邮件消息提交代理(MSA)
610 npmp-local 网络外设管理协议(NPMP)本地 / 分布式排队系统(DQS)
611 npmp-gui 网络外设管理协议(NPMP)GUI / 分布式排队系统(DQS)
612 hmmp-ind HMMP 指示 / DQS
631 ipp 互联网打印协议(IPP)
636 ldaps 通过安全套接字层的轻型目录访问协议(LDAPS)
674 acap 应用程序配置存取协议(ACAP)
694 ha-cluster 用于带有高可用性的群集的心跳服务
749 kerberos-adm Kerberos 版本5(v5)的“kadmin”数据库管理
750 kerberos-iv Kerberos 版本4(v4)服务
765 webster 网络词典
767 phonebook 网络电话簿
873 rsync rsync 文件传输服务
992 telnets 通过安全套接字层的 Telnet(TelnetS)
993 imaps 通过安全套接字层的互联网消息存取协议(IMAPS)
994 ircs 通过安全套接字层的互联网中继聊天(IRCS)
995 pop3s 通过安全套接字层的邮局协议版本3(POPS3)
表 C-1. 著名端口
以下端口是 UNIX 特有的,涉及了从电子邮件到验证不等的服务。在方括号内的名称(如 [service])是服务的守护进程名称或它的常用别名。
端口号码 / 层 名称 注释
512/tcp exec 用于对远程执行的进程进行验证
512/udp biff [comsat] 异步邮件客户(biff)和服务(comsat)
513/tcp login 远程登录(rlogin)
513/udp who [whod] 登录的用户列表
514/tcp shell [cmd] 不必登录的远程 shell(rshell)和远程复制(rcp)
514/udp syslog UNIX 系统日志服务
515 printer [spooler] 打印机(lpr)假脱机
517/udp talk 远程对话服务和客户
518/udp ntalk 网络交谈(ntalk),远程对话服务和客户
519 utime [unixtime] UNIX 时间协议(utime)
520/tcp efs 扩展文件名服务器(EFS)
520/udp router [route, routed] 选路信息协议(RIP)
521 ripng 用于互联网协议版本6(IPv6)的选路信息协议
525 timed [timeserver] 时间守护进程(timed)
526/tcp tempo [newdate] Tempo
530/tcp courier [rpc] Courier 远程过程调用(RPC)协议
531/tcp conference [chat] 互联网中继聊天
532 netnews Netnews
533/udp netwall 用于紧急广播的 Netwall
540/tcp uucp [uucpd] Unix 到 Unix 复制服务
543/tcp klogin Kerberos 版本5(v5)远程登录
544/tcp kshell Kerberos 版本5(v5)远程 shell
548 afpovertcp 通过传输控制协议(TCP)的 Appletalk 文件编制协议(AFP)
556 remotefs [rfs_server, rfs] Brunhoff 的远程文件系统(RFS)
表 C-2. UNIX 特有的端口
表 C-3列举了由网络和软件社区向 IANA 提交的要在端口号码列表中正式注册的端口。
端口号码 / 层 名称 注释
1080 socks SOCKS 网络应用程序代理服务
1236 bvcontrol [rmtcfg] Garcilis Packeten 远程配置服务器[a]
1300 h323hostcallsc H.323 电话会议主机电话安全
1433 ms-sql-s Microsoft SQL 服务器
1434 ms-sql-m Microsoft SQL 监视器
1494 ica Citrix ICA 客户
1512 wins Microsoft Windows 互联网名称服务器
1524 ingreslock Ingres 数据库管理系统(DBMS)锁定服务
1525 prospero-np 无特权的 Prospero
1645 datametrics [old-radius] Datametrics / 从前的 radius 项目
1646 sa-msg-port [oldradacct] sa-msg-port / 从前的 radacct 项目
1649 kermit Kermit 文件传输和管理服务
1701 l2tp [l2f] 第2层隧道服务(LT2P) / 第2层转发(L2F)
1718 h323gatedisc H.323 电讯守门装置发现机制
1719 h323gatestat H.323 电讯守门装置状态
1720 h323hostcall H.323 电讯主持电话设置
1758 tftp-mcast 小文件 FTP 组播
1759 mtftp 组播小文件 FTP(MTFTP)
1789 hello Hello 路由器通信端口
1812 radius Radius 拨号验证和记帐服务
1813 radius-acct Radius 记帐
1911 mtp Starlight 网络多媒体传输协议(MTP)
1985 hsrp Cisco 热备用路由器协议
1986 licensedaemon Cisco 许可管理守护进程
1997 gdp-port Cisco 网关发现协议(GDP)
2049 nfs [nfsd] 网络文件系统(NFS)
2102 zephyr-srv Zephyr 通知传输和发送服务器
2103 zephyr-clt Zephyr serv-hm 连接
2104 zephyr-hm Zephyr 主机管理器
2401 cvspserver 并行版本系统(CVS)客户 / 服务器操作
2430/tcp venus 用于 Coda 文件系统(codacon 端口)的 Venus 缓存管理器
2430/udp venus 用于 Coda 文件系统(callback/wbc interface 界面)的 Venus 缓存管理器
2431/tcp venus-se Venus 传输控制协议(TCP)的副作用
2431/udp venus-se Venus 用户数据报协议(UDP)的副作用
2432/udp codasrv Coda 文件系统服务器端口
2433/tcp codasrv-se Coda 文件系统 TCP 副作用
2433/udp codasrv-se Coda 文件系统 UDP SFTP 副作用
2600 hpstgmgr [zebrasrv] HPSTGMGR;Zebra 选路
2601 discp-client [zebra] discp 客户;Zebra 集成的 shell
2602 discp-server [ripd] discp 服务器;选路信息协议守护进程(ripd)
2603 servicemeter [ripngd] 服务计量;用于 IPv6 的 RIP 守护进程
2604 nsc-ccs [ospfd] NSC CCS;开放式短路径优先守护进程(ospfd)
2605 nsc-posa NSC POSA;边界网络协议守护进程(bgpd)
2606 netmon [ospf6d] Dell Netmon;用于 IPv6 的 OSPF 守护进程(ospf6d)
2809 corbaloc 公共对象请求代理体系(CORBA)命名服务定位器
3130 icpv2 互联网缓存协议版本2(v2);被 Squid 代理缓存服务器使用
3306 mysql MySQL 数据库服务
3346 trnsprntproxy Trnsprnt 代理
4011 pxe 执行前环境(PXE)服务
4321 rwhois 远程 Whois(rwhois)服务
4444 krb524 Kerberos 版本5(v5)到版本4(v4)门票转换器
5002 rfe 无射频以太网(RFE)音频广播系统
5308 cfengine 配置引擎(Cfengine)
5999 cvsup [CVSup] CVSup 文件传输和更新工具
6000 x11 [X] X 窗口系统服务
7000 afs3-fileserver Andrew 文件系统(AFS)文件服务器
7001 afs3-callback 用于给缓存管理器回电的 AFS 端口
7002 afs3-prserver AFS 用户和组群数据库
7003 afs3-vlserver AFS 文件卷位置数据库
7004 afs3-kaserver AFS Kerberos 验证服务
7005 afs3-volser AFS 文件卷管理服务器
7006 afs3-errors AFS 错误解释服务
7007 afs3-bos AFS 基本监查进程
7008 afs3-update AFS 服务器到服务器更新器
7009 afs3-rmtsys AFS 远程缓存管理器服务
9876 sd 会话指引器
10080 amanda 高级 Maryland 自动网络磁盘归档器(Amanda)备份服务
11371 pgpkeyserver 良好隐私(PGP) / GNU 隐私卫士(GPG)公钥服务器
11720 h323callsigalt H.323 调用信号交替
13720 bprd Veritas NetBackup 请求守护进程(bprd)
13721 bpdbm Veritas NetBackup 数据库管理器(bpdbm)
13722 bpjava-msvc Veritas NetBackup Java / Microsoft Visual C++ (MSVC) 协议
13724 vnetd Veritas 网络工具
13782 bpcd Vertias NetBackup
13783 vopied Veritas VOPIED 协议
22273 wnn6 [wnn4] 假名/汉字转换系统[c]
26000 quake Quake(以及相关的)多人游戏服务器
26208 wnn6-ds
33434 traceroute Traceroute 网络跟踪工具
注:
a. /etc/services 中的注释如下:端口1236被注册为“bvcontrol”,但是它也被 Gracilis Packeten 远程配置服务器使用。正式名称被列为主要名称,未注册的名称被列为别名。
b. 在 /etc/services 中的注释:端口 2600 到 2606 被 zebra 软件包未经注册而使用。主要名称是被注册的名称,被 zebra 使用的未注册名称被列为别名。
c. /etc/services 文件中的注释:该端口被注册为 wnn6,但是还在 FreeWnn 软件包中使用了未注册的“wnn4”。
表 C-3. 注册的端口
表 C-4显示了一个和数据报传递协议(DDP)有关的端口列表。DDP 在 AppleTalk 网络上被使用。
端口号码 / 层 名称 注释
1/ddp rtmp 路由表管理协议
2/ddp nbp 名称绑定协议
4/ddp echo AppleTalk Echo 协议
6/ddp zip 区块信息协议
表 C-4. 数据报传递协议端口
表 C-5是和 Kerberos 网络验证协议相关的端口列表。在标记的地方,v5 代表 Kerberos 版本5协议。注意,这些端口没有在 IANA 注册。
端口号码 / 层 名称 注释
751 kerberos_master Kerberos 验证
752 passwd_server Kerberos 口令(kpasswd)服务器
754 krb5_prop Kerberos v5 从属传播
760 krbupdate [kreg] Kerberos 注册
1109 kpop Kerberos 邮局协议(KPOP)
2053 knetd Kerberos 多路分用器
2105 eklogin Kerberos v5 加密的远程登录(rlogin)
表 C-5. Kerberos(工程 Athena/MIT)端口
表 C-6是一个未注册的端口列表。这些端口可能被安装在你的红帽企业 Linux 系统上的服务或协议使用,或者它们是在红帽企业 Linux 和运行其它操作系统的机器通信所必需的端口。
端口号码 / 层 名称 注释
15/tcp netstat 网络状态(netstat)
98/tcp linuxconf Linuxconf Linux 管理工具
106 poppassd 邮局协议口令改变守护进程(POPPASSD)
465/tcp smtps 通过安全套接字层的简单邮件传输协议(SMTPS)
616/tcp gii 使用网关的(选路守护进程)互动界面
808 omirr [omirrd] 联机镜像(Omirr)文件镜像服务
871/tcp supfileserv 软件升级协议(SUP)服务器
901/tcp swat Samba 万维网管理工具(SWAT)
953 rndc Berkeley 互联网名称域版本9(BIND 9)远程名称守护进程配置工具
1127 sufiledbg 软件升级协议(SUP)调试
1178/tcp skkserv 简单假名到汉字(SKK)日文输入服务器
1313/tcp xtel 法国 Minitel 文本信息系统
1529/tcp support [prmsd, gnatsd] GNATS 错误跟踪系统
2003/tcp cfinger GNU Finger 服务
2150 ninstall 网络安装服务
2988 afbackup afbackup 客户-服务器备份系统
3128/tcp squid Squid 万维网代理缓存
3455 prsvp RSVP 端口
5432 postgres PostgreSQL 数据库
4557/tcp fax FAX 传输服务(旧服务)
4559/tcp hylafax HylaFAX 客户-服务器协议(新服务)
5232 sgi-dgl SGI 分布式图形库
5354 noclog NOCOL 网络操作中心记录守护进程(noclogd)
5355 hostmon NOCOL 网络操作中心主机监视
5680/tcp canna Canna 日文字符输入界面
6010/tcp x11-ssh-offset 安全 Shell(SSH)X11 转发偏移
6667 ircd 互联网中继聊天守护进程(ircd)
7100/tcp xfs X 字体服务器(XFS)
7666/tcp tircproxy Tircproxy IRC 代理服务
8008 http-alt 超文本传输协议(HTTP)的另一选择
8080 webcache 万维网(WWW)缓存服务
8081 tproxy 透明代理
9100/tcp jetdirect [laserjet, hplj] Hewlett-Packard (HP) JetDirect 网络打印服务
9359 mandelspawn [mandelbrot] 用于 X 窗口系统的并行 Mandelbrot 生成程序
10081 kamanda 使用 Kerberos 的 Amanda 备份服务
10082/tcp amandaidx Amanda 备份服务
10083/tcp amidxtape Amanda 备份服务
20011 isdnlog 综合业务数字网(ISDN)登录系统
20012 vboxd ISDN 音箱守护进程(vboxd)
22305/tcp wnn4_Kr kWnn 韩文输入系统
22289/tcp wnn4_Cn cWnn 中文输入系统
22321/tcp wnn4_Tw tWnn 中文输入系统(台湾)
24554 binkp Binkley TCP/IP Fidonet 邮寄程序守护进程
27374 asp 地址搜索协议
60177 tfido Ifmail FidoNet 兼容邮寄服务
60179 fido FidoNet 电子邮件和新闻网络
-
-
100万并发连接服务器
2017-03-09 17:20:29100万并发连接服务器笔记之准备篇 前言 测试一个非常简单服务器如何达到100万(1M=1024K连接)的并发连接,并且这些连接一旦连接上服务器,就不会断开,一直连着。 环境受限,没有服务器,刚开始都是在...100万并发连接服务器笔记之准备篇
前言
测试一个非常简单服务器如何达到100万(1M=1024K连接)的并发连接,并且这些连接一旦连接上服务器,就不会断开,一直连着。
环境受限,没有服务器,刚开始都是在自己的DELL笔记本上测试,凭借16G内存,和优秀的vmware workstation虚拟机配合,另外还得外借别人虚拟机使用,最终还得搭上两台2G内存的台式机(安装centos),最终才完成1M并发连接任务。- 测试程序也很简陋,一个C语言所写服务器程序,没有任何业务存在,收到请求后发送一些头部,不断开连接
- 测试端程序也是使用C语言所写,发送请求,然后等待接收数据,仅此而已
- 服务器端/测试端内存都受限(8G不够使用),要想完成1024K的目标,需要放弃一些东西,诸如业务不是那么完整
- 一台分配10G内存Centos服务器,两台分配6G内存Centos测试端,两台2G内存Centos测试端
- 假如热心的您可以提供丰富的服务器资源,那就再好不过了。
- 理论上200万的并发连接(IO密集型),加上业务,40G-50G的内存大概能够保证
说明
以前也做过类似的工作,量不大,没记录下来,一些压力测试和调优,随着时间流逝,早已忘记。这次是从零开始,基本上所有过程都会记录,一步一步,每一步都会遇到问题,并且给出相关解决问题的方法,最终完成目标。
为了方便,服务器端程序和客户端测试程序,都是使用C语言,不用像JAVA一样需要预先指定内存,感觉麻烦。使用较为原始的语言来写,可以避免不必要的调优工作。这中间,可能会穿插Java代码的思考方式。可能需要懂点Linux,C,Java,假如您有更好的做法,或者建议,请直接告知,谢谢。
Linux系统
测试端和服务器端都选用较为熟悉的64位Centos 6.4,32位系统最多支持4G内存,太受限。IO密集型应用,对CPU要求不是很高。另外服务器确保安装上gcc,那就可以开工了。
所有端系统一旦安装完之后,默认不做任何设置。服务器端程序
服务器端程序依赖libev框架,需要提前编译,然后存放到相应位置。下面是具体服务器端代码:
点击(此处)折叠或打开
- #include <arpa/inet.h>
- #include <stdlib.h>
- #include <stdio.h>
- #include <string.h>
- #include <fcntl.h>
- #include <errno.h>
- #include <err.h>
-
- #include <unistd.h>
-
- #include "../include/ev.h"
-
- #define HTMLFILE_RESPONSE_HEADER \
- "HTTP/1.1 200 OK\r\n" \
- "Connection: keep-alive\r\n" \
- "Content-Type: text/html; charset=utf-8\r\n" \
- "Transfer-Encoding: chunked\r\n" \
- "\r\n"
- #define HTMLFILE_RESPONSE_FIRST \
- "
div \ ">
点击(此处)折叠或打开
- static int server_port = 8000;
-
- struct ev_loop *loop;
- typedef struct {
- int fd;
- ev_io ev_read;
- } client_t;
-
- ev_io ev_accept;
-
- static int usr_num;
- static void incr_usr_num() {
- usr_num ++;
- printf("online user %d\n", usr_num);
- }
-
- static void dec_usr_num() {
- usr_num --;
-
- printf("~online user %d\n", usr_num);
- }
-
- static void free_res(struct ev_loop *loop, ev_io *ws);
-
- int setnonblock(int fd) {
- int flags = fcntl(fd, F_GETFL);
- if (flags < 0)
- return flags;
-
- flags |= O_NONBLOCK;
- if (fcntl(fd, F_SETFL, flags) < 0)
- return -1;
-
- return 0;
- }
-
- static int format_message(const char *ori_message, char *target_message) {
- return sprintf(target_message, "%X\r\n\r\n", ((int)strlen(ori_message) + 23), ori_message);
- }
-
- static void write_ori(client_t *client, char *msg) {
- if (client == NULL) {
- fprintf(stderr, "the client is NULL !\n");
- return;
- }
-
- write(client->fd, msg, strlen(msg));
- }
-
- static void write_body(client_t *client, char *msg) {
- char body_msg[strlen(msg) + 100];
- format_message(msg, body_msg);
-
- write_ori(client, body_msg);
- }
-
- static void read_cb(struct ev_loop *loop, ev_io *w, int revents) {
- client_t *client = w->data;
- int r = 0;
- char rbuff[1024];
- if (revents & EV_READ) {
- r = read(client->fd, &rbuff, 1024);
- }
-
- if (EV_ERROR & revents) {
- fprintf(stderr, "error event in read\n");
- free_res(loop, w);
- return ;
- }
-
- if (r < 0) {
- fprintf(stderr, "read error\n");
- ev_io_stop(EV_A_ w);
- free_res(loop, w);
- return;
- }
-
- if (r == 0) {
- fprintf(stderr, "client disconnected.\n");
- ev_io_stop(EV_A_ w);
- free_res(loop, w);
- return;
- }
-
- write_ori(client, HTMLFILE_RESPONSE_HEADER);
-
- char target_message[strlen(HTMLFILE_RESPONSE_FIRST) + 20];
- sprintf(target_message, "%X\r\n%s\r\n", (int)strlen(HTMLFILE_RESPONSE_FIRST), HTMLFILE_RESPONSE_FIRST);
-
- write_ori(client, target_message);
- incr_usr_num();
- }
-
- static void accept_cb(struct ev_loop *loop, ev_io *w, int revents) {
- struct sockaddr_in client_addr;
- socklen_t client_len = sizeof(client_addr);
- int client_fd = accept(w->fd, (struct sockaddr *) &client_addr, &client_len);
- if (client_fd == -1) {
- fprintf(stderr, "the client_fd is NULL !\n");
- return;
- }
-
- client_t *client = malloc(sizeof(client_t));
- client->fd = client_fd;
- if (setnonblock(client->fd) < 0)
- err(1, "failed to set client socket to non-blocking");
-
- client->ev_read.data = client;
-
- ev_io_init(&client->ev_read, read_cb, client->fd, EV_READ);
- ev_io_start(loop, &client->ev_read);
- }
-
- int main(int argc, char const *argv[]) {
- int ch;
- while ((ch = getopt(argc, argv, "p:")) != -1) {
- switch (ch) {
- case 'p':
- server_port = atoi(optarg);
- break;
- }
- }
-
- printf("start free -m is \n");
- system("free -m");
- loop = ev_default_loop(0);
- struct sockaddr_in listen_addr;
- int reuseaddr_on = 1;
- int listen_fd = socket(AF_INET, SOCK_STREAM, 0);
- if (listen_fd < 0)
- err(1, "listen failed");
- if (setsockopt(listen_fd, SOL_SOCKET, SO_REUSEADDR, &reuseaddr_on, sizeof(reuseaddr_on)) == -1)
- err(1, "setsockopt failed");
-
- memset(&listen_addr, 0, sizeof(listen_addr));
- listen_addr.sin_family = AF_INET;
- listen_addr.sin_addr.s_addr = INADDR_ANY;
- listen_addr.sin_port = htons(server_port);
-
- if (bind(listen_fd, (struct sockaddr *) &listen_addr, sizeof(listen_addr)) < 0)
- err(1, "bind failed");
- if (listen(listen_fd, 5) < 0)
- err(1, "listen failed");
- if (setnonblock(listen_fd) < 0)
- err(1, "failed to set server socket to non-blocking");
-
- ev_io_init(&ev_accept, accept_cb, listen_fd, EV_READ);
- ev_io_start(loop, &ev_accept);
- ev_loop(loop, 0);
-
- return 0;
- }
-
- static void free_res(struct ev_loop *loop, ev_io *w) {
- dec_usr_num();
- client_t *client = w->data;
- if (client == NULL) {
- fprintf(stderr, "the client is NULL !!!!!!");
- return;
- }
-
- ev_io_stop(loop, &client->ev_read);
-
- close(client->fd);
-
- free(client);
- }
编译
gcc server.c -o server ../include/libev.a -lm运行
./server -p 8000在源码中默认指定了8000端口,可以通过-p进行指定新的端口。 开启了8000端口进行监听请求,http协议处理类似于htmlfile chunked块编码传输。
测试服务器端程序
测试程序使用libevent框架,因其使用简单,提供丰富易用接口,但需要提前下载,手动安装:
wget https://github.com/downloads/libevent/libevent/libevent-2.0.21-stable.tar.gz tar xvf libevent-2.0.21-stable.tar.gz cd libevent-2.0.21-stable ./configure --prefix=/usr make make install
注意make和make install需要root用户。
测试端程序
client1.c 源码:
点击(此处)折叠或打开
- #include <sys/types.h>
- #include <sys/time.h>
- #include <sys/queue.h>
- #include <stdlib.h>
- #include <err.h>
- #include <event.h>
- #include <evhttp.h>
- #include <unistd.h>
- #include <stdio.h>
- #include <sys/socket.h>
- #include <netinet/in.h>
- #include <time.h>
- #include <pthread.h>
-
- #define BUFSIZE 4096
- #define NUMCONNS 62000
- #define SERVERADDR "192.168.190.133"
- #define SERVERPORT 8000
- #define SLEEP_MS 10
-
- char buf[BUFSIZE];
-
- int bytes_recvd = 0;
- int chunks_recvd = 0;
- int closed = 0;
- int connected = 0;
-
- void chunkcb(struct evhttp_request *req, void *arg) {
- int s = evbuffer_remove( req->input_buffer, &buf, BUFSIZE );
- bytes_recvd += s;
- chunks_recvd++;
- if (connected >= NUMCONNS && chunks_recvd % 10000 == 0)
- printf(">Chunks: %d\tBytes: %d\tClosed: %d\n", chunks_recvd, bytes_recvd, closed);
- }
-
- void reqcb(struct evhttp_request *req, void *arg) {
- closed++;
- }
-
- int main(int argc, char **argv) {
- event_init();
- struct evhttp *evhttp_connection;
- struct evhttp_request *evhttp_request;
- char path[32]; // eg: "/test/123"
- int i;
- for (i = 1; i <= NUMCONNS; i++) {
- evhttp_connection = evhttp_connection_new(SERVERADDR, SERVERPORT);
- evhttp_set_timeout(evhttp_connection, 864000); // 10 day timeout
- evhttp_request = evhttp_request_new(reqcb, NULL);
- evhttp_request->chunk_cb = chunkcb;
- sprintf(&path, "/test/%d", ++connected);
- if (i % 100 == 0) printf("Req: %s\t->\t%s\n", SERVERADDR, &path);
- evhttp_make_request( evhttp_connection, evhttp_request, EVHTTP_REQ_GET, path );
- evhttp_connection_set_timeout(evhttp_request->evcon, 864000);
- event_loop( EVLOOP_NONBLOCK );
- if ( connected % 200 == 0 )
- printf("\nChunks: %d\tBytes: %d\tClosed: %d\n", chunks_recvd, bytes_recvd, closed);
- usleep(SLEEP_MS * 1000);
- }
-
- event_dispatch();
- return 0;
- }
备注:这部分代码参考了A Million-user Comet Application with Mochiweb, Part 3 ,根据需要有所修改。
编译
gcc -o client1 client1.c -levent
运行
./client1
可能在64位系统会遇到找不到libevent-2.0.so.5情况,需要建立一个软连接
ln -s /usr/lib/libevent-2.0.so.5 /lib64/libevent-2.0.so.5
即可自动连接IP地址为192.168.190.133:8000的服务器端应用。
第一个遇到的问题:文件句柄受限
测试端程序输出
看看测试端程序client1输出的错误信息:
Chunks: 798 Bytes: 402990 Closed: 0 Req: 192.168.190.133 -/test/900 Req: 192.168.190.133 -/test/1000 Chunks: 998 Bytes: 503990 Closed: 0 [warn] socket: Too many open files [warn] socket: Too many open files [warn] socket: Too many open files
服务器端程序输出
服务器端最后一条日志为
online user 1018
两边都遇到了文件句柄打开的情况。
在服务器端查看已经连接,并且端口号为8000的所有连接数量:netstat -nat|grep -i "8000"|wc -l 1019
但与服务器端输出数量对不上,增加所有已经建立连接的选项:
netstat -nat|grep -i "8000"|grep ESTABLISHED|wc -l 1018
那么剩下的一条数据到底是什么呢?
netstat -nat|grep -i "8000"|grep -v ESTABLISHED tcp 0 0 0.0.0.0:8000 0.0.0.0:* LISTEN
也就是server.c监听的端口,数量上对的上。
在测试服务器端,查看测试进程打开的文件句柄数量
lsof -n|grep client1|wc -l 1032
再次执行
ulimit -n 1024
也是就是client1应用程序共打开了1032个文件句柄,而不是1024,为什么?
把当前进程所有打开的文件句柄保存到文件中,慢慢研究 lsof -n|grep client1 > testconnfinfo.txt导出的文件可以参考: https://gist.github.com/yongboy/5260773
除了第一行,我特意添加上供友善阅读的头部列定义,也就是1032行信息,但是需要注意头部:COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME client1 3088 yongboy cwd DIR 253,0 4096 800747 /home/yongboy/workspace/c_socket.io_server/test client1 3088 yongboy rtd DIR 253,0 4096 2 /test_conn client1 3088 yongboy txt REG 253,0 9697 799991 /home/yongboy/workspace/c_socket.io_server/test/test_conn_1 client1 3088 yongboy mem REG 253,0 156872 50404 /lib64/ld-2.12.so client1 3088 yongboy mem REG 253,0 1922152 78887 /lib64/libc-2.12.so client1 3088 yongboy mem REG 253,0 145720 76555 /lib64/libpthread-2.12.so client1 3088 yongboy mem REG 253,0 47064 69491 /lib64/librt-2.12.so client1 3088 yongboy mem REG 253,0 968730 26292 /usr/lib/libevent-2.0.so.5.1.9 client1 3088 yongboy 0u CHR 136,2 0t0 5 /dev/pts/2 client1 3088 yongboy 1u CHR 136,2 0t0 5 /dev/pts/2 client1 3088 yongboy 2u CHR 136,2 0t0 5 /dev/pts/2 client1 3088 yongboy 3u REG 0,9 0 4032 anon_inode client1 3088 yongboy 4u unix 0xffff88007c82f3c0 0t0 79883 socket client1 3088 yongboy 5u unix 0xffff880037c34380 0t0 79884 socket client1 3088 yongboy 6u IPv4 79885 0t0 TCP 192.168.190.134:58693->192.168.190.133:irdmi (ESTABLISHED) client1 3088 yongboy 7u IPv4 79889 0t0 TCP 192.168.190.134:58694->192.168.190.133:irdmi (ESTABLISHED) client1 3088 yongboy 8u IPv4 79891 0t0 TCP 192.168.190.134:58695->192.168.190.133:irdmi (ESTABLISHED) client1 3088 yongboy 9u IPv4 79893 0t0 TCP 192.168.190.134:58696->192.168.190.133:irdmi (ESTABLISHED)
可以看到文件句柄是从0u开始,0u上面的8个(5个mem + 3个启动)进程,1032 - 8 = 1024个文件句柄,这样就和系统限制的值吻合了。
root用户编辑/etc/security/limits.conf文件添加:
* soft nofile 1048576 * hard nofile 1048576
- soft是一个警告值,而hard则是一个真正意义的阀值,超过就会报错。
- soft 指的是当前系统生效的设置值。hard 表明系统中所能设定的最大值
- nofile - 打开文件的最大数目
- 星号表示针对所有用户,若仅针对某个用户登录ID,请替换星号
注意:
1024K x 1024 = 1048576K = 1M,1百万多一点。备注:测试端和服务器端都需要作此设置,保存退出,然后reboot即可生效。
第一个问题,就这样克服了。再次运行 /client1测试程序,就不会出现受打开文件句柄的限制。但大概在测试端打开对外28200个端口时,会出现程序异常,直接退出。
段错误
这个也是程序没有处理端口不够用的异常,但可以通过增加端口进行解决。
备注: 但测试端单机最多只能打开6万多个连接,是一个问题,如何克服,下一篇解决此问题,并且还会遇到文件句柄的受限问题。
100万并发连接服务器笔记之处理端口数量受限问题
第二个遇到的问题:端口数量受限
一般来说,单独对外提供请求的服务不用考虑端口数量问题,监听某一个端口即可。但是向提供代理服务器,就不得不考虑端口数量受限问题了。当前的1M并发连接测试,也需要在客户端突破6万可用端口的限制。
单机端口上限为65536
端口为16进制,那么2的16次方值为65536,在linux系统里面,1024以下端口都是超级管理员用户(如root)才可以使用,普通用户只能使用大于1024的端口值。
系统提供了默认的端口范围:cat /proc/sys/net/ipv4/iplocalport_range
32768 61000大概也就是共61000-32768=28232个端口可以使用,单个IP对外只能发送28232个TCP请求。
以管理员身份,把端口的范围区间增到最大:echo "1024 65535"> /proc/sys/net/ipv4/iplocalport_range
现在有64511个端口可用.
以上做法只是临时,系统下次重启,会还原。 更为稳妥的做法是修改/etc/sysctl.conf文件,增加一行内容net.ipv4.iplocalport_range = 1024 65535
保存,然后使之生效:
sysctl -p
现在可以使用的端口达到64510个(假设系统所有运行的服务器是没有占用大于1024的端口的,较为纯净的centos系统可以做到),要想达到50万请求,还得再想办法。
增加IP地址
一般假设本机网卡名称为 eth0,那么手动再添加几个虚拟的IP:
ifconfig eth0:1 192.168.190.151
ifconfig eth0:2 192.168.190.152 ......或者偷懒一些:
for i in `seq 1 9`; do ifconfig eth0:$i 192.168.190.15$i up ; done
这些虚拟的IP地址,一旦重启,或者 service network restart 就会丢失。
为了模拟较为真实环境,在测试端,手动再次添加9个vmware虚拟机网卡,每一个网卡固定一个IP地址,这样省去每次重启都要重新设置的麻烦。
192.168.190.134
192.168.190.143
192.168.190.144
192.168.190.145
192.168.190.146
192.168.190.147
192.168.190.148
192.168.190.149
192.168.190.150
192.168.190.151在server服务器端,手动添加桥接网卡和NAT方式网卡
192.168.190.230 192.168.190.240 10.95.20.250
要求测试端和服务器端彼此双方都是可以ping通。
网络四元组/网络五元组
四元组是指的是
{源IP地址,源端口,目的IP地址,目的端口}
五元组指的是(多了协议)
{源IP地址,目的IP地址,协议号,源端口,目的端口}
在《UNIX网络编程卷1:套接字联网API(第3版)》一书中,是这样解释:一个TCP连接的套接字对(socket pari)是一个定义该连接的两个端点的四元组,即本地IP地址、本地TCP端口号、外地IP地址、外地TCP端口号。套接字对唯一标识一个网络上的每个TCP连接。
......
标识每个端点的两个值(IP地址和端口号)通常称为一个套接字。以下以四元组为准。在测试端四元组可以这样认为:
{本机IP地址,本机端口,目的IP地址,目的端口}
请求的IP地址和目的端口基本上是固定的,不会变化,那么只能从本机IP地址和本机端口上考虑,端口的范围一旦指定了,那么增加IP地址,可以增加对外发出的请求数量。假设系统可以使用的端口范围已经如上所设,那么可以使用的大致端口为64000个,系统添加了10个IP地址,那么可以对外发出的数量为 64000 * 10 = 640000,数量很可观。
只有{源IP地址,源端口}确定对外TCP请求数量
经测试,四元组里面,只有{源IP地址,源端口}才能够确定对外发出请求的数量,跟{目的IP地址,目的端口}无关。
测试环境
在server端,并且启动./server两次,分别绑定8000端口和9000端口
./server -p 8000 ./server -p 9000
本机IP、端口绑定测试程序
这里写一个简单的测试绑定本机IP地址和指定端口的客户端测试程序。?
点击(此处)折叠或打开
- #include <sys/types.h>
- #include <sys/time.h>
- #include <sys/queue.h>
- #include <stdlib.h>
- #include <err.h>
- #include <event.h>
- #include <evhttp.h>
- #include <unistd.h>
- #include <stdio.h>
- #include <string.h>
- #include <sys/socket.h>
- #include <netinet/in.h>
- #include <time.h>
- #include <pthread.h>
- #include <errno.h>
-
- #define BUFSIZE 4096
- #define SLEEP_MS 10
-
- char buf[BUFSIZE];
-
- int bytes_recvd = 0;
- int chunks_recvd = 0;
-
- void chunkcb(struct evhttp_request *req, void *arg) {
- int s = evbuffer_remove( req->input_buffer, &buf, BUFSIZE );
- bytes_recvd += s;
- chunks_recvd++;
- printf(">Chunks: %d\tBytes: %d\n", chunks_recvd, bytes_recvd);
- }
-
- void reqcb(struct evhttp_request *req, void *arg) {
- fprintf(stderr, ">Now closed\n");
- exit(-1);
- }
-
- void err_cb(int err){
- fprintf(stderr, "setup failed(errno = %d): %s", errno, strerror(errno));
- }
-
- int main(int argc, char **argv) {
- char server_ip[16] = "";
- int server_port = 0;
-
- char local_ip[16] = "";
- int local_port = 0;
-
- int ch;
- while ((ch = getopt(argc, argv, "h:p:c:o:")) != -1) {
- switch (ch) {
- case 'h':
- printf("remote host is %s\n", optarg);
- strncpy(server_ip, optarg, 15);
- break;
- case 'p':
- printf("remote port is %s\n", optarg);
- server_port = atoi(optarg);
- break;
- case 'c':
- printf("local ip is %s\n", optarg);
- strncpy(local_ip, optarg, 15);
- break;
- case 'o':
- printf("local port is %s\n", optarg);
- local_port = atoi(optarg);
-
- break;
- }
- }
-
- event_init();
- event_set_fatal_callback(err_cb);
- struct evhttp *evhttp_connection;
- struct evhttp_request *evhttp_request;
- char path[32];
-
- evhttp_connection = evhttp_connection_new(server_ip, server_port);
- evhttp_connection_set_local_address(evhttp_connection, local_ip);
- evhttp_connection_set_local_port(evhttp_connection, local_port);
- evhttp_set_timeout(evhttp_connection, 864000); // 10 day timeout
- evhttp_request = evhttp_request_new(reqcb, NULL);
- evhttp_request->chunk_cb = chunkcb;
- sprintf(&path, "/test/%d", local_port);
-
- evhttp_make_request( evhttp_connection, evhttp_request, EVHTTP_REQ_GET, path );
- evhttp_connection_set_timeout(evhttp_request->evcon, 864000);
- event_loop( EVLOOP_NONBLOCK );
-
- usleep(SLEEP_MS * 10);
-
- event_dispatch();
-
- return 0;
- }
可以看到libevent-*/include/event2/http.h内置了对绑定本地IP地址的支持:
/** sets the ip address from which http connections are made */ void evhttp_connection_set_local_address(struct evhttp_connection *evcon, const char *address);
不用担心端口,系统自动自动随机挑选,除非需要特别指定:
/** sets the local port from which http connections are made */ void evhttp_connection_set_local_port(struct evhttp_connection *evcon, ev_uint16_t port);
编译
gcc -o client3 client3.c -levent
client3运行参数为
- -h 远程主机IP地址
- -p 远程主机端口
- -c 本机指定的IP地址(必须可用)
- -o 本机指定的端口(必须可用)
测试用例,本机指定同样的IP地址和端口,但远程主机和IP不一样.
在一个测试端打开一个终端窗口1,切换到 client3对应位置./client3 -h 192.168.190.230 -p 8000 -c 192.168.190.148 -o 4000
输出为
remote host is 192.168.190.230 remote port is 8000 local ip is 192.168.190.148 local port is 4000 >Chunks: 1 Bytes: 505
再打开一个测试端终端窗口2,执行:
./client3 -h 192.168.190.240 -p 9000 -c 192.168.190.148 -o 4000
窗口2程序,无法执行,自动退出。
接着在窗口2终端继续输入:./client3 -h 192.168.190.230 -p 8000 -c 192.168.190.148 -o 4001
注意,和窗口1相比,仅仅改变了端口号为4001。但执行结果,和端口1输出一模一样,在等待接收数据,没有自动退出。
剩下的,无论怎么组合,怎么折腾,只要一对{本机IP,本机端口}被占用,也就意味着对应一个具体的文件句柄,那么其它程序将不能够再次使用。
Java怎么绑定本地IP地址?
java绑定就很简单,但有些限制,不够灵活,单纯从源码中看不出来,api doc可以告诉我们一些事情。 打开JDKAPI1_6zhCN.CHM,查看InetSocketAddress类的构造函数说明:
public InetSocketAddress(InetAddress addr, int port)
根据 IP 地址和端口号创建套接字地址。 有效端口值介于 0 和 65535 之间。端口号 zero 允许系统在 bind 操作中挑选暂时的端口。null 地址将分配通配符 地址。
参数:
addr - IP 地址
port - 端口号
抛出:
IllegalArgumentException - 如果 port 参数超出有效端口值的指定范围。public InetSocketAddress(String hostname, int port)
根据主机名和端口号创建套接字地址。
尝试将主机名解析为 InetAddress。如果尝试失败,则将地址标记为未解析。如果存在安全管理器,则将主机名用作参数调用其 checkConnect 方法,以检查解析它的权限。这可能会导致 SecurityException 异常。
有效端口值介于 0 和 65535 之间。端口号 zero 允许系统在 bind 操作中挑选暂时的端口。
参数: hostname - 主机名
port - 端口号
抛出:
IllegalArgumentException - 如果 port 参数超出有效端口值的范围,或者主机名参数为 null。
SecurityException - 如果存在安全管理器,但拒绝解析主机名的权限。
另请参见:
isUnresolved()InetSocketAddress的两个构造函数都支持,看情况使用。注意int port传递值为0,即可做到系统随机挑选端口。追踪一下源代码,发现最终调用
private native void socketBind(InetAddress address, int port) throws IOException;
如何查看socketBind的原始C代码,我就不清楚了,您若知晓,希望指教一下。 构造一个InetSocketAddress对象:
SocketAddress localSocketAddr = new InetSocketAddress("192.168.190.143", 0);
然后传递给需要位置即可。诸如使用netty连接到某个服务器上,在connect时指定远方地址,以及本机地址
ChannelFuture connect(SocketAddress remoteAddress, SocketAddress localAddress) Attempts a new connection with the specified remoteAddress and the specified localAddress.
Netty 客户端连接API见: http://docs.jboss.org/netty/3.2/api/org/jboss/netty/bootstrap/ClientBootstrap.html
Linux支持绑定本机IP、端口原理
说是原理,有些牵强,因为linux C提供了如何绑定函数,框架或者高级语言再怎么封装,在linux平台下面,需要这么调用:
struct sockaddr_in clnt_addr; .... clnt_addr.sin_family = AF_INET; clnt_addr.sin_addr.s_addr = INADDR_ANY; //绑定本机IP地址 clnt_addr.sin_port = htons(33333); //绑定本机端口 if (bind(sockfd, (struct sockaddr *) &clnt_addr, sizeof(clnt_addr)) < 0) error("ERROR on binding"); if (connect(sockfd,(struct sockaddr *) &serv_addr,sizeof(serv_addr)) < 0) error("ERROR connecting"); .......
构造一个clnt_addr结构体,本地IP或者端口赋值,在connect之前,先bind,就这么简单。
有关端口的更详细解释,请参考《UNIX网络编程卷1:套接字联网API(第3版)》2.9节 端口号部分。有关端口的问题,到此为止,下一篇,回到测试。
100万并发连接服务器笔记之测试端就绪
重新编写测试端程序
测试端程序需要增加绑定本机IP和本地端口的功能,以尽可能的向外发出更多的tcp请求。需要对client1.c重构,增加参数传递。 下面是client2.c的代码?
点击(此处)折叠或打开
- #include <sys/types.h>
- #include <sys/time.h>
- #include <sys/queue.h>
- #include <stdlib.h>
- #include <err.h>
- #include <event.h>
- #include <evhttp.h>
- #include <unistd.h>
- #include <stdio.h>
- #include <string.h>
- #include <sys/socket.h>
- #include <netinet/in.h>
- #include <time.h>
- #include <pthread.h>
-
- #define BUFSIZE 4096
- #define SLEEP_MS 10
-
- char buf[BUFSIZE];
-
- int bytes_recvd = 0;
- int chunks_recvd = 0;
- int closed = 0;
- int connected = 0;
-
- static char ip_array[300] = "192.168.190.134,192.168.190.143,192.168.190.144,192.168.190.145,192.168.190.146,192.168.190.147,192.168.190.148,192.168.190.149,192.168.190.151,192.168.190.152";
- static char server_ip[16] = "192.168.190.133";
- static int server_port = 8000;
- static int max_conns = 62000;
-
- // called per chunk received
- void chunkcb(struct evhttp_request *req, void *arg) {
- int s = evbuffer_remove( req->input_buffer, &buf, BUFSIZE );
- bytes_recvd += s;
- chunks_recvd++;
- if (connected >= max_conns && chunks_recvd % 10000 == 0)
- printf(">Chunks: %d\tBytes: %d\tClosed: %d\n", chunks_recvd, bytes_recvd, closed);
- }
-
- // gets called when request completes
- void reqcb(struct evhttp_request *req, void *arg) {
- closed++;
- }
-
- int main(int argc, char **argv) {
- int ch;
- while ((ch = getopt(argc, argv, "o:h:p:m:")) != -1) {
- switch (ch) {
- case 'h':
- printf("host is %s\n", optarg);
- strncpy(server_ip, optarg, 15);
- break;
- case 'p':
- printf("port is %s\n", optarg);
- server_port = atoi(optarg);
- /*strncpy(server_ip, optarg, 15);*/
- break;
- case 'm':
- printf("max_conns is %s\n", optarg);
- max_conns = atoi(optarg);
- /*strncpy(server_ip, optarg, 15);*/
- break;
- case 'o':
- printf("ori_ips is %s\n", optarg);
-
- strncpy(ip_array, optarg, 300 - 1);
- break;
- }
- }
-
- event_init();
- struct evhttp *evhttp_connection;
- struct evhttp_request *evhttp_request;
- char path[32];
- int i;
-
- char delims[] = ",";
- char *ori_ip = NULL;
- ori_ip = strtok( ip_array, delims );
- while (ori_ip != NULL) {
- for (i = 1; i <= max_conns; i++) {
- evhttp_connection = evhttp_connection_new(server_ip, server_port);
- evhttp_connection_set_local_address(evhttp_connection, ori_ip);
- evhttp_set_timeout(evhttp_connection, 864000); // 10 day timeout
- evhttp_request = evhttp_request_new(reqcb, NULL);
- evhttp_request->chunk_cb = chunkcb;
- sprintf(&path, "/test/%d", ++connected);
-
- if (i % 1000 == 0)
- printf("Req: %s\t->\t%s\n", ori_ip, &path);
-
- evhttp_make_request( evhttp_connection, evhttp_request, EVHTTP_REQ_GET, path );
- evhttp_connection_set_timeout(evhttp_request->evcon, 864000);
- event_loop( EVLOOP_NONBLOCK );
-
- if ( connected % 1000 == 0 )
- printf("\nChunks: %d\tBytes: %d\tClosed: %d\n", chunks_recvd, bytes_recvd, closed);
-
- usleep(SLEEP_MS * 10);
- }
-
- ori_ip = strtok( NULL, delims );
- }
-
- event_dispatch();
-
- return 0;
- }
若不指定端口,系统会随机挑选没有使用到的端口,可以节省些心力。
编译:
gcc -o client2 client2.c -levent
参数解释
- -h 要连接的服务器IP地址
- -p 要连接的服务器端口
- -m 本机IP地址需要绑定的随机端口数量
- -o 本机所有可用的IP地址列表,注意所有IP地址都应该可用
运行:
./client2 -h 192.168.190.230 -p 8000 -m 64000 -o 192.168.190.134,192.168.190.143,192.168.190.144,192.168.190.145,192.168.190.146,192.168.190.147,192.168.190.148,192.168.190.149,192.168.190.150,192.168.190.151
太长了,每次执行都要粘贴过去,直接放在一个client2.sh文件中,执行就很简单方便多了。
#!/bin/sh ./client2 -h 192.168.190.230 -p 8000 -m 64000 -o 192.168.190.134,192.168.190.143,192.168.190.144,192.168.190.145,192.168.190.146,192.168.190.147,192.168.190.148,192.168.190.149,192.168.190.150,192.168.190.151
保存,赋值可运行:
chmod +x client2.sh
启动测试:
sh client2.sh
第三个遇到的问题:fs.file-max的问题
测试端程序client2.c在发出的数量大于某个值(大概为40万时)是,通过dmesg命令查看会得到大量警告信息:
[warn] socket: Too many open files in system
此时,就需要检查/proc/sys/fs/file-max参数了。
查看一下系统对fs.file-max的说明
/proc/sys/fs/file-max This file defines a system-wide limit on the number of open files for all processes. (See also setrlimit(2), which can be used by a process to set the per-process limit, RLIMIT_NOFILE, on the number of files it may open.) If you get lots of error messages about running out of file handles, try increasing this value: echo 100000 > /proc/sys/fs/file-max The kernel constant NR_OPEN imposes an upper limit on the value that may be placed in file-max. If you increase /proc/sys/fs/file-max, be sure to increase /proc/sys/fs/inode-max to 3-4 times the new value of /proc/sys/fs/file-max, or you will run out of inodes.
file-max表示系统所有进程最多允许同时打开所有的文件句柄数,系统级硬限制。Linux系统在启动时根据系统硬件资源状况计算出来的最佳的最大同时打开文件数限制,如果没有特殊需要,不用修改,除非打开的文件句柄数超过此值。
在为测试机分配4G内存时,对应的fs.file-max值为386562,很显然打开的文件句柄很受限,38万个左右。 很显然,无论是测试端还是服务端,都应该将此值调大些,一定要大于等于/etc/security/limits.conf送所设置的soft nofile和soft nofile值。
注意ulimit -n,仅仅设置当前shell以及由它启动的进程的资源限制。备注:以上参数,具有包含和被包含的关系。
当前会话修改,可以这么做:
echo 1048576 > /proc/sys/fs/file-max
但系统重启后消失。
永久修改,要添加到 /etc/sysctl.conf 文件中:
fs.file-max = 1048576
保存并使之生效:
sysctl -p
再测,就不会出现此问题了。
一台6G内存机器测试机,分配7个网卡,可以做到不占用虚拟内存,对外发出64000 * 7 = 448000个对外持久请求。要完成100万的持久连接,还得再想办法。
最终测试端组成如下:
- 两台物理机器各自一个网卡,每个发出64000个请求
- 两个6G左右的centos测试端机器(绑定7个桥接或NAT连接)各自发出64000*7 = 448000请求
- 共使用了16个网卡(物理网卡+虚拟网卡)
- 1M ≈ 1024K ≈ 1024000 = (64000) + (64000) + (64000*7) + (64000*7)
- 共耗费16G内存,16个网卡(物理+虚拟),四台测试机
备注:
下面就要完成1M持久连接的目标,但在服务端还会遇到最后一个问题。
100万并发连接服务器笔记之1M并发连接目标达成
第四个遇到的问题:tcp_mem
在服务端,连接达到一定数量,诸如50W时,有些隐藏很深的问题,就不断的抛出来。 通过查看dmesg命令查看,发现大量TCP: too many of orphaned sockets错误,也很正常,下面到了需要调整tcp socket参数的时候了。
第一个需要调整的是tcp_rmem,即TCP读取缓冲区,单位为字节,查看默认值
cat /proc/sys/net/ipv4/tcp_rmem 4096 87380 4161536
默认值为87380bit ≈ 86K,最小为4096bit=4K,最大值为4064K。
第二个需要调整的是tcp_wmem,发送缓冲区,单位是字节,默认值
cat /proc/sys/net/ipv4/tcp_wmem 4096 16384 4161536
解释同上
第三个需要调整的tcp_mem,调整TCP的内存大小,其单位是页,1页等于4096字节。系统默认值:
cat /proc/sys/net/ipv4/tcp_mem 932448 1243264 1864896
tcp_mem(3个INTEGER变量):low, pressure, high
- low:当TCP使用了低于该值的内存页面数时,TCP不会考虑释放内存。
- pressure:当TCP使用了超过该值的内存页面数量时,TCP试图稳定其内存使用,进入pressure模式,当内存消耗低于low值时则退出pressure状态。
- high:允许所有tcp sockets用于排队缓冲数据报的页面量,当内存占用超过此值,系统拒绝分配socket,后台日志输出“TCP: too many of orphaned sockets”。
一般情况下这些值是在系统启动时根据系统内存数量计算得到的。 根据当前tcp_mem最大内存页面数是1864896,当内存为(1864896*4)/1024K=7284.75M时,系统将无法为新的socket连接分配内存,即TCP连接将被拒绝。
实际测试环境中,据观察大概在99万个连接左右的时候(零头不算),进程被杀死,触发out of socket memory错误(dmesg命令查看获得)。每一个连接大致占用7.5K内存(下面给出计算方式),大致可算的此时内存占用情况(990000 * 7.5 / 1024K = 7251M)。
这样和tcp_mem最大页面值数量比较吻合,因此此值也需要修改。
三个TCP调整语句为:
echo "net.ipv4.tcp_mem = 786432 2097152 3145728">> /etc/sysctl.conf echo "net.ipv4.tcp_rmem = 4096 4096 16777216">> /etc/sysctl.conf echo "net.ipv4.tcp_wmem = 4096 4096 16777216">> /etc/sysctl.conf
备注: 为了节省内存,设置tcp读、写缓冲区都为4K大小,tcp_mem三个值分别为3G 8G 16G,tcp_rmem和tcp_wmem最大值也是16G。
目标达成
经过若干次的尝试,最终达到目标,1024000个持久连接。1024000数字是怎么得来的呢,两台物理机器各自发出64000个请求,两个配置为6G左右的centos测试端机器(绑定7个桥接或NAT连接)各自发出640007 = 448000。也就是 1024000 = (64000) + (64000) + (640007) + (64000*7), 共使用了16个网卡(物理网卡+虚拟网卡)。
终端输出...... online user 1023990 online user 1023991 online user 1023992 online user 1023993 online user 1023994 online user 1023995 online user 1023996 online user 1023997 online user 1023998 online user 1023999 online user 1024000
在线用户目标达到1024000个!
服务器状态信息
服务启动时内存占用:
total used free shared buffers cached Mem: 10442 271 10171 0 22 78 -/+ buffers/cache: 171 10271 Swap: 8127 0 8127
系统达到1024000个连接后的内存情况(执行三次 free -m 命令,获取三次结果):
total used free shared buffers cached Mem: 10442 7781 2661 0 22 78 -/+ buffers/cache: 7680 2762 Swap: 8127 0 8127 total used free shared buffers cached Mem: 10442 7793 2649 0 22 78 -/+ buffers/cache: 7692 2750 Swap: 8127 0 8127 total used free shared buffers cached Mem: 10442 7804 2638 0 22 79 -/+ buffers/cache: 7702 2740 Swap: 8127 0 8127
这三次内存使用分别是7680,7692,7702,这次不取平均值,取一个中等偏上的值,定为7701M。那么程序接收1024000个连接,共消耗了 7701M-171M = 7530M内存, 7530M*1024K / 1024000 = 7.53K, 每一个连接消耗内存在为7.5K左右,这和在连接达到512000时所计算较为吻合。虚拟机运行Centos内存占用,不太稳定,但一般相差不大,以上数值,仅供参考。
执行top -p 某刻输出信息:
top - 17:23:17 up 18 min, 4 users, load average: 0.33, 0.12, 0.11 Tasks: 1 total, 1 running, 0 sleeping, 0 stopped, 0 zombie Cpu(s): 0.2%us, 6.3%sy, 0.0%ni, 80.2%id, 0.0%wa, 4.5%hi, 8.8%si, 0.0%st Mem: 10693580k total, 6479980k used, 4213600k free, 22916k buffers Swap: 8323056k total, 0k used, 8323056k free, 80360k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 2924 yongboy 20 0 82776 74m 508 R 51.3 0.7 3:53.95 server
执行vmstate:
vmstat procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu----- r b swpd free buff cache si so bi bo in cs us sy id wa st 0 0 0 2725572 23008 80360 0 0 21 2 1012 894 0 9 89 2 0
获取当前socket连接状态统计信息:
cat /proc/net/sockstat sockets: used 1024380 TCP: inuse 1024009 orphan 0 tw 0 alloc 1024014 mem 2 UDP: inuse 11 mem 1 UDPLITE: inuse 0 RAW: inuse 0 FRAG: inuse 0 memory 0
获取当前系统打开的文件句柄:
sysctl -a | grep file fs.file-nr = 1025216 0 1048576 fs.file-max = 1048576
此时任何类似于下面查询操作都是一个慢,等待若干时间还不见得执行完毕。
netstat -nat|grep -i "8000"|grep ESTABLISHED|wc -l netstat -n | grep -i "8000" | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
以上两个命令在二三十分钟过去了,还未执行完毕,只好停止。
小结
本次从头到尾的测试,所需要有的linux系统需要调整的参数也就是那么几个,汇总一下:
echo "yongboy soft nofile 1048576" >> /etc/security/limits.conf echo "yongboy hard nofile 1048576" >> /etc/security/limits.conf echo "fs.file-max = 1048576" >> /etc/sysctl.conf echo "net.ipv4.ip_local_port_range = 1024 65535" >> /etc/sysctl.conf echo "net.ipv4.tcp_mem = 786432 2097152 3145728" >> /etc/sysctl.conf echo "net.ipv4.tcp_rmem = 4096 4096 16777216" >> /etc/sysctl.conf echo "net.ipv4.tcp_wmem = 4096 4096 16777216" >> /etc/sysctl.conf
其它没有调整的参数,仅仅因为它们暂时对本次测试没有带来什么影响,实际环境中需要结合需要调整类似于SO_KEEPALIVE、tcpmax_orphans等大量参数。
本文代表一次实践,不足之处,欢迎批评指正。
-
防火墙IPTABLES模拟实现内网主机ping通外网主机,实现ssh连接跳转
2020-09-16 08:50:59t nat -A POSTROUTING -s 172.16.10.0/24 -j SNAT --to-source 192.168.6.146 #在PREROUTING链上,对来自外网192.168.6.0/24的ip主机对PC2发起的ssh连接请求进行连接跳转,跳转到内网ip:172.16.10.1对应22号端口 ...课时12: 防火墙IPTABLES综合实验
12.1 实验要求
拓扑(文字版):
A(.1)–局域网(172.16.10.0/24)–(eth0:0接口:10.254)B(eth0接口:6.146)–互联网(192.168.6.0/24)–(6.128)C
要求:
1.在A上ping172.16.20.2通
2.在C上ssh root@172.16.20.1跳转到局域网中的A主机
提示:
-
所有的虚拟机使用NAT模式
-
A网关指向172.16.10.254
-
B作为网关,配置NAT策略
-
B可以使用网卡别名配置多个地址,ifconfig eth0:0 x.x.x.x natmask x.x.x.x
-
B是Centos 6.x系统
12.2 实验准备
- 准备3台虚拟机,一台内网客户机PC1,一台做NAT转发的虚拟机PC2(Centos6.9),一台外网的虚拟机PC3
- 拓扑如下:
12.3 PC1网络配置
- 配置网络
[root@localhost ~]vim /etc/sysconfig/network-scripts/ifcfg-eth0 BOOTPROTO=static #手动配置 IPADDR=172.16.10.1 #内网ip NETMASK=255.255.255.0 #掩码 GATEWAY=172.16.10.254 #默认网关 DNS=114.114.114.114 [root@localhost ~]service network restart #文件保存后 重启服务
由下图可知,PC1的网卡配置成功
[root@localhost ~]ifconfig
由下图可知:可以PC1可以在内网中ping通PC2
[root@localhost ~]ping 172.16.10.254 #ping PC2
12.4 PC2网卡和防火墙配置
- 配置网卡
[root@lin ~]# ifconfig eth0:0 172.16.10.254 netmask 255.255.255.0 up #网卡配置 [root@lin ~]# ifconfig eth0 Link encap:Ethernet HWaddr 00:0C:29:DD:00:64 inet addr:192.168.6.146 Bcast:192.168.6.255 Mask:255.255.255.0 inet6 addr: fe80::20c:29ff:fedd:64/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:7701 errors:0 dropped:0 overruns:0 frame:0 TX packets:167 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:476055 (464.8 KiB) TX bytes:18437 (18.0 KiB) #网卡已经启动使用 eth0:0 Link encap:Ethernet HWaddr 00:0C:29:DD:00:64 inet addr:172.16.10.254 Bcast:172.16.10.255 Mask:255.255.255.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
- 配置防火墙
#清除防火墙规则 [root@lin ~]# iptables -F #调整内核参数,开启ip路由转发功能 [root@lin ~]# echo 1 >/proc/sys/net/ipv4/ip_forward [root@lin ~]# cat /proc/sys/net/ipv4/ip_forward 1 #nat设置 #在POSTROUTING链上:PC2对来自网卡接口eth0:0的ip地址进行nat转换,数据包源地址改为PC2的在网卡接口eth0的地址 [root@lin ~]# iptables -t nat -A POSTROUTING -s 172.16.10.0/24 -j SNAT --to-source 192.168.6.146 #在PREROUTING链上,对来自外网192.168.6.0/24的ip主机对PC2发起的ssh连接请求进行连接跳转,跳转到内网ip:172.16.10.1对应22号端口 [root@lin ~]# iptables -t nat -A PREROUTING -d 192.168.6.146 -s 192.168.6.0/24 -p tcp --dport 22 -j DNAT --to 172.16.10.1:22 #在FORWARD链上 ,允许目的地址为内网ip:172.16.10.1的tcp包通过 [root@lin ~]# iptables -A FORWARD -d 172.16.10.1 -p tcp --dport 22 -j ACCEPT
12.5 测试
1. ping
由下图可知:内网PC1ping通外网PC3
#在PC1:172.16.10.1测试 [root@localhost ~]ping 192.168.6.128
2. ssh
由下图可知:外网PC3 向PC2(192.168.6.146)发起ssh连接,连接成功后查看网卡接口地址,发现是PC3的ip地址(172.16.10.1),说明PC2顺利完成SSH跳转,登录到PC1。
#在PC3:192.168.6.128测试 [root@localhost ~]ssh root@192.168.6.146 #向PC2发起ssh连接请求 root@192.168.6.146's password: #此处输入的是PC1:172.16.10.1的root密码 [root@localhost ~]iconfig
-
-
单台服务器百万并发长连接支持
2016-07-18 14:31:52由于我们需要构建大量的客户端,而我们知道,在一台系统上,连接到一个服务时的本地端口是有限的。由于端口是16位整数,也就只能是0到 65535,而0到1023是预留端口,所以能分配的只是1024到65534,也就是64511个。也... -
100万并发连接服务器笔记之1M并发连接目标达成
2016-03-30 10:58:40100万并发连接服务器笔记之1M并发连接目标达成 第四个遇到的问题:tcp_mem 在服务端,连接达到一定数量,诸如50W时,有些隐藏很深的问题,就不断的抛出来。 通过查看dmesg命令查看,发现大量TCP: too many of ... -
docker虚拟化技术文档(自己总结最全版本)
2019-03-19 12:00:11为了让服务能够被远程工具连接,配置/etc/ssh/sshd_config中监听的端口和ip地址 vim /etc/ssh/sshd_config Port 22 (这个可以不设置,默认22端口) PermitRootLogin yes PasswordAuthentication yes (这里发现... -
分布式任务调度与计算框架:PowerJob 快速开始(本地IDE版) 02
2022-04-18 14:22:50server.port=8081 spring.jpa.open-in-view=false ########### powerjob-worker 配置 ########### # akka 工作端口,可选,默认 27777 powerjob.worker.akka-port=27777 # 接入应用名称,用于分组隔离,推荐填写 本... -
使用Docker虚拟化出一个Centos7操作系统(140、141机器上执行)
2018-08-27 20:59:07为了让服务能够被远程工具连接,配置/etc/ssh/sshd_config中监听的端口和ip地址 vim /etc/ssh/sshd_config Port 22 (这个可以不设置,默认22端口) PermitRootLogin yes PasswordAuthentication yes ... -
sql server 2008打开1433端口的疑问
2012-11-19 19:15:48[img=http://img.my.csdn.net/uploads/201211/19/1353323734_7701.jpg][/img]按照网上的流程做了 但是netstat -an还是看不到1433 求解答啊~ 弄了两天了 要气死了 本人菜鸟刚接触这个 顺便问下怎么查看... -
docker的常用命令汇总
2018-11-07 17:26:08--net="bridge": 指定容器的网络连接类型,支持 bridge/host/none/container: 四种类型; --link=[]: 添加链接到另一个容器; --expose=[]: 开放一个端口或一组端口; 实例 使用... -
【转】Wireshark网络抓包(四)——工具
2021-04-27 17:52:54TCP或UDP:不同IPv4地址的主机之间建立的各种TCP或UDP,可以发现某台主机是否打开过多连接,是否与稀奇古怪的端口号建立了连接。 4)端点(Endpoints) 此工具用来观察第二、三、四层端点(Ethernet端点、IP端点、... -
树莓派4b安装ubuntu20.04并设置7寸触摸屏
2021-01-06 16:00:57拔出tf存储卡,连接电脑,打开boot目录下的config.txt,在config.txt最下面添加如下代码: disable_overscan=1 hdmi_force_hotplug=1 # 强制树莓派使用HDMI端口,即使树莓派没有检测到显示器连接仍然使用HDMI端口。... -
常见内网穿透工具使用总结
2021-11-05 01:02:21##bridge bridge_type=tcp bridge_port=443 # 修改连接端口 bridge_ip=0.0.0.0 启动 #Mac/Linux ./nps test|start|stop|restart|status 测试配置文件|启动|停止|重启|状态 #Windows nps.exe test|start|stop|... -
常见内网穿透工具
2021-11-25 10:32:31##bridgebridge_type=tcpbridge_port=443 # 修改连接端口bridge_ip=0.0.0.0 启动 #Mac/Linux./nps test|start|stop|restart|status 测试配置文件|启动|停止|重启|状态#Windowsnps.exe test|start|stop|restart... -
推荐 4 款超好用的内网穿透工具,总有一款适合你
2021-10-22 00:40:54##bridge bridge_type=tcp bridge_port=443 # 修改连接端口 bridge_ip=0.0.0.0 启动 #Mac/Linux ./nps test|start|stop|restart|status 测试配置文件|启动|停止|重启|状态 #Windows nps.exe test|start|stop|... -
推荐几款超好用的内网穿透工具,总有一款适合你!
2021-11-13 01:09:30##bridge bridge_type=tcp bridge_port=443 # 修改连接端口 bridge_ip=0.0.0.0 启动 #Mac/Linux ./nps test|start|stop|restart|status 测试配置文件|启动|停止|重启|状态 #Windows nps.exe test|start|stop|... -
skynet学习笔记:debug console用法
2022-01-24 20:27:04这里的示例是监听 8000 端口,你可以修改成别的端口。 出于安全考虑,调试控制台只能监听本地地址 127.0.0.1。 所以如果需要远程使用,需要先登录到本机,然后再连接。 可以用 telnet 或 nc 登录调试控制台。启动后... -
积累的hvv和重保的面试题(1)
2022-03-06 10:45:05ip、子域名、cms、端口及存在的服务、弱口令、网站目录结构、域名的whois信息、服务器系统版本、中间件有没有已知的漏洞 漏洞扫描 开始检测漏洞,如XSS,XSRF,sql注入,代码执行,命令执行,越权访问,目录读取,任意... -
渗透测试面试合集
2022-04-01 00:04:00ip、子域名、cms、端口及存在的服务、弱口令、网站目录结构、域名的whois信息、服务器系统版本、中间件有没有已知的漏洞 漏洞扫描 开始检测漏洞,如XSS,XSRF,sql注入,代码执行,命令执行,越权访问,目录读取,任意... -
护网初面整理
2022-04-18 16:13:357701 freak88,Weblogic(基于javaee架构的中间件)的默认端口 80 HTTP 8080 常用代理端口 3.SQL注入 原理:SQL注入攻击指的是通过构建特殊的输入作为参数传入web应用程序,而这些输入大都是SQL语法里的一些组合,... -
工欲善其事,必先利其器之—命令行下使用jdb调试android应用(MAC环境)
2018-08-10 14:13:35先关闭Eclipse,Android Studio这类的IDE,否则jdb attach到应用时出现如下异常,jdb连接中断 java.io.IOException: handshake failed - connection prematurally closed at ... -
Hazelcast 配置教程
2020-12-28 21:48:58dev dev-pass http://localhost:8080/mancenter 7701 0 224.2.2.3 54327 127.0.0.1 127.0.0.1 1 0 0 NONE 0 25 com.hazelcast.map.merge.LatestUpdateMapMergePolicy 如果你看到上面的配置内容有点蒙圈,建议你先看... -
微机原理知识点总结10-12
2022-01-14 21:23:3012):ADC0809(8位逐次逼近)、AD574A(12位逐次逼近)、AD7701(16位) 第十二章 一、概念 1):编码键盘(内部检测按下的键,回传类似ASCII码) 2):非编码键盘(只提供按键的行列信息) 二、知识点 1):键盘... -
Linux常用命令汇总
2021-12-09 11:09:16下载文件并以指定的文件名保存文件:wget -O taglist.zip http://www.vim.org/scripts/download_script.php?src_id=7701 。 ftp 命令 ftp 命令和 sftp 命令的用法基本相似。 连接 ftp 服务器并下载多个文件: $ ftp... -
Linux命令
2022-03-13 17:40:51tail -n 2000 consoleMsg.log | more 分页查看最后2000行日志 netstat netstat -tlnp 所有端口 netstat -tlnp|grep 8080 查询8080 查看端口号占用状态(需要时root权限,否则执行命令报错) df 命令是linux系统以磁盘... -
项目管理——Nginx
2021-08-27 15:55:443.2 反向代理 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外...