精华内容
下载资源
问答
  • LoadRunner压力测试结果分析探讨
  • 关于接口压力测试的一些基本内容,不是特别全面,主要包含脚本及结果数据
  • webbench网站压力测试结果

    千次阅读 2013-10-13 19:39:52
    使用webbench做压力测试结果: 经过压力测试,60秒钟最多只能接受600并发。后面nginx就会出现502报错了。是由于5m带宽给跑满了。后期还得增加带宽。

    使用webbench做压力测试结果:





    经过压力测试,60秒钟最多只能接受600并发。后面nginx就会出现502报错了。是由于5m带宽给跑满了。后期还得增加带宽。


    展开全文
  • ceph压力测试结果

    2014-12-13 15:54:27
    ceph分布式对象存储测试,常用命令以及ceph操作使用
  • 通过一台服务器去压一个webservice服务器,缓存服务器是用微软开源的sharecache,两个压力测试结果相差不大,内部是自己调整了服务端配置参数,和程序缓存和相关处理后的结果,结果如下: 通过用2服务器作为...
    本文是自己的一个测试记录,没有其他技术开发参考价值,作为一个自己的记录。通过一台服务器去压一个webservice服务器,缓存服务器是用微软开源的sharecache,两个压力测试结果相差不大,内部是自己调整了服务端配置参数,和程序缓存和相关处理后的结果,结果如下:
     
    通过用2服务器作为客户端,压122服务器,sharecache在123 服务器。
     
    利用缓存:
    压力测试在200个并发下,利用政策分组缓存和政策缓存后,服务器大概有38.8QPS,235个线程,222M内存,201M虚拟内存,95%的CPU占用率。每秒插入数据库大约11.24个订单。
     
    服务端内部耗时
    其中经过测试,查询一个政策都需要查询两次查政策方法,比如查询CKG-PEK,会查询CKG-PEK的政策,和查询***-PEK的政策,其中高压下,CKG-PEK的政策耗时280毫秒,***-PEK耗时300毫秒左右,政策分组缓存获取耗时530毫秒左右(比从数据库直接查询还慢
    出票耗时20.7秒
    生成订单耗时3.3秒
    查政策耗时4秒
     
    客户端耗时
    出票耗时21.5秒
    生成订单耗时3.6秒
    查询政策耗时4秒
     
    客户端记录的请求量
    每秒发出了38个请求
    每秒返回了23.35个政策
    每秒返回了11.6个订单生成记录
    每秒返回了3.68个出票成功记录
    -----------------------------------------------------------------------------------------------------------
    不利用缓存:
    压力测试在200个并发下,服务器大概有40.5个QPS,233个线程,233M内存,213M虚拟内存,93%的CPU占用率。每秒插入数据库大约11.8个订单。
     
    服务端内部耗时
    高压下内部查询政策方法耗时180毫秒左右,分组获取大约15毫秒左右(比从缓存读取快
    出票耗时20.5秒
    生成订单耗时2.7秒
    查询政策耗时3.1秒
     
    客户端耗时:
    出票耗时21.5秒左右
    生成订单耗时3秒左右
    查询政策耗时3.1秒左右
     
    客户端记录的请求量:
    每秒发出了46个请求
    每秒返回了23.81个政策
    每秒返回了10.98个订单生成记录
    每秒返回了3.91个出票成功记录
     
    如有转载,请注明来自:http://lawson.cnblogs.com/

    转载于:https://www.cnblogs.com/Lawson/archive/2012/07/08/2581527.html

    展开全文
  • MySQL5.0.67 100W条数据压力测试结果,小内存模式测试:1、测试环境:自己笔记本:Intel core2 T7300 CPU,3G内存,250G/5400硬盘MySQL配置为最小内存的配置,即my-small.ini复制后只修改其连接数为500:set-...

    MySQL5.0.67 100W条数据压力测试结果,小内存模式测试:

    1、测试环境:

    自己笔记本:Intel core2 T7300 CPU,3G内存,250G/5400硬盘

    MySQL配置为最小内存的配置,即my-small.ini复制后只修改其连接数为500:

    set-variable=max_connections=500,实际上没有用到500,只用了201个

    2、测试目的:

    需求用例:通过唯一ID查找单个内容,和通过name批量查询,此次只测试唯一ID查询。

    特点:不能使用缓存,数据量大,可能不止100W(总文件容量可能超过50GB),并且随机性很强,使用缓存命中率比较低,不合适使用缓存。

    测试目的是有100W的数据,比较小文件储存和数据库储存那个性能更好。

    小文件储存通过一致性hash 算法,分文件夹储存数目不超过1k,后面在放出小文件读取性能测试。

    3、表结构:

    CREATE TABLE `user` (

    `id` int(11) NOT NULL,

    `name` varchar(64) NOT NULL,

    `password` varchar(64) default NULL,

    `attr1` varchar(64) default NULL,

    `attr2` varchar(65) default NULL,

    `attr3` varchar(66) default NULL,

    `attr4` varchar(67) default NULL,

    `attr5` varchar(68) default NULL,

    `attr6` varchar(69) default NULL,

    `attr7` varchar(70) default NULL,

    `attr8` varchar(71) default NULL,

    `attr9` varchar(72) default NULL,

    `attr10` varchar(73) default NULL,

    PRIMARY KEY  (`id`),

    UNIQUE KEY `id_index` USING BTREE (`id`),

    FULLTEXT KEY `name_index` (`name`)

    ) ENGINE=MyISAM DEFAULT CHARSET=gbk;

    表创建了ID的唯一索引,name的fulltext索引。

    4、写文件测试:

    启用1个连接,用PreparedStatement批量插入,每1000条执行并提交,attr1- attr10每列数据为attr1+-+36位UUID,共42个字符,估计100W数据大概500M,实际生成后也是500多M,索引大概140M

    测试代码如下:

    public static void createData() {

    Db db = new Db();

    String sql = "insert into user values(?,?,?,?,?,?,?,?,?,?,?,?,?)";

    Count.start();

    Connection conn = null;

    try {

    conn = db.getConnection();

    conn.setAutoCommit(false);

    PreparedStatement st = conn.prepareStatement(sql);

    //1008655

    for (int i = 0; i < 2000000; i++) {

    String uuid = UUID.randomUUID().toString();

    st.setInt(1, i+100);

    st.setString(2, "Name-" + uuid);

    st.setString(2, "Name-" + uuid);

    st.setString(3, "Password-" + uuid);

    st.setString(4, "Attr1-" + uuid);

    st.setString(5, "Attr2-" + uuid);

    st.setString(6, "Attr3-" + uuid);

    st.setString(7, "Attr4-" + uuid);

    st.setString(8, "Attr5-" + uuid);

    st.setString(9, "Attr6-" + uuid);

    st.setString(10, "Attr7-" + uuid);

    st.setString(11, "Attr8-" + uuid);

    st.setString(12, "Attr9-" + uuid);

    st.setString(13, "Attr10-" + uuid);

    st.addBatch();

    if (i % 1000 == 0) {

    st.executeBatch();

    conn.commit();

    }

    Count.increment();

    }

    } catch (SQLException e) {

    e.printStackTrace();

    } finally {

    db.close(conn);

    }

    }

    测试结果:

    记录时间累加数增加数/分钟增加数/秒

    Sat Jan 15 20:43:46 CST 201100

    Sat Jan 15 20:44:46 CST 201100

    Sat Jan 15 20:45:32 CST 201100

    Sat Jan 15 20:46:03 CST 201100

    Sat Jan 15 20:47:03 CST 20111470001470002450

    Sat Jan 15 20:48:03 CST 2011245000980001633

    Sat Jan 15 20:49:03 CST 201128900044000733

    Sat Jan 15 20:50:03 CST 201131500026000433

    Sat Jan 15 20:51:03 CST 201134100026000433

    Sat Jan 15 20:52:03 CST 201136300022000367

    Sat Jan 15 20:53:03 CST 201137900016000267

    Sat Jan 15 20:54:03 CST 201139800019000317

    Sat Jan 15 20:55:03 CST 201141600018000300

    Sat Jan 15 20:56:03 CST 201143300017000283

    Sat Jan 15 20:57:03 CST 201144600013000217

    Sat Jan 15 20:58:04 CST 201146000014000233

    Sat Jan 15 20:59:05 CST 201147300013000217

    Sat Jan 15 21:00:05 CST 201148600013000217

    Sat Jan 15 21:01:05 CST 20114950009000150

    Sat Jan 15 21:02:05 CST 201150500010000167

    Sat Jan 15 21:03:05 CST 201151900014000233

    Sat Jan 15 21:04:05 CST 20115280009000150

    Sat Jan 15 21:05:05 CST 201154000012000200

    Sat Jan 15 21:06:05 CST 201155100011000183

    Sat Jan 15 21:07:05 CST 201156300012000200

    Sat Jan 15 21:08:05 CST 201157500012000200

    Sat Jan 15 21:09:05 CST 201158500010000167

    Sat Jan 15 21:10:05 CST 201159600011000183

    Sat Jan 15 21:11:05 CST 201160700011000183

    Sat Jan 15 21:12:05 CST 20116160009000150

    Sat Jan 15 21:13:05 CST 20116230007000117

    Sat Jan 15 21:14:05 CST 20116300007000117

    Sat Jan 15 21:15:05 CST 201164000010000167

    Sat Jan 15 21:16:05 CST 201165000010000167

    Sat Jan 15 21:17:05 CST 20116590009000150

    Sat Jan 15 21:18:05 CST 201166900010000167

    Sat Jan 15 21:19:05 CST 20116770008000133

    Sat Jan 15 21:20:05 CST 20116830006000100

    Sat Jan 15 21:21:05 CST 201169300010000167

    Sat Jan 15 21:22:05 CST 20117020009000150

    Sat Jan 15 21:23:05 CST 20117110009000150

    Sat Jan 15 21:24:05 CST 20117190008000133

    Sat Jan 15 21:25:05 CST 20117250006000100

    Sat Jan 15 21:26:05 CST 20117340009000150

    Sat Jan 15 21:27:05 CST 20117430009000150

    Sat Jan 15 21:28:05 CST 20117520009000150

    Sat Jan 15 21:29:05 CST 20117610009000150

    Sat Jan 15 21:30:05 CST 2011766000500083

    Sat Jan 15 21:31:06 CST 20117740008000133

    Sat Jan 15 21:32:06 CST 20117810007000117

    Sat Jan 15 21:33:06 CST 20117890008000133

    Sat Jan 15 21:34:06 CST 20117970008000133

    Sat Jan 15 21:35:06 CST 20118050008000133

    Sat Jan 15 21:36:06 CST 2011809000400067

    Sat Jan 15 21:37:06 CST 20118170008000133

    Sat Jan 15 21:38:06 CST 20118230006000100

    Sat Jan 15 21:39:06 CST 20118300007000117

    Sat Jan 15 21:40:06 CST 20118380008000133

    Sat Jan 15 21:41:06 CST 2011843000500083

    Sat Jan 15 21:42:06 CST 20118490006000100

    Sat Jan 15 21:43:06 CST 20118570008000133

    Sat Jan 15 21:44:06 CST 20118650008000133

    Sat Jan 15 21:45:06 CST 20118720007000117

    Sat Jan 15 21:46:06 CST 20118790007000117

    Sat Jan 15 21:47:06 CST 2011884000500083

    Sat Jan 15 21:48:06 CST 20118910007000117

    Sat Jan 15 21:49:06 CST 20118980007000117

    Sat Jan 15 21:50:06 CST 20119060008000133

    Sat Jan 15 21:51:06 CST 20119130007000117

    Sat Jan 15 21:52:06 CST 2011917000400067

    Sat Jan 15 21:53:06 CST 20119230006000100

    Sat Jan 15 21:54:06 CST 20119300007000117

    Sat Jan 15 21:55:06 CST 20119360006000100

    Sat Jan 15 21:56:06 CST 20119440008000133

    Sat Jan 15 21:57:06 CST 20119500006000100

    Sat Jan 15 21:58:08 CST 2011955000500083

    Sat Jan 15 21:59:08 CST 20119620007000117

    Sat Jan 15 22:00:08 CST 20119680006000100

    Sat Jan 15 22:01:08 CST 20119740006000100

    Sat Jan 15 22:02:08 CST 20119810007000117

    Sat Jan 15 22:03:08 CST 2011986000500083

    Sat Jan 15 22:04:08 CST 20119920006000100

    Sat Jan 15 22:05:08 CST 20119980006000100

    Sat Jan 15 22:06:08 CST 20111003000500083

    Sat Jan 15 22:07:08 CST 20111008000500083

    通过表格可以看到,随着数据量的增加,插入速度明显降低。

    5、查询测试:

    测试代码中,启动200个线程,每个线程建立一个连接,不关闭重复利用,每次查询创建一个PreparedStatement使用完毕后释放,每200ms执行一次查询,测试只通过ID查询,id随机生成0-1000000之间的数字。

    测试代码:

    import java.util.Random;

    public class MysqlTest implements Runnable {

    private int sleepTimes = 200;

    private static int ths = 200;

    private Random random = new Random();

    private int max = 1000000;

    String sql = "SELECT id ,name,password FROM user where id=?";

    /**

    * @param args

    */

    public static void main(String[] args) {

    Count.start();

    Thread[] ts = new Thread[ths];

    for (int i = 0; i < ths; i++) {

    ts[i] = new Thread(new MysqlTest(), "test-" + i);

    System.out.println("创建线程:" + i);

    }

    for (int i = 0; i < ths; i++) {

    ts[i].start();

    System.out.println("启动线程:" + ts[i].getName());

    }

    }

    @Override

    public void run() {

    while (true) {

    query();

    try {

    Thread.sleep(sleepTimes);

    } catch (InterruptedException e) {

    e.printStackTrace();

    }

    }

    }

    DbQuery db = new DbQuery();

    private void query() {

    String id = String.valueOf(random.nextInt(max));

    db.query(sql, id);

    Count.increment();

    }

    }

    测试结果:

    记录时间                                        累加数增加数/分钟增加数/秒

    Sat Jan 15 23:07:18 CST 20110

    Sat Jan 15 23:08:18 CST 20111426014260238

    Sat Jan 15 23:09:18 CST 20112942115161253

    Sat Jan 15 23:10:18 CST 20114558516164269

    Sat Jan 15 23:11:18 CST 20116337017785296

    Sat Jan 15 23:12:18 CST 20118452021150353

    Sat Jan 15 23:13:18 CST 201111524430724512

    Sat Jan 15 23:14:18 CST 201115513439890665

    Sat Jan 15 23:15:18 CST 201119459739463658

    此次测试时间比较短,但可以看出来,随着时间其查询速度有所增加,测试中硬盘一直在读,CPU占用大概在10%-20%之间,偶尔会20%-30%。

    本次测试目的是尽可能不缓存数据的情况下,看能达到如何的效果。

    此次测试并不完整合合理,并不能说明什么问题,但求高人指点迷境。

    展开全文
  • 在设置压力测试场景时,添加聚合报告,在执行压力测试后,可以查看压力测试结果。添加方式:测试计划–> 右击线程组 --> 添加 --> 监听器 -->聚合报告。 二、聚合报告显示 Label:表示请求的名称,...

    一、添加聚合报告

    在设置压力测试场景时,添加聚合报告,在执行压力测试后,可以查看压力测试的结果。添加方式:测试计划–> 右击线程组 --> 添加 --> 监听器 -->聚合报告。
    在这里插入图片描述

    二、聚合报告显示

    在这里插入图片描述
    Label:表示请求的名称,也就是添加请求时设置的Name;
    Sample:表示对应的Label在这次测试中一共发送的请求数;
    Average:平均响应时间,单位为毫秒;
    Median:中位数,所有请求中排在中间的,表示50%的用户响应时间小于这个值;
    90%Line:90%用户响应时间的线,表示90%用户响应时间小于这个值;
    95%Line:95%用户响应时间的线,表示95%用户响应时间小于这个值;
    99%Line:99%用户响应时间的线,表示99%用户响应时间小于这个值;
    Min:最小响应时间;
    Max:最大响应时间;
    Error%:出现错误的请求数百分比,即:出现错误的请求数/请求总数百分比值。
    Throughput:吞吐量,服务器在一定时间范围内处理的请求数,通常代表每秒/每分钟/每小时完成的请求数(RPS–Request Per Second),后面带着单位。
    Receive KB/sec:每秒从服务器接收的数据量;
    Sent KB/sec:每秒从客户端发送的数据量。

    三、聚合报告保存

    点击下方的“Save Table Data”,可将当前的聚合报告结果保存到文件中。
    在这里插入图片描述

    展开全文
  • 自己的机器+虚拟机做测试 简单看下结果,接口里面访问mysql获取数据输出 自己虚拟机什么的都挂着所以不是非常严格的相同环境但是...结论:很是不错,暴力压力测试时候程序依然能良好访问 nginx + laravel +mysql ...
  • 1、使用Assertion对结果进行简单的分类 响应断言:通常是用于对每一个request sampler进行额外验证的工具 响应时间断言:规定请求的响应时间不能超过多少毫秒 1000毫秒=1s 文件大小断言:单位bytes,可以暂时不用考虑...
  • ab压力测试 1. 请求路径: abs -n 10000 -c 100 http:// -n 总请求数 -c 线程数/并发数 2. 结果参数解析,如下图: 其中,Failed request 的结果分为 连接失败,接收失败,响应长度不一致,异常。 3. ab和Jmeter的...
  • 虚拟呼叫中心运营管理平台压力测试结果压力测试服务器配置:Dell 1950VM 配置:硬件:Intel(R) Xeon(R) CPUL5335@ 2.00GHz,虚拟独占4线程CPU内存:3G硬盘3.5 寸笔记本SATA 500G 硬盘操作系统:CentOS release 5.5 ...
  • 1、测试脚本编写完成后,在监听器种中添加你要生成的报告路径 例:我写的文件名叫jmeter-report,在这个文件下生成jtl后缀名的文件 注:文件夹必须不存在 2、执行测试计划,执行结束发现我们的路径下生成了一个...
  • ceph压力测试结果总结

    2018-03-06 09:42:00
    万兆网速的ceph分布式存储单虚拟机下的带宽和iops测试结果:  带宽:  写:700-850MB  读:800-900MB  iops:  写:15000-20000  读:45000-55000 转载于:...
  • 比特币现金压力测试结果:处理210万笔交易 费用不增反降 根据BCH压力测试网站称,本次“压力测试”是由比特币现金主网及其服务社区驱动的测试。该测试旨在24小时内处理“数百万笔最低费用交易”,以证明比特币现金...
  • 测试说明:模拟100个用户,对服务器发起总共1000次请求。 测试命令: ab -n 1000 -c 100 https://xxx.xxx.xxx/ 测试报告如下图: apache的版本信息 This is ApacheBench, Version 2.3 <$Revision: 1843412 $>...
  • LR压力测试结果分析探讨 ZT 压力测试 报告分析 (有兴趣的朋友一起探讨一下压力测试 后的分析!图没有上传,有兴趣的朋友可以发mail给我!) 分析原则: 1.具体问题具体分析(这是由于不同的应用 ...
  • 做完之后会结果进行统计分析。因为统计的内容比较多,都是通过shell命令行进行操作。于是编写了一个简单的shell脚本。 具体脚本内容如下: #!/bin/bash CASENUM=0 #定义了一个全局变量passnum(){ echo "=========...
  • 1、压力测试是通过聚合报告查看结果 右键添加-监听器-聚合报告 把所有数据写到一个文件里面去 需要关注几个数据由: Average:平均响应时间——默认情况下单个Request的平均响应时间,当使用了Transaction ...
  • ab(apache bench)是apache下的一个工具,主要用于对web站点做压力测试,实验结果:[java] view plain copy[dev@web ~]$ ab -c 20 -n 50000 http://192.168.1.210/ This is ApacheBench, Version 2.3...
  • 1、往ConcurrentHashMap中连续写100W条数据花了2000毫秒,从这100W条数据中查询花了1毫秒 2、往ConcurrentHashMap中连续写500W条数据花了18420毫秒...以上结果表示ConcurrentHashMap在于写的瓶颈,读没有压力   ...
  • 目录 什么是Jmeter接口测试? 怎么做Jmeter接口测试? 什么是Jmeter压力测试? 怎么做Jmeter压力测试?...Jmeter,是Apache组织开发的基于Java的压力测试工具,是一个开源软件,它可以用于对服务.
  • Apache软件基金会(ASF)是一家总部位于美国的非...但是在网络很多网友反馈Jmeter的测试结果不准确,下面我们主要聊一下不准确的原因。 Jmeter做性能或压力测试,首先要建立一个线程组,如果需要事务在线程组内再添...
  • LR压力测试结果分析

    2012-03-06 12:10:00
    压力测试报告分析 (有兴趣的朋友一起探讨一下压力测试后的分析!图没有上传,有兴趣的朋友可以发mail给我!)分析原则: 1.具体问题具体分析(这是由于不同的应用系统,不同的测试目的,不同的性能关注点) 2.查找...
  • apache ab压力测试结果分析

    千次阅读 2014-04-18 11:38:46
    AB测试,200个请求,20个并发.这样的测试强度,CPU占了70-80%,w3p占用了70多M内存,本想多测几次,看看它的内存会不会涨上去,没 有测试机器没办法,开发机要干活.我估计CPU就有问题了,性能有好些个地方还需要优化. 顺便把...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,589
精华内容 1,435
关键字:

压力测试结果