那些动不动就说单机几万并发的到底是在说什么?
发布于 1 年前 作者 wldlzt 4551 次浏览 来自 问答

有个疑问,现在测压,很容易就看到有人说什么单机并发数千几万,但实际上我不管用阿里云的PTS还是用loadrunner来测试,单机能50并发就已经算很不错了,那些动不动就说几万并发的到底是在说什么?

17 回复

你说的50并发又是什么? 几万的我也保留意见。

@captainblue2013 就50个并发请求

50?那淘宝得买多少服务器啊

用jmater做过测试 针对单个接口的并发,4cpu,8g的2千左右吧,单台50W这太牛逼,没遇到过

@eyblog 抱歉,我想要的是弄明白里头的关系而不是反问,正常服务器的处理性能与CPU内存带宽都有关,兄台要有更明确的结果可否跟我说下。谢谢

@blackjack 是50个并发不是50W,你测试时是否有通过公网测压,每次请求的数据量是多大?带宽如何?1000并发我认为应该就得组建2台以上的服务器群了,这看法欢迎反驳~~~

如果你指的是web访问的并发,基本上单机2w是上限了,这个值是nginx提供静态资源访问的上限值,如果是apache只有1w,我用play框架做的动态服务,用jmeter压下来,1200已经是上限了,压到2000会延迟到7秒钟才能响应。听说用nodejs可以达到几千,但是我没有具体压过,不知道可以达到多少。有些用spring写的API,听说单机只能50,我不知道他们怎么做到这么低的,tomcat默认连接数是200啊?

@winglight 这里我忘了说个参数了抱歉,我指的50并发都是服务器处理请求的时间在300毫秒内的,理论上要多少并发都行,但延迟超过2秒意义确实不大…

@winglight 歪下楼,你知道nginx有什么比较好的优化方案么?

那就对了,别人说的压测成千上万只是性能测试,而且也不考虑响应时间,只测试请求成功率。。。如果算上响应时间,那肯定都很低。。因为响应时间和程序逻辑、硬件配置、数据量、网络、带宽等等都有很大关系。。如果程序复杂的话,哪怕没并发300ms也响应不了。。。。

以后讲并发必须在给定响应时间以内谈并发,不提响应时间的并发就是耍流氓

@eyblog 确实如此

@yakczh 这个我疏忽了,我原以为大家在说并发都会考虑这些参数的。如果只是测试请求成功率,于我而言意义不大

只说并发没有处理时长是没有意义,因为可以把请求放队列里慢慢处理,一般我们讲 QPS=1000(每秒能够处理1000 请求),更有意义

@wldlzt 我们实际做压力测试都是按一秒内的处理能力来估算并发数,所以50并发确实很低了。另外,nginx如果只是用于反向代理到应用服务器,一般瓶颈都不在nginx这里,多加几台应用服务器的集群比较有效,如果的确在nginx有瓶颈了,可以考虑在nginx前再增设LVS

把控制台的日志全关了,耗时,再优化下查询

回到顶部