locust的使用
Posted kummer9056
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了locust的使用相关的知识,希望对你有一定的参考价值。
一、简介
Locust是一款使用Python编写的压力测试工具,本篇总结会介绍在实际测试过程中遇到的问题
https://www.locust.io/
使用Locust的原因是因为可以模拟的用户数量可以通过添加硬件来增长,相对于jmeter来说配置更加方便。
二、需求描述
项目采用node+redis+oracle的模式,需要测试出单台服务器的性能瓶颈。
三、实际测试
环境的搭建:服务器上只需要安装好Python2.7及以上的版本,然后通过pip安装locust就完成了搭建。
1、 pip安装(python的包管理工具,没有pip则不能安装第三方库)python有两个主流的包管理工具easy_install.py和pip,easy_install.py是安装python的时候默认安装的,而pip仅以zip文件的形式保存的python目录中,需要我们手动的安装
【命令】:E:pythonScriptspip.exe
这里的路径为你安装的python路径,找到安装目录中Scripts文件夹下pip文件即可安装pip(这里已经安装好了)
2、 gevent库的安装
【命令】: E:pythonScriptspip.exe install gevent
3、 flask库的安装
【命令】:E:pythonScriptspip.exe install flask
注:如果不知道版本号可以直接安装flask包,系统会安装不同版本的包(不建议使用)
4、 request库的安装
【命令】:E:pythonScriptspip.exe install requests==2.18.1
注:安装库的时候若不知道版本号,可以直接输入命令E:pythonScriptspip.exe install requests== 从报错信息中查看所有的版本号(建议安装最新的版本)
5、 msgpack-python库的安装
【命令】:E:pythonScriptspip.exe install msgpack-python==0.4.8
6、 six库的安装
【命令】:E:pythonScriptspip.exe install six==1.11.0
7、 pyzmq库的安装
【命令】:E:pythonScriptspip.exe install pyzmq
8、 locust的安装(最后一步)
【命令】:E:pythonScriptspip.exe install locustio
脚本编写:根据需求编写好python脚本,放到服务器上如 locust1.py。
脚本运行:通常使用的是主从模式来运行脚本,这样能够方便进程多开。
打开python27目录,输入命令:
cd /d E:Python27locust-master
locust -f locust1.py --master
该命令运行后会生成一个主进程进行管理,主进程只需要一个。
locust -f locu.py --slave
该命令运行后会有一个子进程启动,根据需要可以多次运行就会开启多个子进程,子进程用来模拟用户数量。
如果需要多进程就要打开多个窗口开进程:
以上命令运行后或默认开启8089 端口,通过浏览器访问本地8089端口就能进入web界进行控制。
访问地址: http://localhost:8089,slave 就是开启的子进程数量。
如果不同的机器,加后缀主机master的IP:
locust -f ../Python27/load_test1.py --slave --master-host=*ip
3.用户数量的详细解释
web界面的user 数量表示并发数,也就是每次访问的并发连接数。实践的时候用户数量是300,表示每次访问有300个用户同时访问,吞吐量能达到2000/s,说明在一秒的时间内服务器响应了大约7次,那么300的用户耗费的时间就是140ms左右。
4.用户数量与slvae关系
用户数量是300,slave为3,那么每个slave会平均分配发送的用户量100,与jmerter分布式不一样。
五、最终测试结果
服务器配置:CPU 8核 内存16G
承受最大业务量900万次请求数,占用内存12G,占用磁盘空间23G。
redis与业务量关系 80万请求数占用1G redis内存
磁盘与业务量关系 80万请求数占用2G 磁盘空间
附录:
locust -f ../locust-master/load_test.py --master
重新开终端窗口
locust -f ../locust-master/load_test.py --slave
远程链接阿里云服务器
在Win10系统下使用“WIN+R”组合快捷键打开运行对话框,然后输入“mstsc",点击确定
输入服务器IP
QPS: 每秒钟处理完请求的次数;注意这里是处理完。具体是指发出请求到服务器处理完成功返回结果。可以理解在server中有个counter,每处理一个请求加1,1秒后counter=QPS。
TPS:每秒钟处理完的事务次数,一般TPS是对整个系统来讲的。一个应用系统1s能完成多少事务处理,一个事务在分布式处理中,可能会对应多个请求,对于衡量单个接口服务的处理能力,用QPS比较多。
并发量:系统能同时处理的请求数
RT:响应时间,处理一次请求所需要的平均处理时间
计算关系:
QPS = 并发量 / 平均响应时间
并发量 = QPS * 平均响应时间
对比:
测试场景:
对比locust的httpLocust库、python2基础库httplib 和python3基础库http.client的效率和压力
测试接口:通过GET获取URL返回值
Slave机配置:单台8核16G
Slave实例:10个
对比结果:httplocust库RPS最大值4K,python2的最大值12K,python3的最大值15K
Jmeter的TPS最大值是34K
以上是关于locust的使用的主要内容,如果未能解决你的问题,请参考以下文章