本文通过几个简单的试验,探究在 IO 等待为瓶颈的场景下,几个典型语言框架的并发能力。以论证异步框架在此场景下的优越性。
测试模型
假设这样一种场景,我们要搭建一个 api 转发服务器,即接到用户请求后,在服务器端调用第三方 api,等待 api 返回结果后,返回 response 给我们的用户。
本文讨论的就是当第三方 api 请求时间特别长(比如 20s)时的并发性能。如下图所示:
服务器配置
试验 web 服务器配置:1C 1G
并发请求客户端配置:2C 8G
测试结果
以 3000 并发为例,进行测试,结果如下:
结论如下:
flask、django 直接 run,会创建一个框架默认的开发 server,它是以增加线程的方式来应对并发的,众所周知线程的切换成本比协程要高得多,由此例可以看出,当 server 维护 3000 个线程时就力不从心了
gunicorn + gevent 虽然可以通过打 patch 的方式实现异步协程,但效果还是始终原生的好
gunicorn + gevent 可以通过增加 worker 数量,提高并发能力(上例中如果将 worker 数增加到 3 后就不会报错了)
在这种特殊测试场景(瓶颈在于 IO 等待)下,nodejs、go 这些语言的原生的异步框架确实性能出色
sanic 这类的异步框架,是 python 最后的牌面了(针对于这种特殊测试场景)
测试代码
代码仓库地址:https://github.com/taojy123/async_test
具体如下:
express server 代码 https://github.com/taojy123/async_test/blob/master/server1/app.js
iris server 代码 https://github.com/taojy123/async_test/blob/master/server2/main.go
flask server 代码 https://github.com/taojy123/async_test/blob/master/server3/run.py
django server 代码 https://github.com/taojy123/async_test/tree/master/server5
sanic server 代码 https://github.com/taojy123/async_test/blob/master/server4/run.py
客户端并发请求代码 https://github.com/taojy123/async_test/blob/master/client.py
延迟 20s 接口代码 https://github.com/taojy123/async_test/blob/master/serverx/app.js
本文内容不用于商业目的,如涉及知识产权问题,请权利人联系51Testing小编(021-64471599-8017),我们将立即处理