性能测试工具的 Coordinated Omission 问题

发表于:2021-3-03 09:34

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:siddontang    来源:简书

  很早之前就看过 Gil 大神的一篇文章 http://highscalability.com/blog/2015/10/5/your-load-generator-is-probably-lying-to-you-take-the-red-pi.html,里面提到了性能测试工具 coordinated omission 的问题,但当时并没有怎么在意。这几天有人在我们自己的性能测试工具 go-ycsb 上面问了这个问题,我才陡然发现,原来我们也有。
  什么是 coordinated omission
  首先来说说什么是 coordinated omission 问题,对于绝大多数 benchmark 工具来说,通常都是这样的模型 - 启动多个线程,每个线程依次的发送 request,接受 response,然后继续下一次的发送。然后我们记录的 latency 通常就是 response time - request time。这个看起来很 make sense,但实际是有问题的。
  一个简单的例子,当我们去 KFC 买炸鸡(或者也可以来个高大上的 - 去星巴克买咖啡),然后我们排在了一个队伍后面,前面有 3 个人,开始 2 个人都好快,30 秒搞定,然后第三个墨迹了半天,花了 5 分钟,然后到我了,30 秒搞定。对于我来说,我绝对不会认为我的 latency 是 30 秒。而是会算上排队的时间 2 x 30 + 300,加上服务时间 30 秒,所以我的总的时间耗时是 390 秒。这里不知道大家看到了区别了没有,就是市面上大多数的性能测试工具,其实用的是服务时间,但并没有算上等待时间。
  再来看一个例子,假设我们需要我们的性能测试工具按照 10 ops/sec 的频繁发送请求,也就是我们希望每 100 ms 发送一个,前面 9 个请求每个请求都是 50 us 就返回了,但第 10 个请求持续了 1 s,而后面的又是 50 us。我们可以明显的看到,在 1 s 那个时候,系统出现了卡顿,但这时候我们其实只有 1 个请求发上去,并没有很好的对系统进行测试。
  YCSB
  对于第一个排队的例子,为了更好的计算 latency,YCSB 引入了一个 intended time 的概念。也就是会记录下操作实际的排队时间。它使用了一个 local thread 变量,在 throttle 的时候,记录:
  
private void throttleNanos(long startTimeNanos) {
  //throttle the operations
  if (_targetOpsPerMs > 0)
  {
  // delay until next tick
  long deadline = startTimeNanos + _opsdone*_targetOpsTickNs;
  sleepUntil(deadline);
  _measurements.setIntendedStartTimeNs(deadline);
  }
  }
  然后每次操作的时候,使用 intended time 计算排队时间:
  
public Status read(String table, String key, Set<String> fields,
  Map<String, ByteIterator> result) {
  try (final TraceScope span = tracer.newScope(scopeStringRead)) {
  long ist = measurements.getIntendedtartTimeNs();
  long st = System.nanoTime();
  Status res = db.read(table, key, fields, result);
  long en = System.nanoTime();
  measure("READ", res, ist, st, en);
  measurements.reportStatus("READ", res);
  return res;
  }
  }
  需要注意,只有 YCSB 开启了 target,intended time 才有作用。
  这也就是我当初在看 YCSB 代码的时候,一直没搞明白为啥会有两种时间,而且也不知道 intended time 到底是什么鬼,后来重新回顾了 coordinated omission,才清楚。也就是说 YCSB 通过 intended time 来计算排队时间。
  但其实 YCSB 还是没解决上面说的第二个问题,如果系统真的出现了卡主,测试客户端仍然会跟着卡主,因为是同步发送请求的。在网上搜索了一下,看到了一篇 Paper Coordinated Omission in NoSQL Database Benchmarking,里面提到了将同步改成异步的方式,也就是说,我每次的任务是一个 Future,首先根据 target 按照频率发 Future 就行,至于这个 Future 啥时候完成,后面再说。而且因为是异步的,所以并不会卡主后面的请求。因为这个代码是 Scala 的,我看 Java 已经够吃力了,所以也就懒得深入了。
  Go YCSB
  那么具体到 go-ycsb,我们如何解决这个问题呢?我现在唯一能想到的就是利用 Go 的 goroutine,按照一定的频率去生成 goroutine,执行测试。当然 Go 自身也会有调度的开销,这里也需要排除。如果要测试的服务出现了卡顿,就会导致大量的 Goroutine 没法释放,最终 OOM。虽然这样子看起来比较残暴,但这才是符合预期的。
  这个只是一个想法,具体还没做,一个原因就是懒,另一个原因是不同于其他语言,Go 的 goroutine 其实天生就能开很多,所以通常我都是上千并发进行测试的,假设我们有 1000 个并发,按照 1 ms 一次的频率,其实也就等同于每个 Goroutine 依次发送了。当然,有总比没有好,如果你对这块感兴趣,欢迎给我们提交 PR,或者给我发邮件详细讨论 tl@pingcap.com。

上文内容不用于商业目的,如涉及知识产权问题,请权利人联系博为峰小编(021-64471599-8017),我们将立即处理。
  
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号