使用Python和OpenCV在线打乒乓球

发表于:2020-9-22 09:59

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:IT老周    来源:今日头条

#
Python
分享:
  
  我最喜欢的YouTuber之一,CodeBullet,曾经尝试创建一个乒乓球 AI来统治所有人。
  这似乎是一个非常有趣且简单的任务,所以我也想尝试一下。在这篇文章中,我将概述一些我考虑过的因素,如果你希望在任何类似的项目上工作,这些因素可能会有所帮助,并且我想我会尝试其中的一些其他工作,因此,如果你喜欢这种类型的事情,可以关注我。
  使用计算机视觉的好处是,我可以使用已经构建的游戏并处理图像。话虽如此,我们将使用与ponggame.org上使用的那个与CodeBullet相同的游戏版本。它还具有2人模式,因此我可以与自己的AI对抗;我做到了,这确实很难……
  捕捉屏幕
  第一件事就是捕捉屏幕。我想确保我的帧速率尽可能快,为此我发现MSS是一个很棒的python包。有了这个,我很容易达到60帧/秒的最高速度,与 PIL 相比,我只能得到大约20帧每秒。它以 numpy 数组的形式返回。
  Paddle detection
  为了简单起见,我们需要定义paddle 的位置。这可以用几种不同的方法来完成,但我认为最明显的是对每个Paddle的区域进行遮罩,然后运行连接的组件来找到Paddle对象。下面是一段代码:
  def get_objects_in_masked_region(img, vertices,  connectivity = 8): 
      ''':return connected components with stats in masked region 
      [0] retval number of total labels 0 is background 
      [1] labels image 
      [2] stats[0] leftmostx, [1] topmosty, [2] horizontal size, [3] vertical size, [4] area 
      [3] centroids 
      ''' 
      mask = np.zeros_like(img)    # fill the mask 
      cv2.fillPoly(mask, [vertices], 255) 
      # now only show the area that is the mask 
      mask = cv2.bitwise_and(img, mask) 
      conn = cv2.connectedComponentsWithStats(mask, connectivity, cv2.CV_16U) 
      return conn 
  在上面,“vertices”只是定义遮罩区域的坐标列表。一旦在每个区域内有了对象,我就可以得到它们的质心位置或边界框。需要注意的一点是OpenCV将背景作为任何连接的组件列表中的第0个对象,因此在本例中,我总是获取第二大的对象。结果如下——右边绿色质心的球拍是玩家 / 即将成为人工智能控制的球拍。
  移动paddle
  现在我们有了输出,我们需要一个输入。为此,我求助于一个有用的包和其他人的代码 。
  它使用ctypes来模拟键盘按下,在这种情况下,游戏是用“k”和“m”键来玩的。我这里有扫描码。在测试了它只是随机上下移动后,我们就可以开始跟踪了。
  乒乓球检测
  下一步是识别并跟踪乒乓球。同样,这可以用几种方法来处理——其中一种可能是通过使用模板进行对象检测,然而,我再次使用了连接的组件和对象属性,即乒乓球的区域,因为它是唯一具有尺寸的对象。
  我知道每当乒乓球穿过或碰到其他白色物体时,我都会遇到问题,但我也认为只要我能在大多数时间里追踪到它,这一切都没问题。毕竟,它是直线运动的。如果你看下面的视频,你会看到标记乒乓球的红色圆圈是如何闪烁的。这是因为它只在每2帧中找到一个。在60帧/秒时,这并不重要。
  反弹预测的光线投射
  在这一点上,我们已经有一个可工作的人工智能。如果我们只是移动球员的球拍,使其处于与乒乓球相同的y轴位置,它的效果相当不错。然而,当乒乓球得到良好的反弹时,它确实会遇到问题。球拍太慢了,跟不上,需要预测乒乓球的位置,而不是仅仅移动到当前的位置。这已经在上面的剪辑中实现了,下面是两种方法的比较。
  差别并不大,但如果选择了正确的人工智能,这绝对是一场更稳定的胜利。为此,我首先为乒乓球创建了一个位置列表。为了公平起见,我把这个列表的长度控制在5个,基本上可以做到。列表不要太长,否则要花更长的时间才能发现它改变了方向。在得到位置列表后,我使用简单的矢量平均法来平滑并得到方向矢量——如绿色箭头所示。这也被标准化成一个单位向量,然后乘以一个长度以方便可视化。
  投射光线只是这个的延伸——使前向投影变长。然后我检查了未来的位置是否在顶部和底部区域的边界之外。如果是这样的话,它只是将位置投影回游戏区域。对于左侧和右侧,它计算出与paddle的x位置相交的位置,并将x和y位置固定到该点。这样可以确保paddle指向正确的位置。如果没有这一点,它通常会走得太远。下面是定义光线的代码,该光线可以预测乒乓球的未来位置:
  def pong_ray(pong_pos, dir_vec, l_paddle, r_paddle, boundaries, steps = 250): 
      future_pts_list = []    for i in range(steps): 
          x_tmp = int(i * dir_vect[0] + pong_pos[0]) 
          y_tmp = int(i * dir_vect[1] + pong_pos[1]) 
          if y_tmp > boundaries[3]: #bottom 
              y_end = int(2*boundaries[3] - y_tmp) 
              x_end = x_tmp        elif y_tmp < boundaries[2]: #top 
              y_end = int(-1*y_tmp) 
              x_end = x_tmp        else: 
              y_end = y_tmp        ##stop where paddle can reach        if x_tmp > r_paddle[0]: #right 
              x_end = int(boundaries[1]) 
              y_end = int(pong_pos[1] + ((boundaries[1] - pong_pos[0])/dir_vec[0])*dir_vec[1]) 
          elif x_tmp < boundaries[0]: #left 
              x_end = int(boundaries[0]) 
              y_end = int(pong_pos[1] + ((boundaries[0] - pong_pos[0]) / dir_vec[0]) * dir_vec[1]) 
          else: 
              x_end = x_tmp        end_pos = (x_end, y_end)        future_pts_list.append(end_pos) 
      return future_pts_list 
  在上面,也许不太明显的计算方法是确定paddle对目标的左或右位置的截距。我们基本上是通过相似三角形来实现的,图片和方程如下所示。我们知道在边界中给定的paddle的x位置的截距。然后我们可以计算出乒乓球将移动多远,并将其添加到当前的y位置。
  paddle虽然看起来笔直,但实际上有一个弯曲的反弹面。也就是说,如果你用球拍向两端击球,球会反弹,就像球拍有角度一样。因此,我允许球拍击中边缘,这增加了人工智能的攻击性,使乒乓球四处飞舞。
  结论
  尽管是为这种特定的乒乓球实现而设计的,但是相同的概念和代码也可以用于任何版本——只需要改变一些预处理步骤。当然,另一种方法是通过强化学习或简单的conv-net使用机器学习,但我喜欢这种经典方法;至少在这种情况下,我不需要健壮的通用性或困难的图像处理步骤。正如我提到的,这个版本的乒乓球是2人,老实说我无法打败我自己的AI…

      本文内容不用于商业目的,如涉及知识产权问题,请权利人联系51Testing小编(021-64471599-8017),我们将立即处理
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号