本篇使用CS:GO 进行测试,测试环境:3060 Laptop i7-12700h 底部有源码
在对YOLOV5 detect.py摸索几天后发现 YOLOV5 的架构真的很清晰,从应用的角度上来说是真的方便
YOLOV5 官方的detect.py 中有着非常完整的功能,从读取图片到调用摄像头都已经写好了代码,只需要阅读一下官方文档,更改下启动参数基本就可以完成物体检测的任务。
本次代码是基于 detect.py 精简和改进而来,代码都是现有的,但是自己上手体会一下流程才能更好理解
先说结论:
我个人感觉帧率还是偏低,对移动的物体的跟踪还是不够强,也勉强够用,后续优化应该会更好
但是相较于原版的detect.py 速度“快”了大半(这个快后面有解释)
还需要解决控制鼠标移动耗时过大的问题,找找看还有没有其他的库或者api 可以用
我是分界线
过程分析:
基本流程:
对于一个辅助瞄准来说有着以下基本的流程:
获取屏幕 -> 目标检测 - 获得坐标 - 移动鼠标 - 判断是否已经瞄准 - 按下开火
我选择的是将 “判断是否已经瞄准”放到下一帧去处理(因为判断是需要再获取一次物体坐标的)
我是分界线
具体步骤:
获取屏幕:
https://www.simplifiedpython.net/python-screenshot/
Python获取屏幕截图的4种方法_jokerzhango.O的博客
除了这几种,YOLOV5中还有自带的截图模块:
dataset = LoadScreenshots(source, img_size=imgsz, stride=stride, auto=pt)
for path, im, im0s, vid_cap, s in dataset:
在这个5个截图方式中,我选择了 win32api(PyQt的性能我测的是没有win32api好的,也许是我的原因)
使用yolo自带的屏幕获取(拖动森林图片移动)
screen: 640,304,640,512: 512x640 (no detections), inference: 13.5ms, total: 21.08ms
screen: 640,304,640,512: 512x640 (no detections), inference: 8.9ms, total: 27.76ms
screen: 640,304,640,512: 512x640 (no detections), inference: 10.1ms, total: 20.67ms
screen: 640,304,640,512: 512x640 (no detections), inference: 8.4ms, total: 20.55ms
调用win32api获取屏幕(拖动森林图片移动)
debug:512x640 (no detections), inference: 8.9ms, total: 21.25ms
debug:512x640 (no detections), inference: 11.7ms, total: 19.96ms
debug:512x640 (no detections), inference: 8.9ms, total: 20.19ms
debug:512x640 (no detections), inference: 10.5ms, total: 20.80ms
目标检测:
这倒是简单,毕竟YOLOV5中已经有源代码了,只需要正确地把图片送进去就可以
获得坐标:
for *xyxy, conf, cls in reversed(det):
ppl_list = (xyxy2xywh(torch.tensor(xyxy).view(1, 4)) / gn).view(-1).tolist()
ppl_list 中的是坐标框的xywh(检测框中心的 x y 坐标 , 检测框的宽度和高度)
要注意的是这几个数据都是百分比的形式(0.52314) 需要乘以图片的长宽才可以用
移动鼠标:
由于大部分游戏都有限制,导致例如pyautogui 类的库都没法使用,在我网上找了大半圈后,本着就简的原则 发现了pydirectinput 这个库,能够在游戏内移动视角,但那篇帖子找不到啦
判断是否已经瞄准:
这个是倒数第二简单的,用 ppl_list 中获得的检测框中心的(x,y)坐标与屏幕中心来计算距离
当这个距离小于一定值的时候就可以认为是瞄准了
按下开火:
这个是最简单的,当判断已经瞄准后直接:
pydirectinput.click()
当然,如果是打狙的话推荐在此命令下添加一条
time.sleep(1.5)
我是分界线
一些遇到的坑:
截图:
在利用 win32api 截图时,返回的是一个标准的 [x , y , c] (横 ,纵 , 颜色)的list,但是对于
im = torch.from_numpy(im).to(model.device)
其中的 im 需要的是一个 [c , x , y] 格式的图片,并且这个 c 是需要 [BGR]格式的
而非win32api返回的[RGB]格式
控制鼠标移动:
有时候会出现在游戏内无法控制鼠标,但是在鼠标焦点脱离游戏后就可以控制。
我的解决办法是管理员权限打开 PyChram 并且在游戏打开后运行程序
多线程:
利用 multiprocessing.Queue 传递变量的时候,变量的存放是“阻塞” 的
还有一些比较细致的问题就不放啦,还是需要自己实际体会下的 >_<
“全部”多进程:
利用multiprocessing 将 截图 |推理 | 后处理 | 控制鼠标移动、点击
这几项分开,通过 Queue 来传递变量,结果真的一言难尽,看到敌人头甚至会抖到转圈 (???)
初步推断是因为截图速度过快,导致推理的时候获得的数据是之前的,导致抖动
异步鼠标控制:
这个主要是pydirectinput.moveRel 的效率太慢,具体的速度没测试,但是绝对达不到 60 次每秒,因此如果要玩实现控制视角移动,不仅不能使用异步控制,并且在程序内执行会使得帧率会大打折扣(完成一次循环大致需要 120ms 左右,不使用视角移动则 只需要 20ms左右)
(已经解决了,需要添加命令)(默认暂停100ms)
pydirectinput.PAUSE = 0.0
我是分界线
一些测试数据:
'''
测试数据(3060 Laptop,i7 12700h):
######################################显示图片##############################################
无目标时(无鼠标移动)(调用win32api截图):
异步显示图片:
debug:512x640 (no detections), inference: 6.6ms, total: 20.23ms
debug:512x640 (no detections), inference: 6.6ms, total: 20.77ms
debug:512x640 (no detections), inference: 9.9ms, total: 14.29ms
debug:512x640 (no detections), inference: 6.0ms, total: 20.88ms
同步显示图片:
debug:512x640 (no detections), inference: 9.4ms, total: 28.12ms
debug:512x640 (no detections), inference: 9.3ms, total: 27.71ms
debug:512x640 (no detections), inference: 9.3ms, total: 34.73ms
debug:512x640 (no detections), inference: 9.3ms, total: 28.24ms
######################################移动鼠标############################################
无实时预览时(3个目标)(关闭鼠标暂停)
同步移动鼠标
SYNC[x y mouse_move_x mouse_move_y ] 305 304 243 -16 -7
screen: 640,304,640,512: 512x640 4 persons, inference: 12.5ms, total: 28.05ms
SYNC[x y mouse_move_x mouse_move_y ] 305 304 243 -16 -7
screen: 640,304,640,512: 512x640 4 persons, inference: 6.0ms, total: 12.29ms
SYNC[x y mouse_move_x mouse_move_y ] 305 304 243 -16 -7
screen: 640,304,640,512: 512x640 4 persons, inference: 12.0ms, total: 24.37ms
SYNC[x y mouse_move_x mouse_move_y ] 305 304 243 -16 -7
screen: 640,304,640,512: 512x640 4 persons, inference: 23.9ms, total: 45.60ms
异步移动鼠标
暂时不考虑,pydirectinput 效率似乎比较低下,会有很明显的滞后
#####################################屏幕截图################################################
使用yolo自带的屏幕获取(拖动森林图片移动)
screen: 640,304,640,512: 512x640 (no detections), inference: 13.5ms, total: 21.08ms
screen: 640,304,640,512: 512x640 (no detections), inference: 8.9ms, total: 27.76ms
screen: 640,304,640,512: 512x640 (no detections), inference: 10.1ms, total: 20.67ms
screen: 640,304,640,512: 512x640 (no detections), inference: 8.4ms, total: 20.55ms
调用win32api获取屏幕(拖动森林图片移动)
debug:512x640 (no detections), inference: 8.9ms, total: 21.25ms
debug:512x640 (no detections), inference: 11.7ms, total: 19.96ms
debug:512x640 (no detections), inference: 8.9ms, total: 20.19ms
debug:512x640 (no detections), inference: 10.5ms, total: 20.80ms
'''
YOLO/Auto_Aiming.py at main · RedWhiteLuo/YOLO (github.com) 源码在这里
需要安装的库:
pip install pywin32
pip install pydirectinput
其余的在pycharm中都可以用pycharm安装
此文件放入yolo的根目录就可以