程序示例精选
Python手势识别与追踪
如需安装运行环境或远程调试,见文章底部微信名片,由专业技术人员远程协助!
前言
这篇博客针对<<Python手势识别与追踪>>编写代码,代码整洁,规则,易读。 应用推荐首选。
文章目录
一、所需工具软件
二、使用步骤
1. 引入库
2. 识别图像特征
3. 识别参数定义
4. 运行结果
三、在线协助
一、所需工具软件
1. Python3.6以上
2. Pycharm代码编辑器
3. Torch, OpenCV库
二、使用步骤
1.引入库
代码如下(示例):
import cv2 #导入opencv库
import mediapipe as mp #导入Google开源mediapipe库
import time #导入时间库
2.识别图像特征
代码如下(示例):
cap = cv2.VideoCapture("aaa.mp4") #调用视频流(摄像头或视频文件)
mpHands = mp.solutions.hands
hands = mpHands.Hands() #选择的模型(手部侦测和手部追踪)
mpDraw = mp.solutions.drawing_utils
handLmsStyle = mpDraw.DrawingSpec(color=(0, 0, 255), thickness=5) #点的粗度及颜色
handConStyle = mpDraw.DrawingSpec(color=(0, 255, 0), thickness=5) #线的粗度及颜色
pTime = 0
cTime = 0
'''
设置mpHands.Hands的参数:
def __init__(self,
static_image_mode=False, #指检测静态图片还是动态图片
max_num_hands=2, #最多能侦测几只手
model_complexity=1, #模型的复杂度
min_detection_confidence=0.5, #侦测手掌的严谨度(0~1)
min_tracking_confidence=0.5): #追踪的严谨度(0~1)
'''
while 1:
ret, img = cap.read()
if ret:
#opencv预设读取的图片为bgr图片,但需要的图片为rgp的图片,先进行转化
imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
result = hands.process(imgRGB)
#print(result.multi_hand_landmarks)
#img的宽度跟高度用一个变数来设定
imgHeight = img.shape[0]#视窗高度
imgWidth = img.shape[1]#视窗宽度
if result.multi_hand_landmarks:
for handLms in result.multi_hand_landmarks:#把侦测到的所有手画出来
mpDraw.draw_landmarks(img, handLms, mpHands.HAND_CONNECTIONS, handLmsStyle, handConStyle)
#第一个参数是画到哪一个图上面,第二个参数是把landmarks的点传进来,第三个参数将点的连接起来
#第四个参数设置点的样式,第五个参数设置线的样式
for i, lm in enumerate(handLms.landmark):#把21个点的作标写出来
xPos = int(lm.x * imgWidth)
yPos = int(lm.y * imgHeight)
#print(i, lm.x, lm.y) 返回的数据为整个窗口的比例位置
cv2.putText(img, str(i), (xPos-25, yPos+5), cv2.FONT_HERSHEY_SIMPLEX, 0.4, (0, 0, 255), 2)
#将手指点作标写入窗口上;参数上:xPos-25指在坐标往左25像素,y为往上5像素,然后是选择的文字,大小,颜色
'''
放大某个点
if i ==4:
cv2.circle(img, (xPos, yPos), 10, (0, 0, 255), cv2.FILLED)
'''
print(i, xPos, yPos)#返回的数据为视野的坐标位置;用int()进行整形处理,否则为浮点型
#显示一秒几帧即fps
cTime = time.time()
fps = 1/(cTime-pTime)
pTime = cTime
cv2.putText(img, f"FPS :{int(fps)}", (30, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (255, 0, 0))
#第二个为数值,第三个参数是位置,文字样式,文字大小,颜色,粗度
cv2.imshow('img', img)
#读帧间隔时间,输入q跳出
if cv2.waitKey(1) == ord('q'):
break
cap.release()
cv2.destroyAllWindows()
4.运行结果如下:
源码与视频文件下载地址:
下载后无需再重复新建项目造轮子,可直接运行,也可以将上面代码复制到自己新建的py文件中通过摄像头或自己的视频运行,亲测成功运行。
Python手势识别与追踪-Python文档类资源-CSDN下载
三、在线协助:
如需安装运行环境或远程调试,见文章底部微信名片,由专业技术人员远程协助!