基于Python的这个库,我实现了“隔空操物”

基于Python的这个库,我实现了“隔空操物”_第1张图片

1.项目效果展示

项目主要分为四个部分,分别是

  • 隔空音量控制
  • 隔空绘画
  • 隔空识别手势
  • 隔空操作鼠标

下面是这四部分的演示效果

1.1:隔空音量控制

 

1.2:隔空绘画

 

1.3 :手势识别

 

1.4:鼠标模拟

 

2.所涉及到的库

上面这些应用的实现主要涉及到了两个库

  • OpenCv

  • MediaPipe

2.1:OpenCv简介

OpenCV是一个基于Apache2.0许可发行的跨平台计算机视觉与机器学习的软件库。

可以运行在多种操作系统,例如Linux,Window,Mac OS等等。它轻量级而且高效——由一系列 C 函数和少量 C++ 类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。

2.2:MediaPipe简介

MediaPipe是一由Google开发并开源的数据流处理机器学习应用开发框架。

它是一个基于图的数据处理管线,用于构建使用了多种形式的数据源,如视频、音频、传感器数据以及任何时间序列数据。

MediaPipe是跨平台的,可以运行在多种操作系统,工作站和服务器上,并支持移动端GPU加速。

使用MediaPipe,可以将机器学习任务构建为一个图形的模块表示的数据流管道,包括推理模型和流媒体处理功能。

3.项目环境搭建

这些应用的环境方便比较简单,可以直接在pycharm里面进行安装对应的库即可使用。如果遇到库不能下载或者是超时,可以进行pip换源下载,本应用使用Python进行编写

4.源码部分

应用涉及到的源码比较多,这里就不一 一进行贴出来了。

想要实践一下的同学可以私信我获取,或者是直接点击文章底部关注公众号,点击联系我添加备注源码获取 下面是关键部分代码的一些截取内容。

cap = cv2.VideoCapture(0)  #若使用外接摄像头 则更改为1或其他编号
cap.set(3, wCam)
cap.set(4, hCam)
pTime = 0
detector = handDetector()

success, img = cap.read()
    img = detector.findHands(img)
    lmList = detector.findPosition(img, draw=False)
    pointList = [4, 8, 12, 16, 20]
    if len(lmList) != 0:
        countList = []
        if lmList[4][1] > lmList[3][1]:
            countList.append(1)
        else:
            countList.append(0)
        for i in range(1, 5):
            if lmList[pointList[i]][2] < lmList[pointList[i] - 2][2]:
                countList.append(1)
            else:
                countList.append(0)
        count = countList.count(1)
        HandImage = cv2.imread(f'FingerImg/{count}.jpg')
        HandImage = cv2.resize(HandImage, (150, 200))
        h, w, c = HandImage.shape
        img[0:h, 0:w] = HandImage
        cv2.putText(img, f'{int(count)}', (15, 400), cv2.FONT_HERSHEY_PLAIN, 15, (255, 0, 255), 10)

5.总结

上面这四个项目主要是调用到了一些机器学习的库进行代码的编写。感兴趣的小伙伴可以导入项目在自己的电脑上进行实操一下。

今天的内容就分享到这了,小编最后还为大家准备了丰厚的python大礼包【加君羊:419693945】帮助大家更好的学习!

基于Python的这个库,我实现了“隔空操物”_第2张图片

你可能感兴趣的:(python,计算机视觉,人工智能)