OpenCV实现手势音量控制 报错日志 INFO: Created TensorFlow Lite XNNPACK delegate for CPU.

  • Hi, I’m @货又星
  • I’m interested in …
  • I’m currently learning …
  • ️ I’m looking to collaborate on …
  • How to reach me …
    • README 目录(持续更新中) 各种错误处理、爬虫实战及模板、百度智能云人脸识别、计算机视觉深度学习CNN图像识别与分类、PaddlePaddle自然语言处理知识图谱、GitHub、运维…
    • WeChat:1297767084
    • GitHub:https://github.com/cxlhyx

项目场景:

OpenCV实现手势音量控制:使用OpenCV和mediapipe库进行手势识别,并利用手势距离控制电脑音量。

原文:OpenCV实现手势音量控制


问题描述

今天在网上看到这个博主利用OpenCV实现手势音量控制,于是我试了一下这个代码,安装库后发现还没办法顺利运行。显示

INFO: Created TensorFlow Lite XNNPACK delegate for CPU.


原因分析:

我在csdn,GitHub,知乎等上找了很久,没有找到好的解决方案,于是我问了一下chatgpt。
OpenCV实现手势音量控制 报错日志 INFO: Created TensorFlow Lite XNNPACK delegate for CPU._第1张图片
它告诉我们这是一个日志信息,我意识到这可能不是报错,不是代码无法顺利运行的原因。接着我翻了一下评论区,发现有人把第134行的or cv2.getWindowProperty(‘MediaPipe Hands’, cv2.WND_PROP_VISIBLE) < 1注释掉就可以正确运行了,但我试完还是不行。
于是我又让chatgpt写了一个用OpenCV打开摄像头的代码,试了一下,能够正确运行。
OpenCV实现手势音量控制 报错日志 INFO: Created TensorFlow Lite XNNPACK delegate for CPU._第2张图片
OpenCV实现手势音量控制 报错日志 INFO: Created TensorFlow Lite XNNPACK delegate for CPU._第3张图片

import cv2
cap = cv2.VideoCapture(0)
while True:
    # 从摄像头读取一帧图像
    ret, frame = cap.read()

    # 如果读取成功,显示图像
    if ret:
        cv2.imshow('Camera', frame)

        # 按下'q'键退出循环
        if cv2.waitKey(1) & 0xFF == ord('q'):
            break
    # 如果读取失败,显示错误信息并退出循环
    else:
        print("无法获取摄像头画面")
        break
cap.release()
cv2.destroyAllWindows()

接着我把博主134行的代码换成gpt的代码,就可以了。


解决方案:

将博主134-135行的代码修改为chatgpt的代码就可以了:

if cv2.waitKey(5) & 0xFF == 27 or cv2.getWindowProperty('MediaPipe Hands', cv2.WND_PROP_VISIBLE) < 1:
	break

修改为

# 按下'q'键退出循环
if cv2.waitKey(1) & 0xFF == ord('q'):
	break

你可能感兴趣的:(tensorflow,opencv,人工智能,python,计算机视觉)