在Python中实现使用MediaPipe摄像头视频流识别手势并显示标注图像
由于mediapipe官方的文档以及python的代码示例中,
没有给出摄像头视频流检测的代码,代码示例中只提供了对4张示例图片进行检测的代码,于是开始参考代码示例进行代码的编写。
由于mediapipe官方的文档以及python的代码示例中,
没有给出摄像头视频流检测的代码,代码示例中只提供了对4张示例图片进行检测的代码,于是开始参考代码示例进行代码的编写。
由于以前的视觉部分的代码看起来很💩(感觉代码文件的结构很混乱,不够易读),于是打算重新编写新的。
我先是分别询问了chatgpt和copilot关于如何在摄像头一直保持开启的状态下,切换使用不同的功能
由于比赛需要机器人走到志愿者的正面后,再向志愿者询问,所以打算通过检测人脸朝向相对于相机的偏移程度(人脸正对相机认为不偏移),来判断机器人是否到达志愿者的正面
于是通过询问Microsoft Copilot,找到了一个比较好用的github的仓库