跳转至

七月 2024

重新编写视觉模块记录

由于以前的视觉部分的代码看起来很💩(感觉代码文件的结构很混乱,不够易读),于是打算重新编写新的。

我先是分别询问了chatgpt和copilot关于如何在摄像头一直保持开启的状态下,切换使用不同的功能

实现人脸比对功能的记录

由于比赛中,在完成任务之后,需要回到发出这个任务的志愿者前,所以需要识别出这个志愿者,因此需要使用人脸比对功能

于是询问Microsoft Copilot如何实现

实现检测人脸朝向相对相机偏移程度的记录

由于比赛需要机器人走到志愿者的正面后,再向志愿者询问,所以打算通过检测人脸朝向相对于相机的偏移程度(人脸正对相机认为不偏移),来判断机器人是否到达志愿者的正面

于是通过询问Microsoft Copilot,找到了一个比较好用的github的仓库

yinguobing/head-pose-estimation: Realtime human head pose estimation with ONNXRuntime and OpenCV. (github.com)