# DpCas-Light ### dpcas(Deep Learning Componentized Application System):深度学习组件化应用系统,为了更好更快的将已有的模型进行快速集成,实现应用。 ### 第一个完整 pipeline 的 项目,本地手势交互应用 Demo,之后会推出web架构的手势交互,另外除了手势相关,我也会尝试推出其它类型或是不同行业领域的项目应用。 ### 虽然它才刚刚诞生,有各种不足,但是我会继续改进,努力让更多人看到它,希望它不仅仅是一个demo。 ## 项目介绍 ### 项目1:手势交互项目(local 本地版本) * 开发语言:100% python代码。 * 场景:目前demo开发的使用场景为桌面使用,相机视角为使用者上方往下照射。 * 采用python多进程实现。 * 1、实现单手点击,即大拇指和食指捏合时认为点击。 * 2、实现手的轨迹跟踪,可支持动态手势二次开发(目前计划后面也会开发相应的动态手势功能)。 * 3、实现双手配合点击选中目标区域。 * 4、基于第2点的功能,支持识别架构的拓展(目前没有加任何物体识别模型,后面会加上)。 * 5、实现基于IOU的手部跟踪。 * 6、支持语音拓展功能。 ## 项目配置 ### 1、软件 * Python 3.7 * PyTorch >= 1.5.1 * opencv-python * playsound ### 2、硬件 * 普通USB彩色(RGB)网络摄像头 ## 相关项目 ### 1、手部检测项目(yolo_v3) * 项目地址:https://codechina.csdn.net/EricLee/yolo_v3 * [预训练模型下载地址(百度网盘 Password: 7mk0 )](https://pan.baidu.com/s/1hqzvz0MeFX0EdpWXUV6aFg) * 另外同学们可以根据自己需求替换检测模型。 ### 2、手21关键点回归项目(handpose_x) * 项目地址:https://codechina.csdn.net/EricLee/handpose_x * [预训练模型下载地址(百度网盘 Password: 99f3 )](https://pan.baidu.com/s/1Ur6Ikp31XGEuA3hQjYzwIw) ## 项目使用方法 ### 项目1:手势交互项目(local 本地版本) ### 1、下载手部检测模型和21关键点回归模型。 ### 2、确定摄像头连接成功。 ### 3、打开配置文件 lib/hand_lib/cfg/handpose.cfg 进行相关参数配置,具体配置参数如下,请仔细阅读(一般只需要配置模型路径及模型结构) ``` detect_model_path=./latest_416.pt #手部检测模型地址 detect_model_arch=yolo_v3 #检测模型类型 ,yolo or yolo-tiny detect_conf_thres=0.5 # 检测模型阈值 detect_nms_thres=0.45 # 检测模型 nms 阈值 handpose_x_model_path=./ReXNetV1-size-256-wingloss102-0.1063.pth # 21点手回归模型地址 handpose_x_model_arch=rexnetv1 # 回归模型结构 camera_id = 0 # 相机 ID ,一般默认为0,如果不是请自行确认 vis_gesture_lines = True # True: 点击时的轨迹可视化, False:点击时的轨迹不可视化 charge_cycle_step = 32 # 点击稳定状态计数器,点击稳定充电环。 ``` ### 4、根目录下运行命令: python main.py ## 联系方式 (Contact) * E-mails: 305141918@qq.com