[发明专利]基于改进高分辨率网络的人体姿态预测方法及系统有效
申请号: | 202110382970.2 | 申请日: | 2021-04-09 |
公开(公告)号: | CN113076891B | 公开(公告)日: | 2023-08-22 |
发明(设计)人: | 康文雄;陈兴发;林泽楠;万好 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/774;G06V10/82;G06N3/08;G06N3/0464 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 改进 高分辨率 网络 人体 姿态 预测 方法 系统 | ||
1.一种基于改进高分辨率网络的人体姿态预测方法,其特征在于,包括以下步骤:
图像获取步骤:获取环境图像;
姿态关键点预测步骤:将所述环境图像输入到姿态关键点预测模型中确定每个目标的姿态关键点得分热力图,其中所述姿态关键点预测模型为使用多组数据通过机器学习训练得出,多组数据中的每组数据包括环境图像和标识该环境图像中人的姿态关键点的标签,所述姿态关键点预测模型基于高分辨率网络结合粗预测损失得到,所述粗预测损失通过结合肢体损失和姿态关键点坐标的损失得到;
所述姿态关键点坐标的损失使用MSE损失函数结合积分法得到,具体为:
其中,argsoftmax为积分函数,Jp为关键点坐标,为关键点p对应的第一阶段得分热图,p为关键点的序号,为关键点p对应的标签坐标,为关键点p对应的标签热图,k为关键点个数;
所述肢体损失使用MSE损失函数对每个肢体向量进行约束得到,具体为:
其中S为组成各肢体的首尾关键点序号对集合,i和j表示关键点的序号,为关键点i对应的标签坐标;
人体姿态解码步骤:基于姿态关键点的得分热力图解算关键点的坐标,进而形成人体姿态预测线,将人体姿态预测线映射在所述环境图像中得到人体姿态预测图像。
2.根据权利要求1所述的基于改进高分辨率网络的人体姿态预测方法,其特征在于,所述粗预测损失,具体为:
其中为关键点得分热图损失,Llimb为肢体损失,Ljoint为姿态关键点坐标的损失,λ为损失权重。
3.根据权利要求2所述的基于改进高分辨率网络的人体姿态预测方法,其特征在于,设置λ为0.0001。
4.根据权利要求1所述的基于改进高分辨率网络的人体姿态预测方法,其特征在于,所述姿态关键点预测模型采用二阶段的训练方式进行训练;
训练的第一阶段采用了所述粗预测损失,结合热图损失和肢体损失优化网络,直至模型收敛得到第一训练网络;
训练的第二阶段在第一训练网络中加入精细化模块,直至网络收敛得到第二训练网络,将第二训练网络作为姿态关键点预测模型;
所述训练的第二阶段在第一训练网络中加入精细化模块,具体为将精细化模块设置在第一输出层O1的输出端,即对第一输出层O1输出的关键点的预测得分热图进行微调优化,精细化模块输出至第二输出层O2。
5.根据权利要求4所述的基于改进高分辨率网络的人体姿态预测方法,其特征在于,所述精细化模块使用MSE损失进行特征拼接:
H02=f02(H01’⊙F13⊙F14))
f02表示第二输出层O2的映射函数,⊙表示特征拼接,F13表示第一高分辨率融合输出,F14表示第二高分辨率融合输出,H01’为采用了粗预测损失的第一输出层的输出;
在训练的第二阶段中,改进高分辨率网络使用精细化损失,该精细化损失具体为:
其中H02为采用了精细化模块进行微调优化后对关键点的预测得分热图,即第二输出层的输出,为标签热图。
6.根据权利要求1所述的基于改进高分辨率网络的人体姿态预测方法,其特征在于,还包括以下步骤:
人员检测步骤:检测环境图像中待识别的人员目标;
姿态坐标汇总步骤:将多个关键点的坐标汇总映射到同一环境图像,形成多条人体姿态预测线,得到多人人体姿态预测图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110382970.2/1.html,转载请声明来源钻瓜专利网。