[发明专利]视觉惯性数据深度融合的定位方法及装置有效

专利信息
申请号: 201810860266.1 申请日: 2018-08-01
公开(公告)号: CN109238277B 公开(公告)日: 2020-10-27
发明(设计)人: 程农;李建;李清 申请(专利权)人: 清华大学
主分类号: G01C21/16 分类号: G01C21/16
代理公司: 北京清亦华知识产权代理事务所(普通合伙) 11201 代理人: 张润
地址: 10008*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种视觉惯性数据深度融合的定位方法及装置,其中,方法包括以下步骤:步骤S1:在初始时刻将系统置于静止状态,采集初始化时间段内加速度计的测量值和陀螺仪的测量值,以估计系统的初始状态;步骤S2:在得到初始状态后,根据加速度计的测量值和陀螺仪的测量值对系统状态进行传播,并对系统的协方差矩阵进行更新;步骤S3:在获取到图像以后,利用IMU辅助的外点剔除方法跟踪特征点;步骤S4:对于跟踪失败的特征点,根据视觉测量信息构建视觉测量,并对系统状态进行更新。该方法充分利用了视觉惯性融合系统中的多种传感器数据,能有效地利用IMU数据来提升跟踪的效果、效率,能够实时、准确的估计系统的位姿。
搜索关键词: 视觉 惯性 数据 深度 融合 定位 方法 装置
【主权项】:
1.一种视觉惯性数据深度融合的定位方法,其特征在于,包括以下步骤:步骤S1:在初始时刻将系统置于静止状态,采集初始化时间段内加速度计的测量值和陀螺仪的测量值,以估计系统的初始状态;步骤S2:在得到所述初始状态后,根据所述加速度计的测量值和所述陀螺仪的测量值对系统状态进行传播,并对系统的协方差矩阵进行更新;步骤S3:在获取到图像以后,利用IMU辅助的外点剔除方法跟踪特征点;以及步骤S4:对于跟踪失败的特征点,根据视觉测量信息构建视觉测量,并对所述系统状态进行更新。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810860266.1/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top