[发明专利]一种基于Unity3D的URP三维视频融合方法在审
申请号: | 202211524786.8 | 申请日: | 2022-11-30 |
公开(公告)号: | CN115834862A | 公开(公告)日: | 2023-03-21 |
发明(设计)人: | 王智慧;李豪杰;宁森;林政聪 | 申请(专利权)人: | 大连理工大学 |
主分类号: | H04N13/293 | 分类号: | H04N13/293;H04N13/363;H04N9/31;H04N7/18;G06T15/55;G06T15/04 |
代理公司: | 辽宁鸿文知识产权代理有限公司 21102 | 代理人: | 许明章;王海波 |
地址: | 116024 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 unity3d urp 三维 视频 融合 方法 | ||
本发明属于虚拟现实技术领域,提出一种基于Unity3D的URP三维视频融合方法。本发明包括三维视频融合、更改虚拟相机属性、更改投影视频属性、多投影仪拼接、控制投影穿透、屏蔽视频黑边、调参面板功能。本发明基于Un ity3D引擎,通过模拟监控摄像头投影的方式,利用深度信息使监控画面与3D模型无缝融合,实现虚实结合的效果,并且编写脚本完成视频融合系统的各种具体功能。本发明成本低,可控度高,可跨平台开发,数据无需经过第三方平台,隐私更加安全。同时相较传统方案,开发更加简单,调参更加便捷,为视频融合开发人员提供了可靠的解决方案。
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种基于Unity3D的URP三维视频融合方法。
背景技术
现如今,监控早已随处可见,极大地保障了人们生活的安全性,但想从茫茫的监控画面中提取有效的信息却并非易事。由于3D数据相比2D数据拥有直观、全面等优势,3D数据正获得越来越多的重视,并且应用越来越广泛。同时,随着元宇宙、虚拟现实等技术的发展,三维视频融合将变得很有必要,即将2D的监控画面与虚拟的三维场景无缝融合。如果该技术进一步与当下热门的数字孪生或人工智能等技术相结合,将创造出更多价值,并拥有广阔的前景。
虚拟现实技术(简称VR),又称虚拟环境、灵境或人工环境,是指利用计算机生成一种可对参与者直接施加视觉、听觉和触觉感受,并允许其交互地观察和操作的虚拟世界的技术。
视频融合技术是虚拟现实技术的一个分支,也可以说是虚拟现实的一个发展阶段。视频融合技术指将一个或多个由视频采集设备采集的关于某场景或模型的图像序列视频与一个与之相关的虚拟场景加以融合,以生成一个新的关于此场景的虚拟场景或模型。这个模型中因为视频的加入得到一个无论是虚拟场景还是视频本身都无法单独完成的信息结合体。视频融合的目的是增加虚拟场景与现实的互动性,减小计算机模型中信息不确定因素,增加虚拟模型的信息承载量,为现实与虚拟之间架起一座桥梁,拓展虚拟现实技术的应用领域。
针对这些应用场景,一些公司开发了相应的软件或网站系统(一种基于WebGL的图像投影融合方法,专利公开号:CN113283543A)来供开发者进行使用,但此方式开发出的视频融合系统大多是在Web端运行,无法发挥客户端的全部性能,且需要借助第三方平台进行开发,不仅需要支付巨额费用,而且开发系统中的各种数据也会经过第三方平台,有一定的隐私安全隐患,受限较大。同时,视频融合技术往往属于数字孪生系统下的一个子系统,在开发视频融合技术时,往往需要先开发数字孪生系统的基本功能,无形之中增加了开发成本。由于现有的视频融合方法(如基于三维场景的视频融合方法)都是闭源的,且方法复杂,涉及大量计算机图形学知识,从零开发视频融合方法会有一定挑战。为了解决这些问题,本发明将借助Unity3D开源引擎进行开发,打破僵局。
Unity3D引擎,是一款开源的能够实时进行3D游戏与项目创作的可视化开发平台,该平台提供一整套完善的软件解决方案,支持平台包括手机、平板电脑、PC、游戏主机、增强现实和虚拟现实设备。该平台拥有成熟的可视化界面、物理引擎系统和内置集成库,开发者往往可以通过少量脚本并利用拖拽或添加状态机的方式完成场景的搭建以及具体逻辑、功能的实现。开发者还可以自己编写或修改相关插件等高级操作实现需求的具体功能,在项目运行时能够方便快捷的实时对项目的参数进行修改和调试,可以快捷修改模型加载的精细程度,可以连接数据库和后端。Unity3D不仅有完整成熟且快捷的开发模式,更支持全平台的兼容性,运行在PC端的项目往往仅需要修改少部分代码即可在Android端、Mac端、Web端,等平台运行。
发明内容
本发明的目的是提供一种基于Unity3D的URP三维视频融合方法,基于Unity3D引擎,通过模拟监控摄像头投影的方式,利用深度信息使监控画面与3D模型无缝融合,实现虚实结合的效果,并且编写脚本完成视频融合系统的各种具体功能。本发明所使用的开发平台为Unity3D,成本低,可跨平台开发,支持第三方插件,可控度高,数据无需经过第三方平台,隐私更加安全。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211524786.8/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种标志物在制备前列腺癌诊断产品中的应用
- 下一篇:一种单臂五轴转台
- 同类专利
- 单像素成像系统及方法-202111271950.4
- 吝凯;丁文;张晋京 - 北京市水产科学研究所(国家淡水渔业工程技术研究中心)
- 2021-10-29 - 2023-10-24 - H04N13/293
- 本发明提供一种单像素成像系统及方法,该系统包括:光源、空间光调制器、单像素探测器和图像生成装置;所述光源,用于发射激光;所述空间光调制器,用于基于泽尼克图案作为调制图案对第一光束进行调制;所述单像素探测器,用于基于第二光束获取目标光场的信息;所述图像生成装置,用于基于所述目标光场的信息,生成目标图像。本发明提供的单像素成像系统及方法,基于空间光调制器采用泽尼克图案对第一光束进行调制,通过单像素探测器输出的目标光场的信息,可以实现目标图像的重建。能够在较少的投影次数的情况下,实现较高质量的成像,提高单像素成像的成像效率。
- 通过二维模拟的三维场景互动方法及计算机可读存储介质-202110937486.1
- 陈江煌;郭天祈;李中冬;陈节省;刘旺 - 福建凯米网络科技有限公司
- 2021-08-16 - 2023-06-02 - H04N13/293
- 本发明公开了一种通过二维模拟的三维场景互动方法及计算机可读存储介质,方法包括:获取三维场景,所述三维场景包括前景层和背景层,所述前景层用于显示三维模型,所述背景层用于显示二维视频;前景层发送第一互动指令至背景层,背景层根据所述第一互动指令,执行对应的互动任务,所述第一互动指令包括变换指令和/或特效触发指令;和/或背景层发送第二互动指令至前景层,前景层根据所述第二互动指令,控制所述三维模型执行对应的动作。本发明可降低对设备的性能要求,通用性强,且可提高三维场景的互动效果。
- 一种基于Unity3D的URP三维视频融合方法-202211524786.8
- 王智慧;李豪杰;宁森;林政聪 - 大连理工大学
- 2022-11-30 - 2023-03-21 - H04N13/293
- 本发明属于虚拟现实技术领域,提出一种基于Unity3D的URP三维视频融合方法。本发明包括三维视频融合、更改虚拟相机属性、更改投影视频属性、多投影仪拼接、控制投影穿透、屏蔽视频黑边、调参面板功能。本发明基于Un ity3D引擎,通过模拟监控摄像头投影的方式,利用深度信息使监控画面与3D模型无缝融合,实现虚实结合的效果,并且编写脚本完成视频融合系统的各种具体功能。本发明成本低,可控度高,可跨平台开发,数据无需经过第三方平台,隐私更加安全。同时相较传统方案,开发更加简单,调参更加便捷,为视频融合开发人员提供了可靠的解决方案。
- 高真实感增强现实演播室虚拟与现实相机轨迹同步的方法-202210477571.9
- 刘斯斯;王瑞;罗意平;曾杜;何超 - 中南大学
- 2022-04-28 - 2023-02-24 - H04N13/293
- 高真实感增强现实演播室虚拟与现实相机轨迹同步的方法,包括以下步骤:规划拍摄路径,调整现实相机与待拍摄对象的位置关系,并获取现实相机的位姿信息;将现实相机的位姿信息实时发送到虚拟引擎的客户端程序,使虚拟相机运动方式与现实相机一致;接收同步位姿坐标信息,并将虚拟相机移动至接收到的现实相机的位姿坐标上;确定现实相机拍摄的视频图像与三维虚拟场景的区域和视角融合,保证三维虚拟场景的流畅度和沉浸感。利用本发明,可以圆满完成真实相机与虚拟相机之间的轨迹同步,实现真实视频和虚拟环境的数据融合,将获取到的真实场景的数据信息映射到虚拟环境中。
- 一种光场片源合成方法-202111123886.5
- 赵健;钱荣 - 锋芒科技南京有限公司
- 2021-09-24 - 2022-02-25 - H04N13/293
- 本发明涉及裸眼3D显示技术领域,且公开了一种光场片源合成方法,包括以下步骤:S1:基础视点的获取,通过平行相机的拍摄或者2D图片加深度图获得一组基础视点图像;S2:多视点图像扩充,根据接收的基础视点图,通过复制的方式扩充成致密的多视点图像;S3:裸眼3D图像的合成,根据接收的多个视点的图像,通过图像排布模式来排布3D图像中各像素点的图像信息,合成裸眼3D图像。本发明允许用户能够裸眼观看清晰,立体感十足的3D画面,极大的降低了观看时的不适感。
- 在可移动设备的显示图像上叠加信息的方法及装置-201911362667.5
- 冯夏根;张燕昆;吴颖谦 - 斑马网络技术有限公司
- 2019-12-26 - 2021-10-08 - H04N13/293
- 本发明提供一种在可移动设备的显示图像上叠加信息的方法、装置、电子设备及计算机可读存储介质,其中,在可移动设备的显示图像上叠加信息的方法包括:在可移动设备的显示图像上的预定位置处显示叠加信息;获取可移动设备的转向角;基于所述转向角对所述叠加信息进行位置调整。根据本发明的在可移动设备的显示图像上叠加信息的方法,能够准确叠加AR信息在图像的相应位置,使得AR信息和图像是融为一体。
- 一种2D-3D图像混合拼接系统-201911334537.0
- 潘卫明;曹臻;邱昊 - 上海晨驭信息科技有限公司
- 2019-12-23 - 2020-12-22 - H04N13/293
- 本发明属于图像处理技术领域,具体为一种2D‑3D图像混合拼接系统。本系统包括2D图像信号采集单元,3D图像信号采集单元,图像同步处理单元,图像数据交换单元,2D3D混合拼接处理单元,混合信号输出单元和3D拼接显示单元。本发明能将任意多个2D图像以及3D图像进行图像混合拼接处理,最后在一组显示单元上同步显示;使得用户可同时观看到多个3D图像信号以及多个2D图像信号,提高了用户获取图像信息的效率;本系统解决了传统3D图像显示系统功能单一,信号切换操作繁琐等问题,极大提升了用户的工作效率及使用体验。
- 专利分类