701 |
可快速拆装的同步标定多视角小范围多维动作捕捉装置 |
CN202410562844.9 |
2024-05-08 |
CN118470282A |
2024-08-09 |
马鑫盟; 吕凌峰; 程帅; 胡宁; 赵丽滨; 王子莹; 丁湘燕; 刘坤; 薛洁 |
本发明公开了一种可快速拆装的同步标定多视角小范围多维动作捕捉装置,涉及动作捕捉装置技术领域,包括两个底部支撑,底部支撑的端部均设有支撑桥,位于两个底部支撑同一端的两个支撑桥分别与摄像头支撑板的两端连接,另外两个支撑桥分别与标定器支撑板的两端连接,底部支撑与支撑桥之间、支撑桥与摄像头支撑板之间、支撑桥与标定器支撑板之间均通过第一快速拆装组件连接;摄像头支撑板上设有至少两个摄像头,标定器支撑板上设有标定器,摄像头与摄像头支撑板之间、标定器与标定器支撑板之间均通过第二快速拆装组件连接。本发明采用上述结构的一种可快速拆装的同步标定多视角小范围多维动作捕捉装置,实现动作捕捉装置的快速部署和高效使用。 |
702 |
一种基于进化计算的多视频3D人体动作捕捉方法及系统 |
CN202410472848.8 |
2024-04-19 |
CN118097027B |
2024-07-30 |
徐淑涵; 王璐威; 杨旭旨 |
本发明涉及3D动作捕捉与进化计算领域,具体是一种基于进化计算的多视频3D人体动作捕捉方法及系统;本发明在对多视频3D人体动作捕捉时,通过对多视频进行同步,然后对同步后的视频采用相机参数和人体姿态参数联合优化的方式获取视频中的每帧的3D人体姿态,无需所有视频动作采集自同一个体,且充分考虑了多视频、多视角检测的特性,能够有效解决遮挡和深度模糊问题,以获得更好的3D人体动作捕捉效果;同时,采用相机参数和人体姿态参数联合优化,能够增强优化过程中跳出局部最优解的能力,获得更精确的3D人体姿态建模,有效提升3D人体动作捕捉的性能。 |
703 |
一种在动作捕捉系统下集群机器人的单标记定位技术 |
CN202410813659.2 |
2024-06-24 |
CN118376248A |
2024-07-23 |
李新明; 莫双齐; 唐琳; 肖坤洋 |
本发明公开了一种在动作捕捉系统下集群机器人的单标记定位技术,包括步骤(1)为集群机器人中的每个机器人安装一个IMU,并将所有机器人与地面站无线连接;(2)为集群机器人中的每个机器人配备一个能被动作捕捉系统所识别的反光标记点;(3)对地面站进行初始化,并在初始化的同时录入每个机器人的初始位置;(4)获得机器人的位姿信息;(5)在地面站录入任务需求,结合位姿信息与任务需求,利用优化算法对集群机器人进行全局路径规划。本申请提供了一种在动作捕捉系统下集群机器人的单标记定位技术,解决了传统定位方法在复杂环境中容易受到干扰的问题,提高了微型化机器人的定位精度和性能,推动了机器人技术的发展和应用。 |
704 |
一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质 |
CN202110970528.1 |
2021-08-23 |
CN113724176B |
2024-07-16 |
姚睿; 胡峰; 林本岳; 田洁; 廖信春; 张潇潇 |
本发明公开了一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质,通过预先训练的图像分割模型何姿态估计模型提取相邻摄像头同一时刻捕捉的两幅三通道图像的掩膜值图像关键点数据,并识别每幅三通道图像上待捕捉人物的目标关键点数据,计算每幅三通道图像上待捕捉人物的特征向量,得到所述两幅三通道图像间的变换矩阵,将所述两幅三通道图像上的相同人物关键点数据拼接到同一三通道图像上,并根据在不同时刻同一三通道图像上的目标关键点数据的坐标模拟所述待捕捉人物的运动轨迹。基于特征点的特征向量匹配进行图像拼接,可以有效的降低计算复杂度,计算量小,能够提高计算速度,通过滤波能够减少扰动,无缝衔接的精度高。 |
705 |
基于深度学习网络的多IMU动作捕捉方法、系统及介质 |
CN202410356154.8 |
2024-03-27 |
CN118196899A |
2024-06-14 |
刘银华; 付铭; 张淋; 刘骢; 霍玉前; 孙武辉 |
本发明涉及人机交互装置技术领域,具体涉及一种基于深度学习网络的多IMU动作捕捉方法、系统及介质。本发明包括如下步骤:S1、多IMU动作的捕捉:预先在SMPL人体模型的关键部位佩戴多个IMU;通过Mujoco物理引擎对多变量特征施加高斯白噪声来模拟真实的IMU数据;S2、构建深度学习网络:深度学习网络输入多变量特征,通过正向TCN和反向TCN学习得到空间特征,再将空间特征融合,经过正向GRU和反向GRU得到时序特征,时序特征融合输入多头注意力层以得到人体姿态参数;S3、人体姿态的物理约束:利用PBDL损失函数,施加物理约束后的深度学习网络,实现对人体姿态的准确识别,符合自然世界的物理规律。 |
706 |
基于扩散概率模型的稀疏人体动作捕捉系统及模型训练方法 |
CN202410340330.9 |
2024-03-25 |
CN118155286A |
2024-06-07 |
石野; 唐江南; 汪婧雅 |
本发明公开了基于扩散概率模型的稀疏人体动作捕捉系统及模型训练方法,通过考虑场景与人体动作之间的关联性,引入场景信息,提升了稀疏人体动作捕捉的质量。此外,本发明还额外引入对了上、下身动作关联的建模,使得生成的人体动作更加真实。 |
707 |
一种基于动作捕捉技术的数字人驱动方法及系统 |
CN202410572208.4 |
2024-05-10 |
CN118135070A |
2024-06-04 |
朱光辉; 赵衍维 |
本申请涉及图像数据处理技术领域,具体涉及一种基于动作捕捉技术的数字人驱动方法及系统,该方法包括:获取连续采集数字人体图像,得到每帧人体节点模型图像的关节点和肢体连线;基于肢体连线长度差异确定人体肢体连线垂直旋转强度;基于每帧图像中各节点的位置坐标,构建人体关节相对运动向量和绝对运动向量,计算帧间相对运动变异度、帧间绝对运动变异度和帧内绝对运动变异度,确定关节点姿态运动后验权重和人体整体运动后验权重,计算人体模型关节点修正位置卡尔曼增益,确定人体模型关节点修正位置,完成对数字人三维模型的驱动。从而在人体肢体遮挡的情况下获得正确的人体节点模型图,提高数字人驱动效果。 |
708 |
一种基于进化计算的多视频3D人体动作捕捉方法及系统 |
CN202410472848.8 |
2024-04-19 |
CN118097027A |
2024-05-28 |
徐淑涵; 王璐威; 杨旭旨 |
本发明涉及3D动作捕捉与进化计算领域,具体是一种基于进化计算的多视频3D人体动作捕捉方法及系统;本发明在对多视频3D人体动作捕捉时,通过对多视频进行同步,然后对同步后的视频采用相机参数和人体姿态参数联合优化的方式获取视频中的每帧的3D人体姿态,无需所有视频动作采集自同一个体,且充分考虑了多视频、多视角检测的特性,能够有效解决遮挡和深度模糊问题,以获得更好的3D人体动作捕捉效果;同时,采用相机参数和人体姿态参数联合优化,能够增强优化过程中跳出局部最优解的能力,获得更精确的3D人体姿态建模,有效提升3D人体动作捕捉的性能。 |
709 |
一种刚体标记点优化方法、设备及光学动作捕捉系统 |
CN202010853628.1 |
2020-08-21 |
CN112085847B |
2024-05-17 |
黄少光; 许秋子 |
本发明公开了一种刚体标记点优化方法,包括:获取步骤:获取多个具有不同支撑杆长度的标记点坐标集合,该坐标集合融合了螺纹插槽、支撑杆和螺纹面等参数,然后通过自检步骤去掉不符合预设的自检条件的刚体,以及通过校验步骤逐一保存符合预设的校验条件的刚体到第二组合中,则保存在第二组合中的刚体即为经过优化后的刚体,通过这种优化方法使得具有标记点动捕系统中存在的刚体姿态不稳定、刚体匹配不准确或不稳定等问题得到了明显的改善,同时使动捕系统出现这些问题的概率明显减少。 |
710 |
人体动作捕捉模型的确定方法、装置、设备及存储介质 |
CN202311764949.4 |
2023-12-20 |
CN118038540A |
2024-05-14 |
胡伟泰; 杨青 |
本申请提供一种人体动作捕捉模型的确定方法、装置、设备及存储介质通过获取模型的训练数据以及网络构建层,使网络构建层对训练数据进行训练,以得到人体动作捕捉模型,实现精确捕捉人体动作。即通过基于光场重建技术捕获的人体动作数据库构建动作先验,训练深度神经网络模型实现从体感外设采集的RGBD图像中捕捉人体动作。整个系统运行速度快,精确度高,可以达到实时运行的要求,解决了现有技术中存在的问题,具有积极的效果。 |
711 |
一种基于视觉动作捕捉数据位置比例进行体态判断的方法 |
CN202311729764.X |
2023-12-15 |
CN117935350A |
2024-04-26 |
张芸艳; 李帅; 张伟鹏 |
本发明公开了一种基于视觉动作捕捉数据位置比例进行体态判断的方法,包括以下步骤:在摄像头进行动作捕捉情况下,通过二维化的人体关节数据,基于关节二维化位置距离比例,进行人体姿态的判断。本发明在单目摄像头进行动作捕捉情况下,通过二维化的人体关节数据判断人体姿态,将现有需要三维向量夹角判断以及多参数模型判断的方式简化为二维平面上两个点及多个点之间的相对距离的比例关系方式,大大降低了算力开销并提高了姿势判断的准确度,满足高准确性、高稳定性、高效率的使用需求。 |
712 |
一种基于动作捕捉的分布式无人车集群实验平台 |
CN202311869426.6 |
2023-12-31 |
CN117891249A |
2024-04-16 |
洪慧; 李彤; 张柯; 叶超宇 |
本发明提供的一种基于动作捕捉的分布式无人车集群实验平台,其包括:集群数据采集模块,用于获取多个无人车的运行信息,将无人车的运行信息发送至集群演示模块和集群控制模块,获取的运行信息精度高误差小;集群演示模块对接收的无人车运行信息进行实时展示,直观性强;集群控制模块对接收的运行信息进行实验,对实验结果进行分析和存储,根据实验结果生成对应的控制指令输出至执行终端控制无人车运动,控制无人车周期性迭代;同时通过多程线技术进行并行计算,使得执行终端的多个无人车可同时执行控制指令进行数据迭代;集群控制模块中无人车进行迭代的数据可根据需求自由变更,满足了科研人员对实验平台易操作和易维护的需求。 |
713 |
基于三维角色模型和动作捕捉的动画生成方法与系统 |
CN202410151353.5 |
2024-02-02 |
CN117876549A |
2024-04-12 |
赵科全; 谢高; 徐绮雯 |
本申请涉及动画制作的技术领域,公开了基于三维角色模型和动作捕捉的动画生成方法与系统,所述方法包括获取角色模型设计稿以匹配对应的活动骨骼组文件,接收骨骼修正信息以调整活动骨骼组,接收活动限定信息以设定各活动骨骼之间的连接关系信息和运动关系信息;基于角色模型设计稿和活动骨骼组文件,生成形变实体模型并输出至设计终端;接收形变部件组文件,基于活动骨骼组文件和形变部件组文件,生成目标角色模型;实时接收动作捕捉数据并加载至目标角色模型中,基于动作捕捉数据、运动关系信息和形变限制信息驱动活动骨骼,生成限定模拟模式动画;本申请具有提高动作捕捉技术应用于不同角色模型上时的动作合理性的效果。 |
714 |
一种基于人脸表情识别与动作捕捉的虚拟现实同步方法 |
CN202410224408.0 |
2024-02-29 |
CN117809002A |
2024-04-02 |
曾昱锦 |
本发明涉及虚拟现实同步技术领域,具体涉及一种基于人脸表情识别与动作捕捉的虚拟现实同步方法,包括以下步骤:对目标对象进行人脸表情识别,得到人脸表情图像;对所述目标对象进行动作捕捉,得到动作图像;分别对所述人脸表情图像和所述动作图像进行图像配准;将经过图像配准后的人脸表情图像与经过图像配准后的动作图像融合为表情动作图像;将所述表情动作图像剪切为多个时序图像片段;分别对每一个时序图像片段进行状态特征同步处理和自适应时间同步处理,得到处理后的同步图像。本方法无需利用复杂的虚拟现实同步算法,通过对状态特征分配优先级来调整状态特征序列中元素的有效时间,并消除由此造成的时间偏差负效应,保证动作的一致连续性。 |
715 |
一种基于动作捕捉的水下航行器的自主游动方法及系统 |
CN202311417003.0 |
2023-10-27 |
CN117687428A |
2024-03-12 |
曹勇; 谢钰; 张文泽; 郝艺伟; 王鹏昊; 马淑敏; 曹永辉; 潘光 |
本发明提供一种水下航行器自主游动时的路径规划方法,在水中的障碍物上以及水下航行器上均设置反光球,水下航行器中设置有下位机;在水下设置多个高速摄像头;对高速摄像头进行环境光去噪处理;对高速摄像头依次进行空间位置标定和动态标定;通过上位机将位置信息和姿态信息依次转换为三维点数据和三维模型;再通过上位机根据三维模型计算水下航行器的航向信息,并将航向信息传输至下位机,使得水下航行器根据航向信息躲避障碍物;本发明能够完全应用在小范围的水域,对于水下航行器的算力要求更小。 |
716 |
一种手部动作姿态捕捉设备、方法及虚拟现实交互系统 |
CN201810203918.4 |
2018-03-13 |
CN108196686B |
2024-01-26 |
程凡宇; 郭颜京天; 刘昊 |
本发明实施例提供一种手部动作姿态捕捉设备、方法及虚拟现实交互系统。所述手部动作姿态捕捉设备包括:五指半指多夹层手套、姿态采集组件、中央处理模块和数据接收器,姿态采集组件实时采集手背及五指对应骨骼的初始姿态数据,中央处理模块获取到初始姿态数据之后,对其进行处理,确定第二姿态数据,将第二姿态数据通过私有无线通信协议发送给数据接收器,数据接收器通过USB协议将数据转发给计算机终端。本发明实施例采用私有通信协议保证超低的延迟,提升了虚拟现实交互系统的性能。 |
717 |
结合手部动作捕捉与动素分析的人机交互界面评测方法 |
CN202311346081.6 |
2023-10-17 |
CN117369638A |
2024-01-09 |
卢兆麟; 宋新衡 |
本发明公开了结合手部动作捕捉与动素分析的人机交互界面评测方法,涉及人机交互技术领域,能够获取可使用的行为信息,并结合动素分析法,对交互行为进行分类实现对人机交互界面的测评。首先采集人机交互时每一时刻的用户手指关节弯曲度数据,并记录用户交互操作视频。对用户手指关节弯曲度数据进行归一化处理。记录评测任务时间,将每一时刻单独手指关节弯曲度数据转化为任务时间内累积手指关节活动量。选取任务中被试实际使用的手指关节。对所选取手指关节的活动量进行求和,得出任务时间内,每一时刻的手指关节活动量。使用动素分析法,将手指关节活动量进行分类,统计各类动素行为的操作时间和活动量,对人机交互界面进行评测。 |
718 |
基于动作捕捉的数据处理方法、装置、设备以及存储介质 |
CN202311204606.2 |
2023-09-18 |
CN117274783A |
2023-12-22 |
李丰果; 陈睿智; 刘豪杰; 冯志强 |
本公开提供了一种基于动作捕捉的数据处理方法、装置、设备以及存储介质,涉及图像处理技术领域,尤其涉及计算机视觉、虚拟现实领域。具体实现方案为:观测动作捕捉对象得到动作捕捉对象的关节的运动参数观测量之后,对各关节的运动参数观测量,分别采用第一抖动消除算法进行处理以得到第一参考量,以及采用第二抖动消除算法进行处理以得到第二参考量。根据第一参考量和所述第二参考量之间的差异,选取与差异匹配的目标抖动消除算法对所述运动参数观测量进行修正。通过两种不同的抖动消除算法结果之间的差异,体现出动作捕捉对象的运动快慢状态,进而,基于不同的运动快慢状态选取匹配的目标抖动消除算法修正运动参数观测量,提高动作捕捉对象的动作还原度。 |
719 |
基于动作捕捉的心脏超声标准切面自动指引方法及系统 |
CN202311348667.6 |
2023-10-18 |
CN117252853A |
2023-12-19 |
刘治; 李一然; 曹艳坤; 陶可猛 |
本发明属于图像处理领域,本发明提供了一种基于动作捕捉的心脏超声标准切面自动指引方法及系统,进行受试者的图像捕捉,通过获取的图像信息判断出人体姿态,并对超声探头进行动作捕捉,确定超声探头的运动轨迹和姿态;获取受试者在目标体位,超声探头的实时超声影像信息;根据超声探头的运动轨迹,进行轨迹换算,根据实时超声影像信息进行知识学习与特征提取,基于提取结果和换算结果,确定当前检测切面和标准切面的差距,并对超声探头的移动角度和移动距离进行预测;根据预测结果,可以实现心脏超声标准切面的自动获取于探头行动指引。 |
720 |
基于三维动画中实时多人动作捕捉并直播的方法和系统 |
CN201810640630.3 |
2018-06-21 |
CN108986189B |
2023-12-19 |
强项; 芦振华; 胡文彬; 蒋晓光 |
本发明涉及一种基于三维动画中实时多人动作捕捉并直播的方法,包括基于三维动画中的角色创建每一个三维角色模型,加入贴图文件,设置肢体动作参数;为三维模型建立和绑定骨骼模型,为预设的肢体动作准备动画,并导入至图形引擎;提取每个真实的动捕演员的骨骼数据,然后配置对应的三维角色模型;在动捕室内通过动捕设备实时采集动捕演员的动作信息,将动捕设备的数据传输到图形引擎中,然后实时渲染和驱动相应的角色模型,生成实时视频,并进行直播。本发明还相应提出一种基于三维动画中实时多人动作捕捉并直播的计算机装置、系统和计算机程序。 |