801 |
一种融合超宽带定位与惯性传感技术的多人动作捕捉系统 |
CN201310054858.1 |
2013-02-20 |
CN103150016A |
2013-06-12 |
王永生 |
本发明公开了一种融合超宽带定位与惯性传感技术的多人动作捕捉系统,包括由惯性动捕技术获取各目标的动作信息的惯性动捕系统,由超宽带定位技术获取各目标的位置信息的UWB定位系统,用于在三维空间中对人体运动姿态数据进行采集和处理的惯性动捕系统,以及连接在所述UWB定位系统和惯性动捕系统之间、且用于对所述UWB定位系统和惯性动捕系统进行统一管控的主控制器系统。该融合超宽带定位与惯性传感技术的多人动作捕捉系统,融合惯性动捕与超宽带定位技术,获取各目标的动作信息和位置信息,通过融合计算,实时得到各捕捉目标的完整的信息并应用于动漫、游戏角色的控制,是现有动作捕捉技术的提升与发展。 |
802 |
一种基于微机械传感器的人体动作信息捕捉系统 |
CN201310054688.7 |
2013-02-20 |
CN103135765A |
2013-06-05 |
王永生 |
本发明公开了一种基于微机械传感器的人体动作信息捕捉系统,包括用于获取人体各特征点处的运动姿态数据的多个传感器单元,用于基于相应传感器网络传感器单元获取的人体运动姿态数据进行处理并通蓝牙模块无线透传方式进行数据传输的主控制器系统,以及具有PC软件和BVH文件的、且能够根据所述主控制器系统处理所得运动姿态数据进行计算并实时重建人体运动姿态模型的数据处理与图形重建系统;所述多个传感器单元中的每个传感器单元、主控制器系统、以及数据处理与图形重建系统,依次连接。该基于微机械传感器的人体动作信息捕捉系统,可以以无线方式实现人体全身动作的实时数据捕捉并应用于动画、游戏中虚拟角色或机器人的动作控制。 |
803 |
基于手指动作捕捉控制的向双眼直接投影式小型影音设备 |
CN201210333032.4 |
2012-09-10 |
CN102854984A |
2013-01-02 |
马青川 |
本发明涉及小型投影和摄像设备领域,尤其涉及一种向双眼直接投射3D影像并且通过3D摄像头进行手指动作捕捉控制的小型影音设备。该设备的使用位置为用户的鼻梁,在设备上有左右两个投影孔,设备可通过这两个投影孔向左右眼直接投射3D图像中的左眼图像信号和右眼图像信号。设备上的3D摄像头可捕捉用户的手指动作,与3D投影图像相配合可完成图形图像的3D虚拟触摸控制。此外3D摄像头还可以进行3D视频拍摄。设备上安装有音频模块可实现音频信号的输入输出。该设备可实现显示和控制的全3D化。 |
804 |
用于游戏动画的跨平台动作捕捉与智能编辑方法及系统 |
CN202510214890.4 |
2025-02-26 |
CN120182447A |
2025-06-20 |
胡维国 |
本发明公开了用于游戏动画的跨平台动作捕捉与智能编辑方法及系统,涉及游戏动画技术领域,该方法包括:模拟不同介质环境下,对虚拟人物不同关节点的运动影响情况,创建对应介质环境下运动表现模型;捕捉用户的动作数据,生成所述虚拟人物的动作数据;根据所述虚拟人物运动的虚拟场景,分析受到所述不同介质环境影响的关节点,获得动作影响参数;在所述虚拟人物运动的虚拟场景中,基于所述每个关节点的动作影响参数,调整虚拟人物的动作数据;基于调整后所述虚拟人物的动作数据,生成所述虚拟人物的动画视频。通过创建运动表现模型,使得虚拟人物在不同介质环境下的动作更符合物理规律,增强了游戏动画的沉浸感。 |
805 |
可快速拆装的同步标定多视角小范围多维动作捕捉装置 |
CN202410562844.9 |
2024-05-08 |
CN118470282B |
2025-06-17 |
马鑫盟; 吕凌峰; 程帅; 胡宁; 赵丽滨; 王子莹; 丁湘燕; 刘坤; 薛洁 |
本发明公开了一种可快速拆装的同步标定多视角小范围多维动作捕捉装置,涉及动作捕捉装置技术领域,包括两个底部支撑,底部支撑的端部均设有支撑桥,位于两个底部支撑同一端的两个支撑桥分别与摄像头支撑板的两端连接,另外两个支撑桥分别与标定器支撑板的两端连接,底部支撑与支撑桥之间、支撑桥与摄像头支撑板之间、支撑桥与标定器支撑板之间均通过第一快速拆装组件连接;摄像头支撑板上设有至少两个摄像头,标定器支撑板上设有标定器,摄像头与摄像头支撑板之间、标定器与标定器支撑板之间均通过第二快速拆装组件连接。本发明采用上述结构的一种可快速拆装的同步标定多视角小范围多维动作捕捉装置,实现动作捕捉装置的快速部署和高效使用。 |
806 |
一种基于红外光学动作捕捉的灵巧手位姿数据采集方法 |
CN202510122411.6 |
2025-01-26 |
CN120143967A |
2025-06-13 |
迟文政; 刘杰; 余嘉杰; 邹美塬; 刘超; 陈国栋; 孙立宁 |
本发明涉及人机交互技术领域,具体指一种基于红外光学动作捕捉的灵巧手位姿数据采集方法,包括:初始化红外光学动作捕捉系统和每个灵巧手各个手指屈伸的弯曲值;构建手部模型;修改VRPN通信协议的消息格式,获取手部各个标记点的位姿数据,计算各个任务下每个手部各个手指近端指尖关节的转动角度,作为各个任务下每个手部对应灵巧手各个手指近端指尖关节的转动角度后,依次计算出各个任务下每个灵巧各个手指手掌指关节的转动角度、各个手指屈伸的弯曲值和大拇指内收外展的弯曲值。本发明提高了灵巧手抓取的成功率,提升了灵巧手的可靠性,加强了捕捉复杂手部动作的能力,增强了对灵巧手在复杂任务场景下的性能。 |
807 |
一种基于热成像的手势光学动作捕捉识别的方法 |
CN202510115701.8 |
2025-01-24 |
CN120108033A |
2025-06-06 |
金佳馨; 黄照夏; 高虹艳; 朱奕豪; 周诗彤; 蔡永瑝 |
本发明涉及手势识别技术领域,具体涉及一种基于热成像的手势光学动作捕捉识别的方法,包括使用红外热成像的手势识别设备采集手势的红外图像,红外热成像的手势识别设备包括热成像设备和多个骨骼点贴片;对采集到的手势的红外图像进行预处理,得到预处理的红外图像;对预处理的红外图像进行灰度拓展、手势边缘检测、边缘图像填充和图像二值化分割,得到二值化的手势区域图像;对二值化的手势区域图像进行手部信息提取,基于手部信息对手部的骨骼点进行识别与标注,得到手部的骨骼点运动轨迹连接图;对骨骼点运动轨迹连接图进行手势识别,输出手势类别。本发明可以在低能见度的环境中高精准度捕捉的人物手势动作并进行手势识别,得到手势类别。 |
808 |
用于动作捕捉的标记点的类别确定方法及装置、终端 |
CN202111212197.1 |
2021-10-18 |
CN113989923B |
2025-06-03 |
施跇; 王从艺; 刘博; 柴金祥 |
一种用于动作捕捉的标记点的类别确定方法及装置、终端,所述方法包括:获取当前时刻的多张图像,其中,每张图像包括多个待识别标记点;根据所述多张图像确定当前时刻所述多个待识别标记点的位置信息;将所述多个待识别标记点的位置信息输入分类模型,以得到多个待识别标记点的类别信息,其中,所述分类模型是采用训练标记点集对预设模型进行训练得到的,所述训练标记点集包括多个动作姿态下多个样本标记点的位置信息和真实类别信息。通过本发明的方案,有利于准确、高效地确定被摄对象的动作姿态。 |
809 |
基于动作捕捉和数字孪生的机器人运动控制系统及方法 |
CN202510228436.4 |
2025-02-28 |
CN120065913A |
2025-05-30 |
尚鲜连; 牛丽; 陈静; 程媛 |
本发明涉及机器人技术与数字孪生技术领域,且公开了基于动作捕捉和数字孪生的机器人运动控制系统及方法,建立机器人动作捕捉模块、数字孪生机器人模型设计模块、机器人数据收集模块、机器人数据分析模块、机器人数据判断模块、数字孪生机器人模型优化模块和机器人执行模块,在机器人动作捕捉模块中进行动作数据采集,在数字孪生机器人模型设计模块中构建机器人运行虚拟模型,机器人数据收集模块对上述模块数据进行收集,机器人数据分析模块收集的数据进行计算,机器人数据判断模块判断机器人当前状态是否满足预期,数字孪生机器人模型优化模块对数字孪生机器人模型的方案进行缺点补充,机器人执行模块在实际运行中执行经过优化后的方案。 |
810 |
基于光惯融合全身动作捕捉的机器人强化学习模型构建方法 |
CN202510422912.6 |
2025-04-07 |
CN120002661A |
2025-05-16 |
张群; 季毅君; 张昭; 余天昊; 范蓉; 陈慎之; 周至; 郑宇龙 |
本申请涉及动作捕捉数据处理的技术领域,公开基于光惯融合全身动作捕捉的机器人强化学习模型构建方法,包括:对目标人体的多个关键参数进行测量和记录;对佩戴在目标人体上的所有惯性传感器进行初次校准和记录,同时对布置在周围的所有相机进行标定;在目标人体执行指定动作的过程中,同步采集获取目标人体的动作采样数据;动作采样数据包括惯性传感器对应的运动数据和相机对应的相机图像数据;对运动数据和相机图像数据进行处理后进行融合与优化,得到优化后的关节姿态四元数据和人体动作序列数据;将人体动作序列数据输入人形机器人的强化学习模型中,配置预设奖励函数进行强化学习训练,能够提高机器人的学习效率和动作执行的准确性。 |
811 |
一种基于动作捕捉的互动式幼儿教育系统及方法 |
CN202510210369.3 |
2025-02-25 |
CN119992889A |
2025-05-13 |
贾淑玲; 杨洪续 |
本申请涉及幼儿学习教育技术领域,尤其涉及一种基于动作捕捉的互动式幼儿教育系统及方法,从幼教云平台服务器访问预设周期内多个预设时刻的幼儿反馈动作信息和交互机器人教育指令信息,对多个预设时刻的幼儿反馈动作信息和交互机器人教育指令信息分别执行类型对应标签分配以获取幼儿反馈信息类型对应标签序列和交互机器人教育行为类型对应标签序列;对幼儿反馈信息类型对应标签序列和交互机器人教育行为类型对应标签序列执行类型反馈交互特征获得以获取幼儿心智适配置信度矩阵;通过幼儿心智适配置信度矩阵,确定幼儿心智适配发展的评价记录。本发明为用户提供有针对性的学习内容,关注非智力因素,重视对幼儿的适配性教育是否合理等问题。 |
812 |
大模型驱动的时空特征与文本增强少样本动作捕捉方法 |
CN202510388665.2 |
2025-03-31 |
CN119903479A |
2025-04-29 |
张千; 闫硕; 邵明文; 梁鸿; 钟敏; 王凤华 |
本发明公开大模型驱动的时空特征与文本增强少样本动作捕捉方法,属于动作捕捉技术领域,用于视频动作捕捉,包括获取视频数据并进行预处理,所述视频数据包括待进行动作捕捉的查询视频数据和带有动作标签的支持集视频数据,将预处理后的视频数据输入视觉编码器中,得到视频数据的视觉特征;综合两次类别概率分布,得出查询视频数据的动作捕捉结果。本发明通过时序增强适配器和时空融合适配器实现高效时空特征提取,增强了视频特征的时空建模能力;利用多层次注意力机制,提升了文本与视频特征的融合能力,构建了具有强泛化能力的类原型;在少样本学习任务中显著提升了模型的捕捉准确率,可训练参数量少,降低了计算成本。 |
813 |
一种基于动作捕捉系统的动态脊柱盆骨参数获取方法 |
CN202211670103.X |
2022-12-25 |
CN115813348B |
2025-03-28 |
张冬阳; 王兆瀚; 吴兵; 王征; 王岩; 张群; 季毅君; 张海威 |
本发明涉及一种基于动作捕捉系统的动态脊柱盆骨参数获取方法,所述方法包括以下步骤:在受试者骨骼对应的体表位置设置反光小球;受试者在步骤一的基础上拍摄X光片;根据X光片计算出初始的脊柱盆骨参数以及反光小球与人体骨头的相对关系;基于步骤三中在动作捕捉系统中添加骨骼模型,并在动作捕捉系统中添加虚拟小球;受试者在动作捕捉场景中做任意运动,进行脊柱盆骨参数的动态计算。与现有技术相比,本发明通过动作捕捉系统获得动态脊柱盆骨的数据,从而计算医学上的脊柱盆骨参数,受试者在动作捕捉场景中任意运动,便可得到动态的脊柱盆骨参数,有助于医生更有效的分析病人脊柱状况,制定更佳的治疗方案。 |
814 |
一种用于动作捕捉的穿戴式投影系统及投影方法 |
CN202510174212.X |
2025-02-18 |
CN119645233A |
2025-03-18 |
黄飞; 江民中; 李仕伟; 王松岩; 王威 |
本发明涉及投影图像处理技术领域,公开了一种用于动作捕捉的穿戴式投影系统及方法,穿戴式投影系统包括硬件设备集群与软件节点集群,硬件设备集群包括显示模块、投射模块及手势捕捉模块,显示模块包括载体,所述载体于用户眼部水平向上间隔设置有内透镜与外透镜,所述内透镜与外透镜间设置有储液腔,软件节点集群包括渲染节点、数据处理节点、备用节点、负载均衡节点、存储节点、缓存节点及监控节点,本发明通过改变电极的输出电压,来控制储液腔中的液体形状,从而实现内透镜与外透镜间透射的焦距的调整,而非作用在图像输出层面,满足不同人的个性化观看需求,实现系统整体减负,并消除用户复杂的技术手段学习障碍。 |
815 |
一种基于计算机视觉动作捕捉的Unity数字人肢体驱动方法 |
CN202411626321.2 |
2024-11-14 |
CN119580151A |
2025-03-07 |
杜卫平; 刘斌儒; 刘艳荣; 张丽英; 邹宗峰 |
本发明涉及计算机视觉领域和数字人领域,特别涉及一种基于计算机视觉动作捕捉的Unity数字人肢体驱动方法。先获取人物运动视频并分部位标注,搭建含人体等部位检测和关键点解析模块的动作捕捉模型,训练测试模型验证关键点识别准确度,用卡尔曼滤波平滑关键点坐标缓解抖动,最后关联动作与Unity数字人肢体实现驱动。其优势在于构建关键部位划分和数据融合处理系统,能精确驱动数字人,缓解抖动和模糊问题,提升动态表现和情感表达能力,为用户提供真实沉浸体验,推动数字人技术发展。 |
816 |
用于惯性动作捕捉系统的IMU校准方法、装置、介质及产品 |
CN202411404933.7 |
2024-10-10 |
CN119533520A |
2025-02-28 |
左乘旭; 江潇; 姚远; 石祥仁; 郭诗辉 |
本发明提供了一种用于惯性动作捕捉系统的IMU校准方法、装置、介质及产品,其中,惯性动作捕捉系统包括多个IMU、校准参数解算网络以及姿态估计模型,该方法包括:S1,定时获取多个IMU的IMU旋转读数序列;S2,计算每个IMU旋转读数序列的旋转丰富度;S3,将每个IMU旋转读数序列输入校准参数解算网络,通过校准参数解算网络估计每个IMU的校准参数,更新旋转丰富度高于预定阈值的校准参数;S4,将更新后的校准参数与其对应的IMU旋转读数序列进行计算,得到全局关节姿态,并将全局关节姿态输入姿态估计模型。利用上述技术方案,提升了惯性动作捕捉的准确性,同时优化了用户体验,使惯性动作捕捉系统在长时间连续使用中保持高效和稳定。 |
817 |
一种颈椎仰卧位正骨手法动作捕捉辅助台及其应用 |
CN202411782514.7 |
2024-12-05 |
CN119523758A |
2025-02-28 |
刘岩; 杨鹏; 郭达; 吕阳; 刘洪亮; 曾宁静; 陈光熙; 郑晓婕 |
本发明属于医学研究领域,公开了一种颈椎仰卧位正骨手法动作捕捉辅助台及其应用。辅助台包括支撑主板以及在其下方设置的第一辅助机构,支撑主板一端设有肩部支撑,肩部支撑下方设有第二辅助机构,第二辅助机构远离肩部支撑的一侧设有第三辅助机构,第三辅助机构的上方设有头部支撑,第一辅助机构可带动肩部与头部支撑沿支撑板长度方向做往复运动,第二辅助机构可带动肩部支撑绕所述支撑板与肩部支撑的连接处上下运动,第三辅助机构可带动头部支撑沿支撑板长度方向做往复运动,保证被施术者在颈椎仰卧位正骨时能够进行安全的体位摆放,方便对被施术者颈后部进行标记和捕捉。利用该辅助台可以有效捕捉颈椎仰卧位正骨时的关节运动。 |
818 |
一种融合虚拟成像和动作捕捉的飞行技能增强训练支撑平台 |
CN202411810625.4 |
2024-12-10 |
CN119479427A |
2025-02-18 |
陈令福; 张大尉; 孙民; 姜亚楠; 王少龙; 刘敏; 袁文豪; 施鑫 |
本发明属于飞行训练平台技术领域,提供了一种融合虚拟成像和动作捕捉的飞行技能增强训练支撑平台,包括实物座舱和虚拟设备,实物座舱提供飞机训练的座舱实物部分,包括座舱舱体、飞行座椅和操纵部件,虚拟设备布置在座舱舱体中,为飞行学员提供基于虚拟视景的虚拟座舱,虚拟座舱包括仿真飞行画面和非座舱实物部分的座舱内场景。本发明基于虚实结合技术和采用XR视频直通获取动作捕捉技术以及商用货架产品搭建平台的模式开展系统整体设计,技术安全可靠,实施方便可行,使用、维护保障简单便捷。通过构建包含XR头显和计算机组件的平台,实现了融合虚拟成像和动作捕捉的飞行技能增强训练。经过验证,表明该设计可靠有效,对实现低成本高交互性虚实结合的飞行技能增强训练意义重大。 |
819 |
基于易穿戴动作捕捉力交互设备的遥操作控制系统及方法 |
CN202411341973.1 |
2024-09-25 |
CN119458311A |
2025-02-18 |
杨赓; 张光伟; 汪若菡; 张光耀; 陈立鹏 |
本发明公开了一种基于易穿戴动作捕捉力交互设备的遥操作控制系统及方法。包括:动作捕捉力交互设备,用于获取操作者上肢的运动信息并获取远端的环境力信息,进而进行力觉交互;数据通讯及控制模块,用于双向下达控制指令以及记录数据并可视化;远端机器人感知及执行模块,用于执行位置控制指令并将远端环境力信息反馈给动作捕捉力交互设备,同时进行位置的调节、对执行过程中的力觉信息进行感知和上报。本发明采用机械式动作捕捉方案结合人因功效学进行七自由度动作捕捉交互设备设计并加装安全限位,保证操作人员操作过程中的协调性和安全性;具有交互直观安全、环境适应性好的优点,在机器人远程控制处置等信息技术领域具有广阔的应用前景。 |
820 |
基于深度学习网络的多IMU动作捕捉方法、系统及介质 |
CN202410356154.8 |
2024-03-27 |
CN118196899B |
2025-02-14 |
刘银华; 付铭; 张淋; 刘骢; 霍玉前; 孙武辉 |
本发明涉及人机交互装置技术领域,具体涉及一种基于深度学习网络的多IMU动作捕捉方法、系统及介质。本发明包括如下步骤:S1、多IMU动作的捕捉:预先在SMPL人体模型的关键部位佩戴多个IMU;通过Mujoco物理引擎对多变量特征施加高斯白噪声来模拟真实的IMU数据;S2、构建深度学习网络:深度学习网络输入多变量特征,通过正向TCN和反向TCN学习得到空间特征,再将空间特征融合,经过正向GRU和反向GRU得到时序特征,时序特征融合输入多头注意力层以得到人体姿态参数;S3、人体姿态的物理约束:利用PBDL损失函数,施加物理约束后的深度学习网络,实现对人体姿态的准确识别,符合自然世界的物理规律。 |