首页 / 专利库 / 视听技术与设备 / 动作捕捉 / 基于深度学习的实时动作捕捉和三维动画生成方法与装置

基于深度学习的实时动作捕捉和三维动画生成方法与装置

阅读:825发布:2020-05-13

专利汇可以提供基于深度学习的实时动作捕捉和三维动画生成方法与装置专利检索,专利查询,专利分析的服务。并且本 发明 提供一种基于 深度学习 的实时 动作捕捉 和三维动画生成方法与装置,包括:接收人体动作 视频 帧 ;对人体动作视频帧进行插值处理;通过三维人体关键点检测模型进行检测,预测出人体的25个关键点的三维坐标;基于划分的层级进行动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数;三维动画模型生成;使用旋转四元数驱动三维动画模型;对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频。本发明的方法只需可见光摄像头结合深度学习模型即可实时预测人体动作并驱动三维模型,成本低、实时性好。,下面是基于深度学习的实时动作捕捉和三维动画生成方法与装置专利的具体信息内容。

1.一种基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,包括:
接收通过可见光摄像装置获取的人体动作视频
对人体动作视频帧进行插值处理;
通过三维人体关键点检测模型对插值处理后的视频帧进行检测,预测出人体的25个关键点的三维坐标;
根据预设规则将关键点进行前后层级划分,并基于层级进行人体动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数;
三维动画模型生成,包括建立动画色的骨骼蒙皮模型;
使用前述的旋转四元数驱动三维动画模型;
对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频。
2.根据权利要求1所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,所述的人体动作视频帧的插值处理包括:
对获取的人体动作视频帧使用双线性插值算法,使其放缩到符合三维人体关键点检测模型的像素值。
3.根据权利要求1所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,所述的三维人体关键点检测模型为基于深度卷积神经网络的三维人体关键点检测模型,其通过标记三维关键点坐标的人体图像数据集进行训练,其中:
人体图像数据集为[In(xn1,yn1,zn1,xn2,yn2,zn2,...,xn25,yn25,zn25)],其中In为第n幅包含人体的图像;(xnm,ynm,znm)(m=1,2,...,25)为第n幅图的人体第m个关键点的三维坐标;n=1,2,...,N,N为总数据量;
通过 深度卷 积 神经网 络进 行训练 的过 程中 ,使 用的 损失函 数为 :
其中 是指模型对某一批
次数据的第b个训练样本Ib预测的第m个关键点的三维坐标,B为批次大小。
4.根据权利要求1所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,所述的前后层级划分的操作具体包括:
将25个人体关键点划分层级,其中从上到下表示关键点的前后层级;
其中25个人体关键点分别包括:
脊柱底,作为根关键点并据此划分的三个分支
第一分支:左髋、左膝、左踝与左脚;
第二分支:右髋、右膝、右踝与右脚;
第三分支:脊柱中、脊柱顶;
其第三分支具有以脊柱顶为根关键点划分的第一子分支、第二子分支以及第三子分支:
第一子分支:颈与头;
第二子分支:左肩、左肘、左腕、左手与左拇指,以及左指尖;
第三子分支:右肩、右肘、右腕、右手与右拇指,以及右指尖。
5.根据权利要求1或者4所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,所述的人体动作分解的操作包括:
固定与各骨骼相连的前一层级关键点,骨骼依次绕xyz轴从骨骼基准状态各旋转某一角度,其中骨骼基准状态是指前一层级关键点到骨骼的方向为y轴方向。
6.根据权利要求5所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,对于任意一骨骼B,骨骼B绕与之相连的前一层级关键点P旋转的角度由关键点P与后两个层级关键点P′和P″坐标处理得到,计算方式为:
骨骼B的前方向向量:
骨骼B的上方向向量:
骨骼B的右方向向量:
再求解骨骼旋转角,具体包括:
对三个方向向量进行归一化:
其中, 为归一化的前方向向量, 为归一化的上方向向量, 为归一化的右方向向量,则旋转矩阵为 将旋转矩阵转化为旋转四元数Q;
每个骨骼旋转是在前一层级骨骼旋转基础上进行的,设骨骼B前一层级骨骼绕其前一层级关键点的旋转四元数为Qbefore,则在前一层级骨骼旋转基础上,骨骼B绕关键点P的相对旋转四元数为 若某骨骼前一层级关键点为脊柱底根关键点,则相对
旋转四元数为绝对四元数。
7.根据权利要求5所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,使用旋转四元数驱动三维动画模型的操作包括:
根据检测输出的人体的脊柱底根关键点确定动画模型的当前位置
根据关键点计算得到的各骨骼的相对旋转四元数,从脊柱底根关键点开始,使用FK前向动学方式驱动动画模型的各个骨骼绕关节旋转,再利用LBS线性混合蒙皮实现骨骼控制蒙皮变形渲染姿势进行更新人体动画模型,得到一帧动画图像。
8.一种基于深度学习的实时动作捕捉和三维动画生成装置,其特征在于,包括:
用于接收通过可见光摄像装置获取的人体动作视频帧的模
用于对人体动作视频帧进行插值处理的模块;
用于通过三维人体关键点检测模型对插值处理后的视频帧进行检测,预测出人体的25个关键点的三维坐标的模块;
用于根据预设规则将关键点进行前后层级划分,并基于层级进行人体动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数的模块;
用于三维动画模型生成的模块,包括建立动画角色的骨骼蒙皮模型;
用于使用前述的旋转四元数驱动三维动画模型的模块;
用于对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频的模块。
9.根据权利要求8所述的基于深度学习的实时动作捕捉和三维动画生成装置,其特征在于,所述关键点的三维坐标到骨骼绕关键点的旋转四元数的转换操作被设置成按照下述方式操作:
对于任意一骨骼B,骨骼B绕与之相连的前一层级关键点P旋转的角度由关键点P与后两个层级关键点P′和P″坐标处理得到,计算方式为:
骨骼B的前方向向量:
骨骼B的上方向向量:
骨骼B的右方向向量:
再求解骨骼旋转角,具体包括:
对三个方向向量进行归一化:
其中, 为归一化的前方向向量, 为归一化的上方向向量, 为归一化的右方向向量,则旋转矩阵为 将旋转矩阵转化为旋转四元数Q;
每个骨骼旋转是在前一层级骨骼旋转基础上进行的,设骨骼B前一层级骨骼绕其前一层级关键点的旋转四元数为Qbefore,则在前一层级骨骼旋转基础上,骨骼B绕关键点P的相对旋转四元数为 若某骨骼前一层级关键点为脊柱底根关键点,则相对
旋转四元数为绝对四元数。
10.根据权利要求9所述的基于深度学习的实时动作捕捉和三维动画生成方法,其特征在于,使用旋转四元数驱动三维动画模型的操作包括:
根据检测输出的人体的脊柱底根关键点确定动画模型的当前位置;
根据关键点计算得到的各骨骼的相对旋转四元数,从脊柱底根关键点开始,使用FK前向动力学方式驱动动画模型的各个骨骼绕关节旋转,再利用LBS线性混合蒙皮实现骨骼控制蒙皮变形,渲染姿势进行更新人体动画模型,得到一帧动画图像。

说明书全文

基于深度学习的实时动作捕捉和三维动画生成方法与装置

技术领域

[0001] 本发明涉及计算机图像处理领域,具体而言涉及一种基于深度学习的实时动作捕捉和三维动画生成方案。

背景技术

[0002] 现有技术的三维动画制作过程中往往先对演员的动作进行捕捉,再驱动三维动画模型做出相应动作,以达到逼真自然的效果。传统的方法需要演员穿戴装有传感器的设备,再将获取的动作信息渲染到三维动画模型并输出三维动画。这种人体动作驱动三维模型的方法存在两方面弊端,其一是动作捕捉设备不仅价格高昂、操作复杂,还会由于穿戴不适影响演员的表演,且设备的安装与使用受到场地的制约;其二是捕捉到的动作数据需专业人员通过专业软件进行后期渲染合成动画,工序繁琐耗时、人工成本较高,无法做到实时输出。

发明内容

[0003] 本发明目的在于提供一种使用可见光摄像头结合深度学习模型实时预测人体动作并驱动三维模型的方法。
[0004] 为实现上述目的,本发明所使用的技术方案如下:
[0005] 基于深度学习的实时动作捕捉和三维动画生成方法,包括:
[0006] 接收通过可见光摄像装置获取的人体动作视频
[0007] 对人体动作视频帧进行插值处理;
[0008] 通过三维人体关键点检测模型对插值处理后的视频帧进行检测,预测出人体的25个关键点的三维坐标;
[0009] 根据预设规则将关键点进行前后层级划分,并基于层级进行人体动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数;
[0010] 三维动画模型生成,包括建立动画色的骨骼蒙皮模型;
[0011] 使用前述的旋转四元数驱动三维动画模型;
[0012] 对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频。
[0013] 优选地,所述的人体动作视频帧的插值处理包括:
[0014] 对获取的人体动作视频帧使用双线性插值算法,使其放缩到符合三维人体关键点检测模型的像素值。
[0015] 优选地,所述的三维人体关键点检测模型为基于深度卷积神经网络的三维人体关键点检测模型,其通过标记三维关键点坐标的人体图像数据集进行训练,其中:
[0016] 人体图像数据集为[In,(xn1,yn1,zn1,xn2,yn2,zn2,...,xn25,yn25,zn25)],其中In为第n幅包含人体的图像;(xnm,ynm,znm)(m=1,2,...,25)为第n幅图的人体第m个关键点的三维坐标;n=1,2,...,N,N为总数据量;
[0017] 通过深度卷积神经网络进行训练的过程中,使用的损失函数为:其中 是指模型对某一批
次数据的第b个训练样本Ib预测的第m个关键点的三维坐标,B为批次大小。
[0018] 优选地,所述的前后层级划分的操作具体包括:
[0019] 将25个人体关键点划分层级,其中从上到下表示关键点的前后层级;
[0020] 其中25个人体关键点分别包括:
[0021] 脊柱底,作为根关键点并据此划分的三个分支
[0022] 第一分支:左髋、左膝、左踝与左脚;
[0023] 第二分支:右髋、右膝、右踝与右脚;
[0024] 第三分支:脊柱中、脊柱顶;
[0025] 其第三分支具有以脊柱顶为根关键点划分的第一子分支、第二子分支以及第三子分支:
[0026] 第一子分支:颈与头;
[0027] 第二子分支:左肩、左肘、左腕、左手与左拇指,以及左指尖;
[0028] 第三子分支:右肩、右肘、右腕、右手与右拇指,以及右指尖。
[0029] 优选地,对于任意一骨骼B,骨骼B绕与之相连的前一层级关键点P旋转的角度由关键点P与后两个层级关键点P′和P″坐标处理得到,计算方式为:
[0030] 骨骼B的前方向向量:
[0031] 骨骼B的上方向向量:
[0032] 骨骼B的右方向向量:
[0033] 再求解骨骼旋转角,具体包括:
[0034] 对三个方向向量进行归一化:
[0035] 其中, 为归一化的前方向向量, 为归一化的上方向向量, 为归一化的右方向向量,则旋转矩阵为 将旋转矩阵转化为旋转四元数Q;
[0036] 每个骨骼旋转是在前一层级骨骼旋转基础上进行的,设骨骼B前一层级骨骼绕其前一层级关键点的旋转四元数为Qbefore,则在前一层级骨骼旋转基础上,骨骼B绕关键点P的相对旋转四元数为 若某骨骼前一层级关键点为脊柱底根关键点,则相对旋转四元数为绝对四元数。
[0037] 优选地,使用旋转四元数驱动三维动画模型的操作包括:
[0038] 根据检测输出的人体的脊柱底根关键点确定动画模型的当前位置
[0039] 根据关键点计算得到的各骨骼的相对旋转四元数,从脊柱底根关键点开始,使用FK前向动学方式驱动动画模型的各个骨骼绕关节旋转,再利用LBS线性混合蒙皮实现骨骼控制蒙皮变形,渲染姿势进行更新人体动画模型,得到一帧动画图像。
[0040] 根据本发明还提出一种基于深度学习的实时动作捕捉和三维动画生成装置,包括:
[0041] 用于接收通过可见光摄像装置获取的人体动作视频帧的模
[0042] 用于对人体动作视频帧进行插值处理的模块;
[0043] 用于通过三维人体关键点检测模型对插值处理后的视频帧进行检测,预测出人体的25个关键点的三维坐标的模块;
[0044] 用于根据预设规则将关键点进行前后层级划分,并基于层级进行人体动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数的模块;
[0045] 用于三维动画模型生成的模块,包括建立动画角色的骨骼蒙皮模型;
[0046] 用于使用前述的旋转四元数驱动三维动画模型的模块;
[0047] 用于对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频的模块。
[0048] 应当理解,前述构思以及在下面更加详细地描述的额外构思的所有组合只要在这样的构思不相互矛盾的情况下都可以被视为本公开的发明主题的一部分。另外,所要求保护的主题的所有组合都被视为本公开的发明主题的一部分。
[0049] 结合附图从下面的描述中可以更加全面地理解本发明教导的前述和其他方面、实施例和特征。本发明的其他附加方面例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本发明教导的具体实施方式的实践中得知。

附图说明

[0050] 附图不意在按比例绘制。在附图中,在各个图中示出的每个相同或近似相同的组成部分可以用相同的标号表示。为了清晰起见,在每个图中,并非每个组成部分均被标记。现在,将通过例子并参考附图来描述本发明的各个方面的实施例,其中:
[0051] 图1是本发明的基于深度学习的实时动作捕捉和三维动画生成方法的流程示例;
[0052] 图2是本发明使用的人体关键点示例。
[0053] 图3是本发明使用的三维人体关键点检测模型结构图。
[0054] 图4是本发明使用的人体关键点层级图。
[0055] 图5是本发明使用的骨骼旋转分解示例。

具体实施方式

[0056] 为了更了解本发明的技术内容,特举具体实施例并配合所附图式说明如下。
[0057] 在本公开中参照附图来描述本发明的各方面,附图中示出了许多说明的实施例。本公开的实施例不必定意在包括本发明的所有方面。应当理解,上面介绍的多种构思和实施例,以及下面更加详细地描述的那些构思和实施方式可以以很多方式中任意一种来实施,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
[0058] 结合附图所示,本发明旨在针对现有的人体动作驱动三维模型的方法往往需要穿戴专业设备获取人体动作,这些设备价格高昂、使用繁琐,并且还需专业人员配合专业软件进行后期渲染合成动画,工序复杂耗时的问题,提出一种基于深度学习的实时动作捕捉和三维动画生成方法,只需可见光摄像头结合深度学习模型即可实时预测人体动作并驱动三维模型,成本低、实时性好。
[0059] 根据本发明示例性实施例的基于深度学习的实时动作捕捉和三维动画生成方法,采用深度学习模型实时捕捉人体关键点的三维坐标,使用可见光摄像头获取人体动作视频,通过深度学习模型预测视频每一帧图像中的人体关键点的三维坐标,根据坐标计算出三维模型对应关节的旋转四元数,驱动三维模型做出相应动作并输出动画。
[0060] 结合图1-5所示,下面更加具体的介绍本发明示例性实施的三维动画生成的过程,其具体操作包括:
[0061] 接收通过可见光摄像装置获取的人体动作视频帧;
[0062] 对人体动作视频帧进行插值处理;
[0063] 通过三维人体关键点检测模型对插值处理后的视频帧进行检测,预测出人体的25个关键点的三维坐标;
[0064] 根据预设规则将关键点进行前后层级划分,并基于层级进行人体动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数;
[0065] 三维动画模型生成,包括建立动画角色的骨骼蒙皮模型;
[0066] 使用前述的旋转四元数驱动三维动画模型;
[0067] 对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频。
[0068] 进一步地,所述的人体动作视频帧的插值处理包括:
[0069] 对获取的人体动作视频帧使用双线性插值算法,使其放缩到符合三维人体关键点检测模型的像素值。
[0070] 例如,根据三维人体关键点检测模型的输入图片,将摄像头获取的当前视频帧使用双线性插值算法放缩到640像素×320像素大小,再输入到关键点检测模型中。
[0071] 本发明的实施例中,三维人体关键点检测模型为基于深度卷积神经网络的三维人体关键点检测模型,其通过标记三维关键点坐标的人体图像数据集进行训练,其中:
[0072] 人体图像数据集为[In,(xn1,yn1,zn1,xn2,yn2,zn2,...,xn25,yn25,zn25)],其中In为第n幅包含人体的图像;(xnm,ynm,znm)(m=1,2,...,25)为第n幅图的人体第m个关键点的三维坐标;n=1,2,...,N,N为总数据量;
[0073] 通过深度卷积神经网络进行训练的过程中,使用的损失函数为:其中 是指模型对某一批
次数据的第b个训练样本Ib预测的第m个关键点的三维坐标,B为批次大小。
[0074] 如图3所示,检测模型由卷积层、最大值池化层、全局均值池化层和全连接层组成,卷积层的卷积核大小为3×3,步长为1,补零方式为Same Padding,卷积核个数标注在图3中各卷积层的括号内,卷积层后使用ReLU激活函数进行激活;最大值池化层的池化窗口大小为2×2、步长为2;全连接层的神经元数为75。
[0075] 三维人体关键点检测模型的输入为含有人体的图像(宽为640像素、高为320像素),输出为25个人体关键点的三维坐标。与人体运动相关的主要关节位置定义为人体关键点。
[0076] 进一步地,所述的前后层级划分的操作具体包括:
[0077] 将25个人体关键点划分层级,其中从上到下表示关键点的前后层级;
[0078] 其中,25个人体关键点分别包括:
[0079] 脊柱底,作为根关键点并据此划分的三个分支
[0080] 第一分支:左髋、左膝、左踝与左脚;
[0081] 第二分支:右髋、右膝、右踝与右脚;
[0082] 第三分支:脊柱中、脊柱顶;
[0083] 其第三分支具有以脊柱顶为根关键点划分的第一子分支、第二子分支以及第三子分支:
[0084] 第一子分支:颈与头;
[0085] 第二子分支:左肩、左肘、左腕、左手与左拇指,以及左指尖;
[0086] 第三子分支:右肩、右肘、右腕、右手与右拇指,以及右指尖。
[0087] 如图4所示,将25个人体关键点划分层级后,进一步将人体动作可分解为,固定与各骨骼相连的前一层级关键点,骨骼依次绕xyz轴从基准状态各旋转某一角度,骨骼基准状态是指前一层级关键点到骨骼的方向为y轴方向。例如如左小腿的运动可以视为“左膝”和“左踝”之间的骨骼绕“左膝”旋转。
[0088] 结合图5所示,进一步地,对于任意一骨骼B,骨骼B绕与之相连的前一层级关键点P旋转的角度由关键点P与后两个层级关键点P′和P″坐标处理得到,计算方式为:
[0089] 骨骼B的前方向向量:
[0090] 骨骼B的上方向向量:
[0091] 骨骼B的右方向向量:
[0092] 再求解骨骼旋转角,具体包括:
[0093] 对三个方向向量进行归一化:
[0094] 其中, 为归一化的前方向向量, 为归一化的上方向向量, 为归一化的右方向向量,则旋转矩阵为 将旋转矩阵转化为旋转四元数Q。
[0095] 每个骨骼旋转是在前一层级骨骼旋转基础上进行的,设骨骼B前一层级骨骼绕其前一层级关键点的旋转四元数为Qbefore,则在前一层级骨骼旋转基础上,骨骼B绕关键点P的相对旋转四元数为 若某骨骼前一层级关键点为脊柱底根关键点,则相对旋转四元数为绝对四元数。由此,可通过旋转四元数来驱动三维动画模型。
[0096] 本发明的实施例中,三维动画模型的设计与生成,可以采用现有的3D(三维)建模软件来实现,例如3DMax、SolidWorks,从而建立动画角色骨骼蒙皮模型。具体包括:定义模型的关键点(与25各人体关键点相对应)位置、骨骼初始姿态、蒙皮网格顶点,并将蒙皮顶点绑定在骨骼上;然后设置关键点位置约束、骨骼旋转约束、放缩约束和位置约束;最后,绘制蒙皮素材,从而生成动画对象角色的骨骼蒙皮模型。
[0097] 进一步地,本发明使用旋转四元数驱动三维动画模型的操作包括:
[0098] 根据检测输出的人体的脊柱底根关键点确定动画模型的当前位置;
[0099] 根据关键点计算得到的各骨骼的相对旋转四元数,从脊柱底根关键点开始,使用FK前向动力学(Forwards Kinematics)方式驱动动画模型的各个骨骼绕关节旋转,再利用LBS线性混合蒙皮(Linear Blending Skinning)实现骨骼控制蒙皮变形,渲染姿势进行更新人体动画模型,得到一帧动画图像。
[0100] 如前述的,最后再通过对摄像机采集的视频帧(人体动作视频帧序列)按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频。
[0101] 结合图示,本发明的示例性实施过程还可以配置如下:
[0102] {基于深度学习的实时动作捕捉和三维动画生成装置}
[0103] 一种基于深度学习的实时动作捕捉和三维动画生成装置,包括:
[0104] 用于接收通过可见光摄像装置获取的人体动作视频帧的模块;
[0105] 用于对人体动作视频帧进行插值处理的模块;
[0106] 用于通过三维人体关键点检测模型对插值处理后的视频帧进行检测,预测出人体的25个关键点的三维坐标的模块;
[0107] 用于根据预设规则将关键点进行前后层级划分,并基于层级进行人体动作分解,将关键点的三维坐标转换为骨骼绕关键点的旋转四元数的模块;
[0108] 用于三维动画模型生成的模块,包括建立动画角色的骨骼蒙皮模型;
[0109] 用于使用前述的旋转四元数驱动三维动画模型的模块;
[0110] 用于对人体动作视频帧序列按照前述方式重复处理,以设定的帧率将动画图片连接起来,输出与人体动作同步的三维动画视频的模块。
[0111] 其中,前述关键点的三维坐标到骨骼绕关键点的旋转四元数的转换操作被设置成按照下述方式操作:
[0112] 对于任意一骨骼B,骨骼B绕与之相连的前一层级关键点P旋转的角度由关键点P与后两个层级关键点P′和P″坐标处理得到,计算方式为:
[0113] 骨骼B的前方向向量:
[0114] 骨骼B的上方向向量:
[0115] 骨骼B的右方向向量:
[0116] 再求解骨骼旋转角,具体包括:
[0117] 对三个方向向量进行归一化:
[0118] 其中, 为归一化的前方向向量, 为归一化的上方向向量, 为归一化的右方向向量,则旋转矩阵为 将旋转矩阵转化为旋转四元数Q;
[0119] 每个骨骼旋转是在前一层级骨骼旋转基础上进行的,设骨骼B前一层级骨骼绕其前一层级关键点的旋转四元数为Qbefore,则在前一层级骨骼旋转基础上,骨骼B绕关键点P的相对旋转四元数为 若某骨骼前一层级关键点为脊柱底根关键点,则相对旋转四元数为绝对四元数。
[0120] 其中,前述的使用旋转四元数驱动三维动画模型的操作包括:
[0121] 根据检测输出的人体的脊柱底根关键点确定动画模型的当前位置;
[0122] 根据关键点计算得到的各骨骼的相对旋转四元数,从脊柱底根关键点开始,使用FK前向动力学方式驱动动画模型的各个骨骼绕关节旋转,再利用LBS线性混合蒙皮实现骨骼控制蒙皮变形,渲染姿势进行更新人体动画模型,得到一帧动画图像。
[0123] 虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈