首页 / 专利库 / 电脑图像 / 表情符号 / 一种基于深度学习的肢体语言检测与行为分析方法及系统

一种基于深度学习的肢体语言检测与行为分析方法及系统

阅读:48发布:2020-05-12

专利汇可以提供一种基于深度学习的肢体语言检测与行为分析方法及系统专利检索,专利查询,专利分析的服务。并且本 发明 提出了一种基于 深度学习 的肢体语言检测与行为分析方法及系统。通过对目标的行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,丰富数据集,予以标注后制作成训练集。后使用CNN训练图片及 视频 帧 数据,关键点为面部表情,头部动作,四肢动作,整体动作 频率 ,这4点训练成一个集成模型,其次使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能 力 。上述过程使得本发明拥有较强的主动学习能力,并不断优化 数据库 ,使得准确率能够随着识别次数的增加不断提升。,下面是一种基于深度学习的肢体语言检测与行为分析方法及系统专利的具体信息内容。

1.一种基于深度学习的肢体语言检测与行为分析方法,其特征是包括以下步骤:
步骤1、制作训练集:对行为情感逻辑建模,丰富数据集,予以标注后制作成训练集;
步骤2、肢体语言检测及行为分析:通过视频拍摄装置获取目标生物的视频语音片段,将其作为模型的输入,执行分类任务;
步骤3、行为应对指导:抓取网络数据,在前一步检测结果的基础上,根据网络上的最优方案给予指导意见。
2.根据权利要求1所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于,所述步骤1进一步包括:
步骤1-1、对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,丰富数据集,予以标注后制作成训练集;
步骤1-2、使用CNN训练图片及视频数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型;
步骤1-3、使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能
3.根据权利要求2所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于,所述步骤1-1进一步包括:
提取出模型特征作为训练样本,计算输入量与输出量之间关联性的估计函数,训练系统对于不同输出量的预测能力:
式中,ω表示广义参数,h表示所预测的函数集的最大训练能力,n为训练样本,η∈[0,
1],R(ω)表示期望险。
4.根据权利要求2所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于,所述步骤1-2进一步包括:
将原图片和视频帧数据转化为Ycbcr图像,提取其亮度通道YL,将该通道YL进行下采样得到单通道图像YL′;对亮度通道YL进行相邻插值运算,得到插值图像YLC,对亮度通道YL进行强度为0.8的锐化得出锐化图像YLR,最终将单通道图像YL′、插值图像YLC、锐化图像YLR以0.8∶0.9∶1.1的比率混合形成多通道图像Ym;
将图片和视频帧数据通过卷积运算分割为输入层、卷积层、输出层,其中,输入层的大小为n×n,通道数为12;卷积层为两层,分别记为C1层和C2层,其中,C1层的卷积特征图为
128个,其尺寸为(n-8+1)×(n-8+1);由每个8×8的卷积核对输入图像进行内卷积,并对卷积结果进行第一次激活:
Fc1=max(0,W1×Ym+B1)
式中,Fc1表示第一层卷积层C1的激活函数,Ym表示多通道图像,B1表示第一层卷积层C1的比率因子,W1表示第一层卷积层C1的放大因子;
C2层的卷积特征图为128个,其尺寸为(n-16)×(n-16),将经过C1层的的输出量作为变量输入到C2层,使用128个卷积核对C2层中的数据进行卷积运算,并对卷积结果进行第二次激活:
式中,Fc2表示第一层卷积层C2的激活函数,B2表示第二层卷积层C2的比率因子,W2表示第二层卷积层C2的放大因子,其余符号含义同上;
构造超分辨重构模型,采用均方误差作为损失函数:
式中, 表示高分辨率图像,YL表示亮度通道,N表示抽取图像块的数量,K0表示调节系数。
5.根据权利要求2所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于,所述步骤1-3进一步包括:
使用LSTM结构输出序列S:
式中,A表示状态转移概率矩阵, 表示A从状态yi转移到状态yi+1所需要的状态转移概率,T*k表示输出矩阵的大小,其中,T表示序列的长度,k表示标签的数量;h(t)表示深度神经网络上一层时刻t输入数据时的隐藏状态;
采用高斯-伯努利模型对语音数据进行处理,其能量函数定义如下:
式中,vi表示第i个可视层神经元,hj表示第j个隐层神经元,wij表示连接权值,ai表示对应于可视层神经元的偏置值,bj表示对应于第j个隐层神经元的偏置值,σi表示高斯噪声标准差, 表示学习率;
对能量函数进行激活概率计算:
式中,p(h,θ)表示可视层神经元的激活概率,p(v,θ)表示隐层神经元的激活概率,其余各符号含义同上;
为求得每层的模型连接参数θ,采用梯度上升法来极大化概率的对数似然函数:
式中, 表示模型的期望, 表示数据的期望。
6.根据权利要求1所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于,所述步骤2进一步包括:
通过视频拍摄装置获取目标生物的视频语音片段,视频与语音需要同步输入,针对不同的输入使用不同的模型,将视频拍摄装置获取到的目标生物的视频片段与训练集中的模型比对,对每个像素点上使用差分算子为(-1,0,1)在垂直和平放行进行运算,计算其梯度值和梯度方向:
梯度方向:
式中,Gx表示图像沿x方向的梯度,Gy表示图像沿y方向的梯度, 表示最大变化率方向上的单位距离增加的量,T表示梯度参数;
梯度值:
式中,f(x+1,y)表示y方向不变,x方向累加一个像素点的图像函数,f(x,y+1)表示x方向不变,y方向累加一个像素点的图像函数,其它含义同上。
7.根据权利要求1所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于,所述步骤3进一步包括:
将步骤2中的结果与步骤1中训练集中的数据集的输出序列进行比对,若插值小于阈值,则判定为属于被比对对象的行为,将结果通过图形界面反馈给用户;若插值大于阈值,则将该输出序列记录在数据集中并做好标记。
8.一种基于深度学习的肢体语言检测与行为分析方法,其特征是包括以下模块:
用于对行为情感逻辑建模,丰富数据集,予以标注后制作成训练集的数据获取模块;
通过视频拍摄装置获取目标生物的视频语音片段,将其作为模型的输入,执行分类任务的数据实时检测模块;
使用CNN训练图片及视频帧数据、使用LSTM训练语音数据,最后将两个模型进行集成训练的结果反馈模块;
抓取网络数据,在CNN训练和LSTM训练的基础上,根据网络上的最优方案给予指导意见的指导意见模块。
9.根据权利要求8所述的一种基于深度学习的肢体语言检测与行为分析方法,其特征在于:
所述数据获取模块进一步对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,丰富数据集,予以标注后制作成训练集;使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型;使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力;提取出模型特征作为训练样本,计算输入量与输出量之间关联性的估计函数,训练系统对于不同输出量的预测能力:
式中,ω表示广义参数,h表示所预测的函数集的最大训练能力,n为训练样本,η∈[0,
1],R(ω)表示期望风险;
所述数据实时检测模块进一步通过视频拍摄装置获取目标生物的视频语音片段,视频与语音需要同步输入,针对不同的输入使用不同的模型,将视频拍摄装置获取到的目标生物的视频片段与训练集中的模型比对,对每个像素点上使用差分算子为(-1,0,1)在垂直和水平放行进行运算,计算其梯度值和梯度方向:
梯度方向:
式中,Gx表示图像沿x方向的梯度,Gy表示图像沿y方向的梯度, 表示最大变化率方向上的单位距离增加的量,T表示梯度参数;
梯度值:
式中,f(x+1,y)表示y方向不变,x方向累加一个像素点的图像函数,f(x,y+1)表示x方向不变,y方向累加一个像素点的图像函数,其它含义同上;
所述结果反馈模块进一步使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型:
将原图片和视频帧数据转化为Ycbcr图像,提取其亮度通道YL,将该通道YL进行下采样得到单通道图像YL′;对亮度通道YL进行相邻插值运算,得到插值图像YLC,对亮度通道YL进行强度为0.8的锐化得出锐化图像YLR,最终将单通道图像YL′、插值图像YLC、锐化图像YLR以0.8∶0.9∶1.1的比率混合形成多通道图像Ym;
将图片和视频帧数据通过卷积运算分割为输入层、卷积层、输出层,其中,输入层的大小为n×n,通道数为12;卷积层为两层,分别记为C1层和C2层,其中,C1层的卷积特征图为
128个,其尺寸为(n-8+1)×(n-8+1);由每个8×8的卷积核对输入图像进行内卷积,并对卷积结果进行第一次激活:
Fc1=max(0,W1×Ym+B1)
式中,Fc1表示第一层卷积层C1的激活函数,Ym表示多通道图像,B1表示第一层卷积层C1的比率因子,W1表示第一层卷积层C1的放大因子;
C2层的卷积特征图为128个,其尺寸为(n-16)×(n-16),将经过C1层的的输出量作为变量输入到C2层,使用128个卷积核对C2层中的数据进行卷积运算,并对卷积结果进行第二次激活:
式中,Fc2表示第一层卷积层C2的激活函数,B2表示第二层卷积层C2的比率因子,W2表示第二层卷积层C2的放大因子,其余符号含义同上;
构造超分辨重构模型,采用均方误差作为损失函数:
式中, 表示高分辨率图像块,YL表示亮度通道,N表示抽取图像块的数量,K0表示调节系数;
使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力:
使用LSTM结构输出序列S:
式中,A表示状态转移概率矩阵, 表示A从状态yi转移到状态yi+1所需要的状态转(t)
移概率,T*k表示输出矩阵的大小,其中,T表示序列的长度,k表示标签的数量;h 表示深度神经网络上一层时刻t输入数据时的隐藏状态;
采用高斯-伯努利模型对语音数据进行处理,其能量函数定义如下:
式中,vi表示第i个可视层神经元,hj表示第j个隐层神经元,wij表示连接权值,ai表示对应于可视层神经元的偏置值,bj表示对应于第j个隐层神经元的偏置值,σi表示高斯噪声标准差, 表示学习率;
对能量函数进行激活概率计算:
式中,p(h,θ)表示可视层神经元的激活概率,p(v,θ)表示隐层神经元的激活概率,其余各符号含义同上;
为求得每层的模型连接参数θ,采用梯度上升法来极大化概率的对数似然函数:
式中, 表示模型的期望, 表示数据的期望;
所述指导意见模块进一步将结果反馈模块的结果与训练集中的数据集的输出序列进行比对,若插值小于阈值,则判定为属于被比对对象的行为,将结果通过图形界面反馈给用户;若插值大于阈值,则将该输出序列记录在数据集中并做好标记。

说明书全文

一种基于深度学习的肢体语言检测与行为分析方法及系统

技术领域

[0001] 本发明涉及一种基于深度学习的肢体语言检测与行为分析方法,属于生物肢体语言检测与行为分析领域。

背景技术

[0002] 现代社会经济飞速发展带来的不仅是生活平的提高,还有人与人之间沟通的减少以及家庭问题的激增进而引发离婚率逐年攀升,这些问题背后隐藏了一个日益激化的矛盾,即高速经济增长下,个人的情感诉求得不到满足的问题逐渐影响着整个社会,家庭的和谐。因此,如果可以通过技术手段及时准确地发现伴侣或孩子或者同伴(不限于人) 的异常行为,判断其情绪状态,获得其情感或物质诉求,在生活中辅助交际,势必能增加人与人之间的了解,甚至如果你的同伴是一只宠物,那么也可以通过这种技术来理解它的行为,甚至此技术可用于案件侦破,辅助测谎等。
[0003] 传统的肢体语言检测通常停留在特征识别的表象阶段,通常需要对象做出明显符合数据库的特征动作才能判断准确,当对象的动作微小或与数据库不明显时,系统无法准确识别,也无法对未能识别的特征进行自我学习优化,导致上述肢体语言检测具有较大的局限性。

发明内容

[0004] 发明目的:提供一种基于深度学习的肢体语言检测与行为分析方法,以解决现有技术存在的上述不足。进一步目的是提供一种实现上述方法的系统。
[0005] 技术方案:一种基于深度学习的肢体语言检测与行为分析方法,包括以下步骤:
[0006] 步骤1、制作训练集:对行为情感逻辑建模,丰富数据集,予以标注后制作成训练集;
[0007] 步骤2、肢体语言检测及行为分析:通过视频拍摄装置获取目标生物的视频语音片段,将其作为模型的输入,执行分类任务;
[0008] 步骤3、行为应对指导:抓取网络数据,在前一步检测结果的基础上,根据网络上的最优方案给予指导意见。
[0009] 在进一步的实施例中,所述步骤1进一步包括:
[0010] 步骤1-1、对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,丰富数据集,予以标注后制作成训练集;
[0011] 步骤1-2、使用CNN训练图片及视频数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型;
[0012] 步骤1-3、使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能
[0013] 在进一步的实施例中,所述步骤1-1进一步包括:
[0014] 提取出模型特征作为训练样本,计算输入量与输出量之间关联性的估计函数,训练系统对于不同输出量的预测能力:
[0015]
[0016] 式中,ω表示广义参数,h表示所预测的函数集的最大训练能力,n为训练样本,η∈[0,1],R(ω)表示期望险。
[0017] 在进一步的实施例中,所述步骤1-2进一步包括:
[0018] 将原图片和视频帧数据转化为Ycbcr图像,提取其亮度通道YL,将该通道YL进行下采样得到单通道图像YL′;对亮度通道YL进行相邻插值运算,得到插值图像YLc,对亮度通道YL进行强度为0.8的锐化得出锐化图像YLR,最终将单通道图像YL′、插值图像YLc、锐化图像YLR以0.8:0.9:1.1的比率混合形成多通道图像Ym;
[0019] 将图片和视频帧数据通过卷积运算分割为输入层、卷积层、输出层,其中,输入层的大小为n×n,通道数为12;卷积层为两层,分别记为C1层和C2层,其中,C1层的卷积特征图为128个,其尺寸为(n-8+1)×(n-8+1);由每个8×8的卷积核对输入图像进行内卷积,并对卷积结果进行第一次激活:
[0020] Fc1=max(0,W1×Ym+B1)
[0021] 式中,Fc1表示第一层卷积层C1的激活函数,Ym表示多通道图像,B1表示第一层卷积层C1的比率因子,W1表示第一层卷积层C1的放大因子;
[0022] C2层的卷积特征图为128个,其尺寸为(n-16)×(n-16),将经过C1层的的输出量作为变量输入到C2层,使用128个卷积核对C2层中的数据进行卷积运算,并对卷积结果进行第二次激活:
[0023]
[0024] 式中,Fc2表示第一层卷积层C2的激活函数,B2表示第二层卷积层C2的比率因子, W2表示第二层卷积层C2的放大因子,其余符号含义同上;
[0025] 构造超分辨重构模型,采用均方误差作为损失函数:
[0026]
[0027] 式中, 表示高分辨率图像,YL表示亮度通道,N表示抽取图像块的数量,K0表示调节系数。
[0028] 在进一步的实施例中,所述步骤1-3进一步包括:
[0029] 使用LSTM结构输出序列S:
[0030]
[0031] 式中,A表示状态转移概率矩阵, 表示A从状态yi转移到状态yi+1所需要的状态转移概率,T*k表示输出矩阵的大小,其中,T表示序列的长度,k表示标签的数量;h(t)表示深度神经网络上一层时刻t输入数据时的隐藏状态;
[0032] 采用高斯-伯努利模型对语音数据进行处理,其能量函数定义如下:
[0033]
[0034] 式中,vi表示第i个可视层神经元,hj表示第j个隐层神经元,wij表示连接权值,ai表示对应于可视层神经元的偏置值,bj表示对应于第j个隐层神经元的偏置值,σi表示高斯噪声标准差, 表示学习率;
[0035] 对能量函数进行激活概率计算:
[0036]
[0037]
[0038] 式中,p(h,θ)表示可视层神经元的激活概率,p(v,θ)表示隐层神经元的激活概率,其余各符号含义同上;
[0039] 为求得每层的模型连接参数θ,采用梯度上升法来极大化概率的对数似然函数:
[0040]
[0041] 式中, 表示模型的期望, 表示数据的期望。
[0042] 在进一步的实施例中,所述步骤2进一步包括:
[0043] 通过视频拍摄装置获取目标生物的视频语音片段,视频与语音需要同步输入,针对不同的输入使用不同的模型,将视频拍摄装置获取到的目标生物的视频片段与训练集中的模型比对,对每个像素点上使用差分算子为(-1,0,1)在垂直和水平放行进行运算,计算其梯度值和梯度方向:
[0044] 梯度方向:
[0045]
[0046] 式中,Gx表示图像沿x方向的梯度,Gy表示图像沿y方向的梯度, 表示最大变化率方向上的单位距离增加的量,T表示梯度参数;
[0047] 梯度值:
[0048]
[0049] 式中,f(x+1,y)表示y方向不变,x方向累加一个像素点的图像函数,f(x,y+1)表示x方向不变,y方向累加一个像素点的图像函数,其它含义同上。
[0050] 在进一步的实施例中,所述步骤3进一步包括:
[0051] 将步骤2中的结果与步骤1中训练集中的数据集的输出序列进行比对,若插值小于阈值,则判定为属于被比对对象的行为,将结果通过图形界面反馈给用户;若插值大于阈值,则将该输出序列记录在数据集中并做好标记。
[0052] 一种基于深度学习的肢体语言检测与行为分析方法,包括以下模块:
[0053] 用于对行为情感逻辑建模,丰富数据集,予以标注后制作成训练集的数据获取模块;
[0054] 通过视频拍摄装置获取目标生物的视频语音片段,将其作为模型的输入,执行分类任务的数据实时检测模块;
[0055] 使用CNN训练图片及视频帧数据、使用LSTM训练语音数据,最后将两个模型进行集成训练的结果反馈模块;
[0056] 抓取网络数据,在CNN训练和LSTM训练的基础上,根据网络上的最优方案给予指导意见的指导意见模块。
[0057] 在进一步的实施例中,所述数据获取模块进一步对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,丰富数据集,予以标注后制作成训练集;使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型;使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力;提取出模型特征作为训练样本,计算输入量与输出量之间关联性的估计函数,训练系统对于不同输出量的预测能力:
[0058]
[0059] 式中,ω表示广义参数,h表示所预测的函数集的最大训练能力,n为训练样本,η∈[0,1],R(ω)表示期望风险;
[0060] 所述数据实时检测模块进一步通过视频拍摄装置获取目标生物的视频语音片段,视频与语音需要同步输入,针对不同的输入使用不同的模型,将视频拍摄装置获取到的目标生物的视频片段与训练集中的模型比对,对每个像素点上使用差分算子为(-1,0,1) 在垂直和水平放行进行运算,计算其梯度值和梯度方向:
[0061] 梯度方向:
[0062]
[0063] 式中,Gx表示图像沿x方向的梯度,Gy表示图像沿y方向的梯度, 表示最大变化率方向上的单位距离增加的量,T表示梯度参数;
[0064] 梯度值:
[0065]
[0066] 式中,f(x+1,y)表示y方向不变,x方向累加一个像素点的图像函数,f(x,y+1)表示x方向不变,y方向累加一个像素点的图像函数,其它含义同上;
[0067] 所述结果反馈模块进一步使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型:
[0068] 将原图片和视频帧数据转化为Ycbcr图像,提取其亮度通道YL,将该通道YL进行下采样得到单通道图像YL′;对亮度通道YL进行相邻插值运算,得到插值图像YLc,对亮度通道YL进行强度为0.8的锐化得出锐化图像YLR,最终将单通道图像YL′、插值图像YLc、锐化图像YLR以0.8:0.9:1.1的比率混合形成多通道图像Ym;
[0069] 将图片和视频帧数据通过卷积运算分割为输入层、卷积层、输出层,其中,输入层的大小为n×n,通道数为12;卷积层为两层,分别记为C1层和C2层,其中,C1层的卷积特征图为128个,其尺寸为(n-8+1)×(n-8+1);由每个8×8的卷积核对输入图像进行内卷积,并对卷积结果进行第一次激活:
[0070] Fc1=max(0,W1×Ym+B1)
[0071] 式中,Fc1表示第一层卷积层C1的激活函数,Ym表示多通道图像,B1表示第一层卷积层C1的比率因子,W1表示第一层卷积层C1的放大因子;
[0072] C2层的卷积特征图为128个,其尺寸为(n-16)×(n-16),将经过C1层的的输出量作为变量输入到C2层,使用128个卷积核对C2层中的数据进行卷积运算,并对卷积结果进行第二次激活:
[0073]
[0074] 式中,Fc2表示第一层卷积层C2的激活函数,B2表示第二层卷积层C2的比率因子, W2表示第二层卷积层C2的放大因子,其余符号含义同上;
[0075] 构造超分辨重构模型,采用均方误差作为损失函数:
[0076]
[0077] 式中, 表示高分辨率图像块,YL表示亮度通道,N表示抽取图像块的数量,K0表示调节系数;
[0078] 使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力:
[0079] 使用LSTM结构输出序列S:
[0080]
[0081] 式中,A表示状态转移概率矩阵, 表示A从状态yi转移到状态yi+1所需要的状态转移概率,T*k表示输出矩阵的大小,其中,T表示序列的长度,k表示标签的数量;h(t)表示深度神经网络上一层时刻t输入数据时的隐藏状态;
[0082] 采用高斯-伯努利模型对语音数据进行处理,其能量函数定义如下:
[0083]
[0084] 式中,vi表示第i个可视层神经元,hj表示第j个隐层神经元,wij表示连接权值,ai表示对应于可视层神经元的偏置值,bj表示对应于第j个隐层神经元的偏置值,σi表示高斯噪声标准差, 表示学习率;
[0085] 对能量函数进行激活概率计算:
[0086]
[0087]
[0088] 式中,p(h,θ)表示可视层神经元的激活概率,p(v,θ)表示隐层神经元的激活概率,其余各符号含义同上;
[0089] 为求得每层的模型连接参数θ,采用梯度上升法来极大化概率的对数似然函数:
[0090]
[0091] 式中, 表示模型的期望, 表示数据的期望;
[0092] 所述指导意见模块进一步将结果反馈模块的结果与训练集中的数据集的输出序列进行比对,若插值小于阈值,则判定为属于被比对对象的行为,将结果通过图形界面反馈给用户;若插值大于阈值,则将该输出序列记录在数据集中并做好标记。
[0093] 有益效果:本发明提出了一种基于深度学习的肢体语言检测与行为分析方法及系统。对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,尽量丰富数据集,予以标注后制作成训练集,标注时注意标签对数据的描述要到位,另外标签划分的合理性也十分重要。后使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型,其次使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力。上述过程使得本发明拥有较强的主动学习能力,并不断优化数据库,使得准确率能够随着识别次数的增加不断提升。附图说明
[0094] 图1为本发明的流程图
[0095] 图2为本发明中丰富数据集的流程图。
[0096] 图3为本发明中使用LSTM训练语音数据的流程图。

具体实施方式

[0097] 申请人认为,传统的肢体语言检测通常停留在特征识别的表象阶段,通常需要对象做出明显符合数据库的特征动作才能判断准确,当对象的动作微小或与数据库不明显时,系统无法准确识别,也无法对未能识别的特征进行自我学习优化,导致上述肢体语言检测具有较大的局限性,故无法用于案件侦破,辅助测谎等特殊场景。
[0098] 为此,本发明提出了一种基于深度学习的肢体语言检测与行为分析方法,对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,尽量丰富数据集,予以标注后制作成训练集,标注时注意标签对数据的描述要到位,另外标签划分的合理性也十分重要。后使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型,其次使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力。
[0099] 下面通过实施例,并结合相应附图,对本发明的技术方案做进一步说明。
[0100] 一种基于深度学习的肢体语言检测与行为分析方法,主要包括制作训练集、肢体语言检测及行为分析、以及行为应对指导三个步骤。为实现上述步骤,本系统提供了以下模块:用于对行为情感逻辑建模,丰富数据集,予以标注后制作成训练集的数据获取模块;通过视频拍摄装置获取目标生物的视频语音片段,将其作为模型的输入,执行分类任务的数据实时检测模块;使用CNN训练图片及视频帧数据、使用LSTM训练语音数据,最后将两个模型进行集成训练的结果反馈模块;以及抓取网络数据,在CNN训练和LSTM训练的基础上,根据网络上的最优方案给予指导意见的指导意见模块。
[0101] 首先由数据获取模块制作训练集,具体过程如下:数据获取模块对行为情感逻辑建模,丰富数据集,予以标注后制作成训练集。更为具体的,首先对目标的日常行为视频、图片以及语音进行提取,分别获取目标在不同情绪下的面部表情以及四肢行为的图片及视频,获取在相应情绪下的语音数据,丰富数据集,予以标注后制作成训练集;提取出模型特征作为训练样本,计算输入量与输出量之间关联性的估计函数,训练系统对于不同输出量的预测能力:
[0102]
[0103] 式中,ω表示广义参数,h表示所预测的函数集的最大训练能力,n为训练样本,η∈[0,1],R(ω)表示期望风险。
[0104] 随后,结果反馈模块使用CNN训练图片及视频帧数据、使用LSTM训练语音数据,最后将两个模型进行集成训练,具体过程如下:使用CNN训练图片及视频帧数据,关键点为面部表情,头部动作,四肢动作,整体动作频率,这4点训练成一个集成模型;将原图片和视频帧数据转化为Ycbcr图像,提取其亮度通道YL,将该通道YL进行下采样得到单通道图像YL′;对亮度通道YL进行相邻插值运算,得到插值图像YLc,对亮度通道YL进行强度为0.8的锐化得出锐化图像YLR,最终将单通道图像YL′、插值图像YLc、锐化图像YLR以0.8:0.9:1.1的比率混合形成多通道图像Ym;
[0105] 将图片和视频帧数据通过卷积运算分割为输入层、卷积层、输出层,其中,输入层的大小为n×n,通道数为12;卷积层为两层,分别记为C1层和C2层,其中,C1层的卷积特征图为128个,其尺寸为(n-8+1)×(n-8+1);由每个8×8的卷积核对输入图像进行内卷积,并对卷积结果进行第一次激活:
[0106] Fc1=max(0,W1×Ym+B1)
[0107] 式中,Fc1表示第一层卷积层C1的激活函数,Ym表示多通道图像,B1表示第一层卷积层C1的比率因子,W1表示第一层卷积层C1的放大因子;
[0108] C2层的卷积特征图为128个,其尺寸为(n-16)×(n-16),将经过C1层的的输出量作为变量输入到C2层,使用128个卷积核对C2层中的数据进行卷积运算,并对卷积结果进行第二次激活:
[0109]
[0110] 式中,Fc2表示第一层卷积层C2的激活函数,B2表示第二层卷积层C2的比率因子, W2表示第二层卷积层C2的放大因子,其余符号含义同上;
[0111] 构造超分辨重构模型,采用均方误差作为损失函数:
[0112]
[0113] 式中, 表示高分辨率图像块,YL表示亮度通道,N表示抽取图像块的数量,K0表示调节系数。
[0114] 使用LSTM训练语音数据,最后将两个模型进行集成训练,合成集成模型,最终会产生3个模型,保证模型支持语音或图片单独检测的能力。使用LSTM结构输出序列S:
[0115]
[0116] 式中,A表示状态转移概率矩阵, 表示A从状态yi转移到状态yi+1所需要的状态转移概率,T*k表示输出矩阵的大小,其中,T表示序列的长度,k表示标签的数量;h(t)表示深度神经网络上一层时刻t输入数据时的隐藏状态;
[0117] 采用高斯-伯努利模型对语音数据进行处理,其能量函数定义如下:
[0118]
[0119] 式中,vi表示第i个可视层神经元,hj表示第j个隐层神经元,wij表示连接权值,ai表示对应于可视层神经元的偏置值,bj表示对应于第j个隐层神经元的偏置值,σi表示高斯噪声标准差, 表示学习率;
[0120] 对能量函数进行激活概率计算:
[0121]
[0122]
[0123] 式中,p(h,θ)表示可视层神经元的激活概率,p(v,θ)表示隐层神经元的激活概率,其余各符号含义同上;
[0124] 为求得每层的模型连接参数θ,采用梯度上升法来极大化概率的对数似然函数:
[0125]
[0126] 式中, 表示模型的期望, 表示数据的期望。
[0127] 接着,实时检测模块对肢体语言进行检测,对行为进行分析,具体如下:通过视频拍摄装置获取目标生物的视频语音片段,将其作为模型的输入,执行分类任务。通过视频拍摄装置获取目标生物的视频语音片段,视频与语音需要同步输入,针对不同的输入使用不同的模型,将视频拍摄装置获取到的目标生物的视频片段与训练集中的模型比对,对每个像素点上使用差分算子为(-1,0,1)在垂直和水平放行进行运算,计算其梯度值和梯度方向:
[0128] 梯度方向:
[0129]
[0130] 式中,Gx表示图像沿x方向的梯度,Gy表示图像沿y方向的梯度, 表示最大变化率方向上的单位距离增加的量,T表示梯度参数;
[0131] 梯度值:
[0132]
[0133] 式中,f(x+1,y)表示y方向不变,x方向累加一个像素点的图像函数,f(x,y+1)表示x方向不变,y方向累加一个像素点的图像函数,其它含义同上。
[0134] 最后由指导意见模块对行为应对进行指导:指导意见模块抓取网络数据,在前一步检测结果的基础上,根据网络上的最优方案给予指导意见,将结果反馈模块的结果与训练集中的数据集的输出序列进行比对,若插值小于阈值,则判定为属于被比对对象的行为,将结果通过图形界面反馈给用户;若插值大于阈值,则将该输出序列记录在数据集中并做好标记。
[0135] 如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上做出各种变化。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈