首页 / 专利库 / 畜牧业 / 耳标 / 分析学生课堂表现的方法、装置、电子设备、及存储介质

分析学生课堂表现的方法、装置、电子设备、及存储介质

阅读:597发布:2020-05-08

专利汇可以提供分析学生课堂表现的方法、装置、电子设备、及存储介质专利检索,专利查询,专利分析的服务。并且本公开 实施例 公开了一种分析学生课堂表现的方法、装置、 电子 设备、及存储介质,方法包括:通过将目标课堂图像传送给预先训练的人体检测模型,获取人体检测模型的输出的各学生的人体 位置 信息;根据学生集合中任一学生的人体位置信息和目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;将学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取人体关键点检测模型输出该学生的多个预定关键点的位置信息;根据学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。能够基于人体检测和关键点检测确定学生的课堂行为,能够提高检测效率。,下面是分析学生课堂表现的方法、装置、电子设备、及存储介质专利的具体信息内容。

1.一种分析学生课堂表现的方法,其特征在于,包括:
获取目标课堂图像;
将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息;
根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;
将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息;
根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
2.根据权利要求1所述的方法,其特征在于,所述获取目标课堂图像包括:
面向学生采集课堂内的视频流,对所述视频流进行解码处理得到多课堂图像,从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
3.根据权利要求1所述的方法,其特征在于,从所述多帧课堂图像中抽取图像作为所述目标课堂图像包括:
周期性地从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
4.根据权利要求1所述的方法,其特征在于,所述第一输出结果信息还包括从所述目标课堂图像中识别到的学生集合中各学生的人体识别置信度
所述方法还包括,在获取所述人体检测模型的第一输出结果信息之后还包括:
将人体识别置信度小于预定人体识别置信度阈值的学生从所述学生集合中剔除。
5.根据权利要求1所述的方法,其特征在于,所述第二输出结果信息还包括各预定关键点的关键点识别置信度;
在获取所述人体关键点检测模型输出的第二输出结果信息之后还包括:
将关键点识别置信度小于预定关键点识别置信度阈值的预定关键点删除。
6.根据权利要求1所述的方法,其特征在于,所述多个预定关键点包括:
、右耳、左眼、右眼、鼻子、脖子、左肩膀、右肩膀、左手肘、右手肘、左手腕、右手腕、左胯骨、右胯骨、左膝盖、右膝盖、左脚踝、和/或右脚踝;
根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为包括:
根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态、坐姿、和/或手部姿态;
根据该学生的人脸姿态、坐姿、和/或手部姿态确定该学生的课堂行为;
其中所述人脸姿态包括正脸、人脸向左侧旋转、人脸向右侧旋转、仰脸,所述坐姿包括正坐姿态和弯腰姿态,所述手部姿态包括举手姿态和书写姿态。
7.根据权利要求6所述的方法,其特征在于:
所述多个预定关键点至少包括左眼、右眼和鼻子,根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态包括:
根据所述右眼和鼻子的位置信息计算右眼与鼻子连线的垂直夹作为第一夹角;
根据所述左眼和鼻子的位置信息计算左眼与鼻子连线的垂直夹角作为第二夹角;
根据所述第一夹角的正切值、以及所述第二夹角的正切值确定该学生的人脸姿态;
和/或所述多个预定关键点至少包括左肩膀和右肩膀,据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的坐姿包括:
根据左肩膀和右肩膀的位置信息计算左肩膀和右肩膀的连线与平线之间的夹角,根据所述夹角的正切值确定该学生的坐姿。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括,在根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为之后:
将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人脸识别模型,获取所述人脸识别模型输出的第三输出结果信息,其中所述第三输出结果信息包括该学生的身份信息;
将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括,在将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中之后,对所述学生集合中各学生的课堂行为分析结果进行汇总分析,根据汇总分析结果评测课堂效率。
10.根据权利要求1所述的方法,其特征在于,所述人体检测模型为特征金字塔结构的深度卷积神经网络
11.根据权利要求1-10之一所述的方法,其特征在于,所述人体检测模型通过如下步骤训练得到:
获取训练样本集合,其中,训练样本包括面向学生采集的课堂图像,以及用于表示所述课堂图像中各学生的人体位置信息的多个矩形框坐标组成的标注信息;
确定初始化的人体检测模型,其中所述人体检测模型包括用于输出课堂图像显示的内容中包含的各学生的人体位置信息的目标层;
利用深度学习的方法,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型。
12.根据权利要求11所述的方法,其特征在于,所述确定初始化的人体检测模型包括:
建立至少包括稠密网络、第一卷积层、第二卷积层、第三卷积层、第一反卷积层、第二反卷积层、第一融合层、第二融合层、第一损失层、第二损失层和第三损失层的特征金字塔结构的深度卷积神经网络作为初始化的人体检测模型;
利用深度学习的方法,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型包括:
将所述训练集合中的训练样本中的课堂图像输入给所述稠密网络进行特征信息提取,将提取的特征信息输入所述第一卷积层进行卷积运算得到第一卷积结果,将所述第一卷积结果分别输入所述第二卷积层和所述第一融合层;
所述第二卷积层对所述第一卷积结果进行卷积运算得到第二卷积结果,将所述第二卷积结果分别输入所述第三卷积层和所述第二融合层;
所述第三卷积层对所述第二卷积结果进行卷积运算得到第三卷积结果,将所述第三卷积结果分别输入所述第一损失层和所述第一反卷积层;
所述第一反卷积层对所述第三卷积结果进行反卷积运算得到第一反卷积结果,将所述第一反卷积结果输入所述第二融合层;
所述第二融合层根据所述第一反卷积结果和所述第二卷积结果进行融合运算得到第二融合结果,将所述第二融合结果分别输入所述第二损失层和所述第二反卷积层;
所述第二反卷积层根据所述第二融合结果进行反卷积运算得到第二反卷积结果,将所述第二反卷积结果输入所述第一融合层;
所述第一融合层根据所述第二反卷积结果和所述第一卷积结果进行融合运算得到第一融合结果,将所述第一融合结果输入所述第三损失层;
所述第一损失层、所述第二损失层和所述第三损失层分别根据接收的数据、预定损失函数、所述训练样本中的标注信息,对所述人体检测模型进行参数调整,以得到所述人体检测模型。
13.根据权利要求1-10之一所述的方法,其特征在于,所述人体关键点检测模型通过如下步骤训练得到:
获取训练样本集合,其中,训练样本包括处于上课状态的学生的人体动作识别图像,以及用于表示该学生的多个预定关键点的位置信息组成的标注信息;
确定初始化的人体关键点检测模型,其中所述人体关键点检测模型包括用于输出人体动作识别图像中的学生的多个预定关键点的位置信息的目标层;
利用深度学习的方法,将所述训练集合中的训练样本中的人体动作识别图像作为初始化的人体关键点检测模型的输入,将与输入的人体动作识别图像对应的标注信息作为初始化的人体关键点检测模型的期望输出,训练得到所述人体关键点检测模型。
14.根据权利要求13所述的方法,其特征在于,所述确定初始化的人体关键点检测模型包括:
确定稠密网络结构的深度卷积神经网络作为初始化的人体关键点检测模型。
15.一种分析学生课堂表现的装置,其特征在于,包括:
图像获取单元,用于获取目标课堂图像;
人体位置信息检测单元,用于将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息;
个体图像获取单元,用于根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;
关键点检测单元,用于将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息;
课堂行为确定单元,用于根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
16.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-14中任一项所述方法的指令。
17.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-14任一项所述方法的步骤。

说明书全文

分析学生课堂表现的方法、装置、电子设备、及存储介质

技术领域

[0001] 本公开实施例涉及计算机视觉技术领域,具体涉及一种分析学生课堂表现的方法、装置、电子设备、及存储介质。

背景技术

[0002] 随着计算机视觉的发展,基于计算机视觉的应用层出不穷,诸如人脸识别、行人再识别、人体姿态估计等。随着大部分计算机视觉应用的落地,极大地促进了社会经济的发展。
[0003] 目前,学校或培训机构对学生进行管理时,需要了解学生的课堂表现,以对学生的学习过程进行考核和监督,以及对教师的授课效果进行量化评价,因此,需要一种新的技术方案给予解决。发明内容
[0004] 有鉴于此,本公开实施例提供一种分析学生课堂表现的方法、装置、电子设备、及存储介质,以提升人体检测的准确性。
[0005] 本公开实施例的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开实施例的实践而习得。
[0006] 第一方面,本公开实施例提供了一种分析学生课堂表现的方法,包括:
[0007] 获取目标课堂图像;
[0008] 将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息;
[0009] 根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;
[0010] 将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息;
[0011] 根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0012] 于一实施例中,所述获取目标课堂图像包括:
[0013] 面向学生采集课堂内的视频流,对所述视频流进行解码处理得到多课堂图像,从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0014] 于一实施例中,从所述多帧课堂图像中抽取图像作为所述目标课堂图像包括:
[0015] 周期性地从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0016] 于一实施例中,所述第一输出结果信息还包括从所述目标课堂图像中识别到的学生集合中各学生的人体识别置信度
[0017] 所述方法还包括,在获取所述人体检测模型的第一输出结果信息之后还包括:
[0018] 将人体识别置信度小于预定人体识别置信度阈值的学生从所述学生集合中剔除。
[0019] 于一实施例中,所述第二输出结果信息还包括各预定关键点的关键点识别置信度;
[0020] 在获取所述人体关键点检测模型输出的第二输出结果信息之后还包括:
[0021] 将关键点识别置信度小于预定关键点识别置信度阈值的预定关键点删除。
[0022] 于一实施例中,所述多个预定关键点包括:
[0023] 左、右耳、左眼、右眼、鼻子、脖子、左肩膀、右肩膀、左手肘、右手肘、左手腕、右手腕、左胯骨、右胯骨、左膝盖、右膝盖、左脚踝、和/或右脚踝;
[0024] 根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为包括:
[0025] 根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态、坐姿、和/或手部姿态;
[0026] 根据该学生的人脸姿态、坐姿、和/或手部姿态确定该学生的课堂行为;
[0027] 其中所述人脸姿态包括正脸、人脸向左侧旋转、人脸向右侧旋转、仰脸,所述坐姿包括正坐姿态和弯腰姿态,所述手部姿态包括举手姿态和书写姿态。
[0028] 于一实施例中,:
[0029] 所述多个预定关键点至少包括左眼、右眼和鼻子,根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态包括:
[0030] 根据所述右眼和鼻子的位置信息计算右眼与鼻子连线的垂直夹作为第一夹角;
[0031] 根据所述左眼和鼻子的位置信息计算左眼与鼻子连线的垂直夹角作为第二夹角;
[0032] 根据所述第一夹角的正切值、以及所述第二夹角的正切值确定该学生的人脸姿态;
[0033] 和/或所述多个预定关键点至少包括左肩膀和右肩膀,据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的坐姿包括:
[0034] 根据左肩膀和右肩膀的位置信息计算左肩膀和右肩膀的连线与平线之间的夹角,根据所述夹角的正切值确定该学生的坐姿。
[0035] 于一实施例中,所述方法还包括,在根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为之后:
[0036] 将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人脸识别模型,获取所述人脸识别模型输出的第三输出结果信息,其中所述第三输出结果信息包括该学生的身份信息;
[0037] 将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中。
[0038] 于一实施例中,所述方法还包括,在将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中之后,对所述学生集合中各学生的课堂行为分析结果进行汇总分析,根据汇总分析结果评测课堂效率。
[0039] 于一实施例中,所述人体检测模型通过如下步骤训练得到:
[0040] 获取训练样本集合,其中,训练样本包括面向学生采集的课堂图像,以及用于表示所述课堂图像中各学生的人体位置信息的多个矩形框坐标组成的标注信息;
[0041] 确定初始化的人体检测模型,其中所述人体检测模型包括用于输出课堂图像显示的内容中包含的各学生的人体位置信息的目标层;
[0042] 利用深度学习的方法,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型。
[0043] 于一实施例中,所述确定初始化的人体检测模型包括:
[0044] 确定初始化的人体检测模型为特征金字塔结构的深度卷积神经网络
[0045] 于一实施例中,所述确定初始化的人体检测模型包括:
[0046] 建立至少包括稠密网络、第一卷积层、第二卷积层、第三卷积层、第一反卷积层、第二反卷积层、第一融合层、第二融合层、第一损失层、第二损失层和第三损失层的特征金字塔结构的深度卷积神经网络作为初始化的人体检测模型;
[0047] 利用深度学习的方法,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型包括:
[0048] 将所述训练集合中的训练样本中的课堂图像输入给所述稠密网络进行特征信息提取,将提取的特征信息输入所述第一卷积层进行卷积运算得到第一卷积结果,将所述第一卷积结果分别输入所述第二卷积层和所述第一融合层;
[0049] 所述第二卷积层对所述第一卷积结果进行卷积运算得到第二卷积结果,将所述第二卷积结果分别输入所述第三卷积层和所述第二融合层;
[0050] 所述第三卷积层对所述第二卷积结果进行卷积运算得到第三卷积结果,将所述第三卷积结果分别输入所述第一损失层和所述第一反卷积层;
[0051] 所述第一反卷积层对所述第三卷积结果进行反卷积运算得到第一反卷积结果,将所述第一反卷积结果输入所述第二融合层;
[0052] 所述第二融合层根据所述第一反卷积结果和所述第二卷积结果进行融合运算得到第二融合结果,将所述第二融合结果分别输入所述第二损失层和所述第二反卷积层;
[0053] 所述第二反卷积层根据所述第二融合结果进行反卷积运算得到第二反卷积结果,将所述第二反卷积结果输入所述第一融合层;
[0054] 所述第一融合层根据所述第二反卷积结果和所述第一卷积结果进行融合运算得到第一融合结果,将所述第一融合结果输入所述第三损失层;
[0055] 所述第一损失层、所述第二损失层和所述第三损失层分别根据接收的数据、预定损失函数、所述训练样本中的标注信息,对所述人体检测模型进行参数调整,以得到所述人体检测模型。
[0056] 于一实施例中,所述人体关键点检测模型通过如下步骤训练得到:
[0057] 获取训练样本集合,其中,训练样本包括处于上课状态的学生的人体动作识别图像,以及用于表示该学生的多个预定关键点的位置信息组成的标注信息;
[0058] 确定初始化的人体关键点检测模型,其中所述人体关键点检测模型包括用于输出人体动作识别图像中的学生的多个预定关键点的位置信息的目标层;
[0059] 利用深度学习的方法,将所述训练集合中的训练样本中的人体动作识别图像作为初始化的人体关键点检测模型的输入,将与输入的人体动作识别图像对应的标注信息作为初始化的人体关键点检测模型的期望输出,训练得到所述人体关键点检测模型。
[0060] 于一实施例中,所述确定初始化的人体关键点检测模型包括:
[0061] 确定稠密网络结构的深度卷积神经网络作为初始化的人体关键点检测模型。
[0062] 于一实施例中,所述人体检测模型为特征金字塔结构的深度卷积神经网络。
[0063] 第二方面,本公开实施例还提供了一种分析学生课堂表现的装置,包括:
[0064] 图像获取单元,用于获取目标课堂图像;
[0065] 人体位置信息检测单元,用于将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息;
[0066] 个体图像获取单元,用于根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;
[0067] 关键点检测单元,用于将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息;
[0068] 课堂行为确定单元,用于根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0069] 于一实施例中,所述图像获取单元用于:
[0070] 面向学生采集课堂内的视频流,对所述视频流进行解码处理得到多帧课堂图像,从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0071] 于一实施例中,所述图像获取单元用于:
[0072] 周期性地从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0073] 于一实施例中,所述第一输出结果信息还包括从所述目标课堂图像中识别到的学生集合中各学生的人体识别置信度;
[0074] 人体位置信息检测单元还用于,在获取所述人体检测模型的第一输出结果信息之后:
[0075] 将人体识别置信度小于预定人体识别置信度阈值的学生从所述学生集合中剔除。
[0076] 于一实施例中,所述第二输出结果信息还包括各预定关键点的关键点识别置信度;
[0077] 所述个体图像获取单元还用于,在获取所述人体关键点检测模型输出的第二输出结果信息之后:
[0078] 将关键点识别置信度小于预定关键点识别置信度阈值的预定关键点删除。
[0079] 于一实施例中,所述多个预定关键点包括:
[0080] 左耳、右耳、左眼、右眼、鼻子、脖子、左肩膀、右肩膀、左手肘、右手肘、左手腕、右手腕、左胯骨、右胯骨、左膝盖、右膝盖、左脚踝、和/或右脚踝;
[0081] 所述课堂行为确定单元用于:
[0082] 根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态、坐姿、和/或手部姿态;
[0083] 根据该学生的人脸姿态、坐姿、和/或手部姿态确定该学生的课堂行为;
[0084] 其中所述人脸姿态包括正脸、人脸向左侧旋转、人脸向右侧旋转、仰脸,所述坐姿包括正坐姿态和弯腰姿态,所述手部姿态包括举手姿态和书写姿态。
[0085] 于一实施例中,所述多个预定关键点至少包括左眼、右眼和鼻子,所述课堂行为确定单元用于:
[0086] 根据所述右眼和鼻子的位置信息计算右眼与鼻子连线的垂直夹角作为第一夹角;
[0087] 根据所述左眼和鼻子的位置信息计算左眼与鼻子连线的垂直夹角作为第二夹角;
[0088] 根据所述第一夹角的正切值、以及所述第二夹角的正切值确定该学生的人脸姿态。
[0089] 于一实施例中,所述多个预定关键点至少包括左肩膀和右肩膀,所述课堂行为确定单元用于:
[0090] 根据左肩膀和右肩膀的位置信息计算左肩膀和右肩膀的连线与水平线之间的夹角,根据所述夹角的正切值确定该学生的坐姿。
[0091] 于一实施例中,所述装置还包括人脸识别单元和结果记录单元;
[0092] 所述人脸识别单元用于,在根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为之后:
[0093] 将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人脸识别模型,获取所述人脸识别模型输出的第三输出结果信息,其中所述第三输出结果信息包括该学生的身份信息;
[0094] 所述结果记录单元用于将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中。
[0095] 于一实施例中,所述装置还包括课堂效果分析单元,用于在将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中之后,对所述学生集合中各学生的课堂行为分析结果进行汇总分析,根据汇总分析结果评测课堂效率。
[0096] 于一实施例中,所述人体位置信息检测单元中,所述人体检测模型通过如下子单元训练得到:
[0097] 第一样本获取子单元,用于获取训练样本集合,其中,训练样本包括面向学生采集的课堂图像,以及用于表示所述课堂图像中各学生的人体位置信息的多个矩形框坐标组成的标注信息;
[0098] 第一模型确定子单元,用于确定初始化的人体检测模型,其中所述人体检测模型包括用于输出课堂图像显示的内容中包含的各学生的人体位置信息的目标层;
[0099] 第一模型训练子单元,用于利用深度学习的装置,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型。
[0100] 于一实施例中,所述第一模型确定子单元用于:
[0101] 确定初始化的人体检测模型为特征金字塔结构的深度卷积神经网络。
[0102] 于一实施例中,所述第一模型确定子单元用于:
[0103] 建立至少包括稠密网络、第一卷积层、第二卷积层、第三卷积层、第一反卷积层、第二反卷积层、第一融合层、第二融合层、第一损失层、第二损失层和第三损失层的特征金字塔结构的深度卷积神经网络作为初始化的人体检测模型;
[0104] 所述第一模型训练子单元用于:
[0105] 将所述训练集合中的训练样本中的课堂图像输入给所述稠密网络进行特征信息提取,将提取的特征信息输入所述第一卷积层进行卷积运算得到第一卷积结果,将所述第一卷积结果分别输入所述第二卷积层和所述第一融合层;
[0106] 所述第二卷积层对所述第一卷积结果进行卷积运算得到第二卷积结果,将所述第二卷积结果分别输入所述第三卷积层和所述第二融合层;
[0107] 所述第三卷积层对所述第二卷积结果进行卷积运算得到第三卷积结果,将所述第三卷积结果分别输入所述第一损失层和所述第一反卷积层;
[0108] 所述第一反卷积层对所述第三卷积结果进行反卷积运算得到第一反卷积结果,将所述第一反卷积结果输入所述第二融合层;
[0109] 所述第二融合层根据所述第一反卷积结果和所述第二卷积结果进行融合运算得到第二融合结果,将所述第二融合结果分别输入所述第二损失层和所述第二反卷积层;
[0110] 所述第二反卷积层根据所述第二融合结果进行反卷积运算得到第二反卷积结果,将所述第二反卷积结果输入所述第一融合层;
[0111] 所述第一融合层根据所述第二反卷积结果和所述第一卷积结果进行融合运算得到第一融合结果,将所述第一融合结果输入所述第三损失层;
[0112] 所述第一损失层、所述第二损失层和所述第三损失层分别根据接收的数据、预定损失函数、所述训练样本中的标注信息,对所述人体检测模型进行参数调整,以得到所述人体检测模型。
[0113] 于一实施例中,所述个体图像获取单元中,所述人体关键点检测模型通过如下子单元训练得到:
[0114] 第二样本获取子单元,用于获取训练样本集合,其中,训练样本包括处于上课状态的学生的人体动作识别图像,以及用于表示该学生的多个预定关键点的位置信息组成的标注信息;
[0115] 第二模型确定子单元,用于确定初始化的人体关键点检测模型,其中所述人体关键点检测模型包括用于输出人体动作识别图像中的学生的多个预定关键点的位置信息的目标层;
[0116] 第二模型训练子单元,用于利用深度学习的装置,将所述训练集合中的训练样本中的人体动作识别图像作为初始化的人体关键点检测模型的输入,将与输入的人体动作识别图像对应的标注信息作为初始化的人体关键点检测模型的期望输出,训练得到所述人体关键点检测模型。
[0117] 于一实施例中,所述第二样本获取子单元用于:
[0118] 确定稠密网络结构的深度卷积神经网络作为初始化的人体关键点检测模型。
[0119] 第三方面,本公开实施例还提供了一种电子设备,包括:
[0120] 一个或多个处理器;
[0121] 存储器,用于存储一个或多个程序;
[0122] 当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面中任一项所述方法的指令。
[0123] 第四方面,本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一项所述方法的步骤。
[0124] 本公开实施例通过将目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的输出的各学生的人体位置信息;根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出该学生的多个预定关键点的位置信息;根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为,能够检测学生的课堂行为,能缩短检测时间,提高检测效率。附图说明
[0125] 为了更清楚地说明本公开实施例中的技术方案,下面将对本公开实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本公开实施例中的一部分实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本公开实施例的内容和这些附图获得其他的附图。
[0126] 图1是本公开实施例提供的一种分析学生课堂表现的方法的流程示意图;
[0127] 图2是本公开实施例提供的示例性的人脸姿态估计示意图;
[0128] 图3是本公开实施例提供的示例性的坐姿估计示意图;
[0129] 图4是本公开实施例提供的另一种分析学生课堂表现的方法的流程示意图;
[0130] 图5是本公开实施例提供的人体检测模型的训练方法的流程示意图;
[0131] 图6是本公开实施例提供的人体检测模型的结构示意图;
[0132] 图7是本公开实施例提供的人体检测模型中的稠密网络的结构示意图;
[0133] 图8是本公开实施例提供的示例性的人体检测模型的训练方法的流程示意图;
[0134] 图9是本公开实施例提供的人体关键点检测模型的训练方法的流程示意图;
[0135] 图10是本公开实施例提供的一种分析学生课堂表现的装置的结构示意图;
[0136] 图11是本公开实施例提供的另一种分析学生课堂表现的装置的结构示意图;
[0137] 图12是本公开实施例提供的一种人体检测模型的训练装置的结构示意图;
[0138] 图13是本公开实施例提供的一种人体关键点检测模型的训练装置的结构示意图;
[0139] 图14示出了适于用来实现本公开实施例的电子设备的结构示意图。

具体实施方式

[0140] 为使本公开实施例解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本公开实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本公开实施例中的一部分实施例,而不是全部的实施例。基于本公开实施例中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开实施例保护的范围。
[0141] 需要说明的是,本公开实施例中术语“系统”和“网络”在本文中常被可互换使用。本公开实施例中提到的“和/或”是指包括一个或更多个相关所列项目的任何和所有组合。
本公开的说明书权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于限定特定顺序。
[0142] 还需要说明是,本公开实施例中下述各个实施例可以单独执行,各个实施例之间也可以相互结合执行,本公开实施例对此不作具体限制。
[0143] 本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
[0144] 下面结合附图并通过具体实施方式来进一步说明本公开实施例的技术方案。
[0145] 图1示出了本公开实施例提供的一种分析学生课堂表现的方法的流程示意图,本实施例可适用于估计人体姿态确认上课状态的情况,该方法可以由配置于电子设备中的分析学生课堂表现的装置来执行,如图1所示,本实施例所述的分析学生课堂表现的方法包括:
[0146] 在步骤S110中,获取目标课堂图像。
[0147] 例如,可面向学生采集课堂内的视频流,对所述视频流进行解码处理得到多帧课堂图像,从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0148] 其中,从所述多帧课堂图像中抽取图像作为所述目标课堂图像,可以是周期性地抽取,也可以是抽取关键帧,例如分别抽取上课初始阶段的关键帧、上课提问环节的关键帧等。
[0149] 在步骤S120中,将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息。
[0150] 在步骤S130中,根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸。
[0151] 在步骤S140中,将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息。
[0152] 所述人体关键点为能够用于确定学生的课堂行为的部位的坐标,例如可包括左耳、右耳、左眼、右眼、鼻子、脖子、左肩膀、右肩膀、左手肘、右手肘、左手腕、右手腕、左胯骨、右胯骨、左膝盖、右膝盖、左脚踝和右脚踝等至少两种。
[0153] 在步骤S150中,根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0154] 例如可以识别出学生上课是否认真听讲、是否举手、是否记笔记、是否瞌睡、有没有做和学习无关的小动作等。
[0155] 例如,可根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态(例如包括正脸、人脸向左侧旋转、人脸向右侧旋转、仰脸等)、坐姿(例如包括正坐姿态和弯腰姿态等)和手部姿态(例如包括举手姿态和书写姿态等)等一种或多种信息,根据该学生的所述信息确定该学生的课堂行为。
[0156] 具体地,根据学生的多个预定关键点的位置信息确定该学生的课堂行为的具体方式可包括多种,例如,若所述多个预定关键点至少包括左眼、右眼和鼻子,根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态可采用如下方式:
[0157] 根据所述右眼和鼻子的位置信息计算右眼与鼻子连线的垂直夹角作为第一夹角;
[0158] 根据所述左眼和鼻子的位置信息计算左眼与鼻子连线的垂直夹角作为第二夹角;
[0159] 根据所述第一夹角的正切值、以及所述第二夹角的正切值确定该学生的人脸姿态。
[0160] 举例说明,图2是本公开实施例提供的示例性的人脸姿态估计示意图,人体左眼、右眼和鼻子的位置信息如图2所示,已知右眼R的坐标为(x1,y1),左眼L的坐标为(x2,y2),鼻子N的坐标为(x3,y3),右眼R与鼻子N连线的垂直夹角为α,左眼L与鼻子N连线垂直夹角为β。
[0161]
[0162] μ1=arctanα
[0163]
[0164] μ2=arctanβ
[0165] μ1,μ2取值范围为(-1.57,1.57),依据μ1,μ2得到的值与设定的左侧脸阈值、右侧脸阈值、仰头阈值比较,识别出的人脸姿态包括人脸向左侧旋转、人脸向右侧旋转、仰头、人脸姿态处于正脸时,还有其它状态。
[0166] 例如,向左侧转脸时,μ1,μ2满足如下条件:
[0167]
[0168] 向右侧转脸时,μ1,μ2满足如下条件:
[0169]
[0170] 仰头时,μ1,μ2满足如下条件:
[0171]
[0172] 正面人脸时,μ1,μ2满足如下条件:
[0173]
[0174] 当识别出人脸处于正脸姿态时表明该学生在认真听讲,识别出人脸姿态处于向左侧转脸或者向右侧转脸或者仰头都表明该学生没有认真听讲。
[0175] 又如,若所述多个预定关键点至少包括左肩膀和右肩膀,据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的坐姿可采用如下方式:
[0176] 根据左肩膀和右肩膀的位置信息计算左肩膀和右肩膀的连线与水平线之间的夹角,根据所述夹角的正切值确定该学生的坐姿。
[0177] 举例说明,图3是本公开实施例提供的示例性的坐姿估计示意图,已知右肩A点坐标为(xA,yA),左肩B点坐标为(xB,yB),右肩A与左肩B连线与水平线的夹角为θ。
[0178]
[0179] 今γ=arctanθ
[0180] γ取值范围[0,1.57),依据γ得到的值与设定的弯腰阈值比较,当γ值大于设定的弯腰阈值时,表明该学生在做弯腰动作,则表明该学生上课有做小动作。反之则表明说明动作正常,可认为在认真听课。
[0181] 进一步地,所述第一输出结果信息还可包括从所述目标课堂图像中识别到的学生集合中各学生的人体识别置信度,用于表征所识别的位置信息是学生所在位置的概率。
[0182] 若所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体识别置信度,则在获取所述人体检测模型的第一输出结果信息之后,还可将人体识别置信度小于预定人体识别置信度阈值的学生从所述学生集合中剔除,能够进一步增加分析结果的准确性。
[0183] 进一步地,所述第二输出结果信息还可包括各预定关键点的关键点识别置信度,用于表征所识别的关键点是该类型关键点的率。
[0184] 若所述第二输出结果信息包括各预定关键点的关键点识别置信度,则在获取所述人体关键点检测模型输出的第二输出结果信息之后,还可将关键点识别置信度小于预定关键点识别置信度阈值的预定关键点删除,能够进一步增加分析结果的准确性。
[0185] 进一步地,所述人体检测模型可为特征金字塔结构的深度卷积神经网络。
[0186] 进一步地,所述人体关键点检测模型可为稠密网络结构的深度卷积神经网络。
[0187] 本实施例通过将目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的输出的各学生的人体位置信息;根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出该学生的多个预定关键点的位置信息;根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为,能够检测学生的课堂行为,能缩短检测时间,提高检测效率。
[0188] 图4示出了本公开实施例提供的另一种分析学生课堂表现的方法的流程示意图,本实施例以前述实施例为基础,进行了改进优化。如图4所示,本实施例所述的分析学生课堂表现的方法包括:
[0189] 在步骤S410中,获取目标课堂图像。
[0190] 在步骤S420中,将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息。
[0191] 在步骤S430中,根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸。
[0192] 在步骤S440中,将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息。
[0193] 在步骤S450中,根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0194] 在步骤S460中,将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人脸识别模型,获取所述人脸识别模型输出的第三输出结果信息,其中所述第三输出结果信息包括该学生的身份信息。
[0195] 在步骤S470中,将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中。
[0196] 进一步地,本实施例所述方法还可在步骤S470之后,对所述学生集合中各学生的课堂行为分析结果进行汇总分析,根据汇总分析结果评测课堂效率。
[0197] 在上一实施例的基础之上,本实施例在获取各学生的课堂行为之后,继续获取各学生身份信息,将各学生的课堂行为记录到对应的身份信息所对应的课堂行为分析结果中,便于管理各学生的课堂行为,以及便于对课堂效果进行评估。
[0198] 本实施例的技术方案能够进一步基于人脸识别确定学生的身份信息,将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中,可基于该记录将得到的结果进行分析汇总,对每一个学生在每一堂课上的表现进行打分,并将结果发送至家长和老师的手里,能够有效提升学校在学生管理方面的效率,同时能够帮助教师和家长及时了解学生在课堂上的表现。
[0199] 图5是本公开实施例提供的人体检测模型的训练方法的流程示意图,如图5所示,本实施例所述的人体检测模型的训练方法包括:
[0200] 在步骤S510中,获取训练样本集合,其中,训练样本包括面向学生采集的课堂图像,以及用于表示所述课堂图像中各学生的人体位置信息的多个矩形框坐标组成的标注信息。
[0201] 在步骤S520中,确定初始化的人体检测模型,其中所述人体检测模型包括用于输出课堂图像显示的内容中包含的各学生的人体位置信息的目标层。
[0202] 例如,确定初始化的人体检测模型为特征金字塔结构的深度卷积神经网络。
[0203] 图6提供了一种示例性的人体检测模型的结构示意图,所述人体检测模型至少包括稠密网络601、第一卷积层602、第二卷积层603、第三卷积层604、第一反卷积层606、第二反卷积层609、第一融合层610、第二融合层607、第一损失层605、第二损失层608和第三损失层611的特征金字塔结构的深度卷积神经网络作为初始化的人体检测模型。
[0204] 其中,所述稠密网络601的结构如图7所示。稠密网络是指当前卷积层的输入为当前卷积层之前所有的卷积层输出和输入层的总和,这样做的好处是可以将低层提取到的图像特征传送给高层,而且解决了梯度消失问题,更容易训练。
[0205] 其中第一损失层605、第二损失层608和第三损失层611可采用有区别的损失函数,也可采用相同的损失函数。
[0206] 例如,损失函数L如下式,整个卷积神经网络中第一损失层605、第二损失层608和第三损失层611均可采用损失函数L。
[0207]
[0208] 其中,n表示关键点的数量,m表示人体的数量, 表示第j个人体的第i个人体关键点的真实值, 表示第j个人体的第i个人体关键点的预测值。
[0209] 在步骤S530中,利用深度学习的方法,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型。
[0210] 例如以上述图6所示结构的人体检测模型为例,本步骤可通过如图8所示方式实现:
[0211] 在步骤S810中,将所述训练集合中的训练样本中的课堂图像输入给所述稠密网络进行特征信息提取,将提取的特征信息输入所述第一卷积层进行卷积运算得到第一卷积结果,将所述第一卷积结果分别输入所述第二卷积层和所述第一融合层。
[0212] 在步骤S820中,所述第二卷积层对所述第一卷积结果进行卷积运算得到第二卷积结果,将所述第二卷积结果分别输入所述第三卷积层和所述第二融合层。
[0213] 在步骤S830中,所述第三卷积层对所述第二卷积结果进行卷积运算得到第三卷积结果,将所述第三卷积结果分别输入所述第一损失层和所述第一反卷积层。
[0214] 在步骤S840中,所述第一反卷积层对所述第三卷积结果进行反卷积运算得到第一反卷积结果,将所述第一反卷积结果输入所述第二融合层。
[0215] 在步骤S850中,所述第二融合层根据所述第一反卷积结果和所述第二卷积结果进行融合运算得到第二融合结果,将所述第二融合结果分别输入所述第二损失层和所述第二反卷积层。
[0216] 在步骤S860中,所述第二反卷积层根据所述第二融合结果进行反卷积运算得到第二反卷积结果,将所述第二反卷积结果输入所述第一融合层。
[0217] 在步骤S870中,所述第一融合层根据所述第二反卷积结果和所述第一卷积结果进行融合运算得到第一融合结果,将所述第一融合结果输入所述第三损失层。
[0218] 在步骤S880中,所述第一损失层、所述第二损失层和所述第三损失层分别根据接收的数据、预定损失函数、所述训练样本中的标注信息,对所述人体检测模型进行参数调整,以得到所述人体检测模型。
[0219] 本实施例融合特征金字塔结构的卷积神经网络人体检测方法对坐在不同位置的不同尺度的学生的人体进行检测,能够提升人体检测的准确性,从而能够提升学生课堂行为检测的准确率。
[0220] 图9是本公开实施例提供的人体关键点检测模型的训练方法的流程示意图,如图9所示,本实施例所述的人体关键点检测模型的训练方法包括:
[0221] 在步骤S910中,获取训练样本集合,其中,训练样本包括处于上课状态的学生的人体动作识别图像,以及用于表示该学生的多个预定关键点的位置信息组成的标注信息。
[0222] 在步骤S920中,确定初始化的人体关键点检测模型,其中所述人体关键点检测模型包括用于输出人体动作识别图像中的学生的多个预定关键点的位置信息的目标层。
[0223] 例如,可确定稠密网络结构的深度卷积神经网络作为初始化的人体关键点检测模型。
[0224] 在步骤S930中,利用深度学习的方法,将所述训练集合中的训练样本中的人体动作识别图像作为初始化的人体关键点检测模型的输入,将与输入的人体动作识别图像对应的标注信息作为初始化的人体关键点检测模型的期望输出,训练得到所述人体关键点检测模型。
[0225] 作为上述各图所示方法的实现,本申请提供了一种分析学生课堂表现的装置的一个实施例,图10示出了本实施例提供的一种分析学生课堂表现的装置的结构示意图,该装置实施例与图1至图9所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。如图10所示,本实施例所述的分析学生课堂表现的装置包括图像获取单元1010、人体位置信息检测单元1020、个体图像获取单元1030、关键点检测单元1040和课堂行为确定单元
1050。
[0226] 所述图像获取单元1010被配置为,用于获取目标课堂图像。
[0227] 所述人体位置信息检测单元1020被配置为,用于将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息。
[0228] 所述个体图像获取单元1030被配置为,用于根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸。
[0229] 所述关键点检测单元1040被配置为,用于将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息。
[0230] 所述课堂行为确定单元1050被配置为,用于根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0231] 进一步地,所述图像获取单元1010被配置为,用于面向学生采集课堂内的视频流,对所述视频流进行解码处理得到多帧课堂图像,从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0232] 进一步地,所述图像获取单元1010被配置为,用于周期性地从所述多帧课堂图像中抽取图像作为所述目标课堂图像。
[0233] 进一步地,所述第一输出结果信息还包括从所述目标课堂图像中识别到的学生集合中各学生的人体识别置信度;
[0234] 人体位置信息检测单元1020被配置为,还用于在获取所述人体检测模型的第一输出结果信息之后:
[0235] 将人体识别置信度小于预定人体识别置信度阈值的学生从所述学生集合中剔除。
[0236] 进一步地,所述第二输出结果信息还包括各预定关键点的关键点识别置信度。所述个体图像获取单元1030被配置为,还用于在获取所述人体关键点检测模型输出的第二输出结果信息之后:将关键点识别置信度小于预定关键点识别置信度阈值的预定关键点删除。
[0237] 于一实施例中,所述多个预定关键点包括:左耳、右耳、左眼、右眼、鼻子、脖子、左肩膀、右肩膀、左手肘、右手肘、左手腕、右手腕、左胯骨、右胯骨、左膝盖、右膝盖、左脚踝、和/或右脚踝;
[0238] 所述课堂行为确定单元1050被配置为,用于:
[0239] 根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的人脸姿态、坐姿、和/或手部姿态;
[0240] 根据该学生的人脸姿态、坐姿、和/或手部姿态确定该学生的课堂行为;
[0241] 其中所述人脸姿态包括正脸、人脸向左侧旋转、人脸向右侧旋转、仰脸,所述坐姿包括正坐姿态和弯腰姿态,所述手部姿态包括举手姿态和书写姿态。
[0242] 于一实施例中,所述多个预定关键点至少包括左眼、右眼和鼻子,所述课堂行为确定单元1050被配置为,还用于:
[0243] 根据所述右眼和鼻子的位置信息计算右眼与鼻子连线的垂直夹角作为第一夹角;
[0244] 根据所述左眼和鼻子的位置信息计算左眼与鼻子连线的垂直夹角作为第二夹角;
[0245] 根据所述第一夹角的正切值、以及所述第二夹角的正切值确定该学生的人脸姿态。
[0246] 于一实施例中,所述多个预定关键点至少包括左肩膀和右肩膀,所述课堂行为确定单元1050被配置为,还用于根据左肩膀和右肩膀的位置信息计算左肩膀和右肩膀的连线与水平线之间的夹角,根据所述夹角的正切值确定该学生的坐姿。
[0247] 本实施例提供的分析学生课堂表现的装置可执行本公开方法实施例所提供的分析学生课堂表现的方法,具备执行方法相应的功能模和有益效果。
[0248] 在上一实施例的基础之上,本申请提供了另一种分析学生课堂表现的装置的一个实施例,图11示出了本实施例提供的另一种分析学生课堂表现的装置的结构示意图。如图11所示,本实施例所述的分析学生课堂表现的装置包括图像获取单元1110、人体位置信息检测单元1120、个体图像获取单元1130、关键点检测单元1140、课堂行为确定单元1150、人脸识别单元1160和结果记录单元1170。
[0249] 所述图像获取单元1110被配置为,用于获取目标课堂图像。
[0250] 所述人体位置信息检测单元1120被配置为,用于将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息。
[0251] 所述个体图像获取单元1130被配置为,用于根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸。
[0252] 所述关键点检测单元1140被配置为,用于将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息。
[0253] 所述课堂行为确定单元1150被配置为,用于根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0254] 所述人脸识别单元1160被配置为,用于将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人脸识别模型,获取所述人脸识别模型输出的第三输出结果信息,其中所述第三输出结果信息包括该学生的身份信息。
[0255] 所述结果记录单元1170被配置为,用于将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中。
[0256] 进一步地,所述装置还可包括课堂效果分析单元(图11中未示出),所述课堂效果分析单元被配置为,用于在将该学生的课堂行为记录到该学生的身份信息对应的课堂行为分析结果中之后,对所述学生集合中各学生的课堂行为分析结果进行汇总分析,根据汇总分析结果评测课堂效率。
[0257] 本实施例提供的分析学生课堂表现的装置可执行本公开方法实施例所提供的分析学生课堂表现的方法,具备执行方法相应的功能模块和有益效果。
[0258] 图12是本公开实施例提供的一种人体检测模型的训练装置的结构示意图,如图12所示,本实施例所述的人体检测模型训练装置包括第一样本获取子单元1210、第一模型确定子单元1220和第一模型训练子单元1230。
[0259] 所述第一样本获取子单元1210被配置为,用于获取训练样本集合,其中,训练样本包括面向学生采集的课堂图像,以及用于表示所述课堂图像中各学生的人体位置信息的多个矩形框坐标组成的标注信息。
[0260] 所述第一模型确定子单元1220被配置为,用于确定初始化的人体检测模型,其中所述人体检测模型包括用于输出课堂图像显示的内容中包含的各学生的人体位置信息的目标层。
[0261] 所述第一模型训练子单元1230被配置为,用于利用深度学习的装置,将所述训练集合中的训练样本中的课堂图像作为初始化的人体检测模型的输入,将与输入的课堂图像对应的标注信息作为初始化的人体检测模型的期望输出,训练得到所述人体检测模型。
[0262] 进一步地,所述第一模型确定子单元1220被配置为,用于确定初始化的人体检测模型为特征金字塔结构的深度卷积神经网络。
[0263] 于一实施例中,所述第一模型确定子单元1220被配置为,用于建立至少包括稠密网络、第一卷积层、第二卷积层、第三卷积层、第一反卷积层、第二反卷积层、第一融合层、第二融合层、第一损失层、第二损失层和第三损失层的特征金字塔结构的深度卷积神经网络作为初始化的人体检测模型。
[0264] 所述第一模型训练子单元1230被配置为,用于:
[0265] 将所述训练集合中的训练样本中的课堂图像输入给所述稠密网络进行特征信息提取,将提取的特征信息输入所述第一卷积层进行卷积运算得到第一卷积结果,将所述第一卷积结果分别输入所述第二卷积层和所述第一融合层;
[0266] 所述第二卷积层对所述第一卷积结果进行卷积运算得到第二卷积结果,将所述第二卷积结果分别输入所述第三卷积层和所述第二融合层;
[0267] 所述第三卷积层对所述第二卷积结果进行卷积运算得到第三卷积结果,将所述第三卷积结果分别输入所述第一损失层和所述第一反卷积层;
[0268] 所述第一反卷积层对所述第三卷积结果进行反卷积运算得到第一反卷积结果,将所述第一反卷积结果输入所述第二融合层;
[0269] 所述第二融合层根据所述第一反卷积结果和所述第二卷积结果进行融合运算得到第二融合结果,将所述第二融合结果分别输入所述第二损失层和所述第二反卷积层;
[0270] 所述第二反卷积层根据所述第二融合结果进行反卷积运算得到第二反卷积结果,将所述第二反卷积结果输入所述第一融合层;
[0271] 所述第一融合层根据所述第二反卷积结果和所述第一卷积结果进行融合运算得到第一融合结果,将所述第一融合结果输入所述第三损失层;
[0272] 所述第一损失层、所述第二损失层和所述第三损失层分别根据接收的数据、预定损失函数、所述训练样本中的标注信息,对所述人体检测模型进行参数调整,以得到所述人体检测模型。
[0273] 本实施例提供的人体检测模型的训练装置可执行本公开方法实施例所提供的人体检测模型的训练方法,具备执行方法相应的功能模块和有益效果。
[0274] 图13是本公开实施例提供的一种人体关键点检测模型的训练装置的结构示意图,如图13所示,本实施例所述的人体关键点检测模型包括:第二样本获取子单元1310、第二模型确定子单元1320和第二模型训练子单元1330。
[0275] 所述第二样本获取子单元1310被配置为,用于获取训练样本集合,其中,训练样本包括处于上课状态的学生的人体动作识别图像,以及用于表示该学生的多个预定关键点的位置信息组成的标注信息。
[0276] 所述第二模型确定子单元1320被配置为,用于确定初始化的人体关键点检测模型,其中所述人体关键点检测模型包括用于输出人体动作识别图像中的学生的多个预定关键点的位置信息的目标层。
[0277] 所述第二模型训练子单元1330被配置为,用于利用深度学习的装置,将所述训练集合中的训练样本中的人体动作识别图像作为初始化的人体关键点检测模型的输入,将与输入的人体动作识别图像对应的标注信息作为初始化的人体关键点检测模型的期望输出,训练得到所述人体关键点检测模型。
[0278] 于一实施例中,所述第二样本获取子单元1320被配置为,用于确定稠密网络结构的深度卷积神经网络作为初始化的人体关键点检测模型。
[0279] 本实施例提供的人体关键点检测模型的训练装置可执行本公开方法实施例所提供的人体关键点检测模型的训练方法,具备执行方法相应的功能模块和有益效果。
[0280] 下面参考图14,其示出了适于用来实现本公开实施例的电子设备1400的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图14示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0281] 如图14所示,电子设备1400可以包括处理装置(例如中央处理器、图形处理器等)1401,其可以根据存储在只读存储器(ROM)1402中的程序或者从存储装置1408加载到随机访问存储器(RAM)1403中的程序而执行各种适当的动作和处理。在RAM 1403中,还存储有电子设备1400操作所需的各种程序和数据。处理装置1401、ROM 1402以及RAM 1403通过总线
1404彼此相连。输入/输出(I/O)接口1405也连接至总线1404。
[0282] 通常,以下装置可以连接至I/O接口1405:包括例如触摸屏触摸板键盘鼠标、摄像头、麦克加速度计、陀螺仪等的输入装置1406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1407;包括例如磁带、硬盘等的存储装置1408;以及通信装置1409。通信装置1409可以允许电子设备1400与其他设备进行无线或有线通信以交换数据。虽然图14示出了具有各种装置的电子设备1400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
[0283] 特别地,根据本公开实施例的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开实施例的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1409从网络上被下载和安装,或者从存储装置1408被安装,或者从ROM 1402被安装。在该计算机程序被处理装置1401执行时,执行本公开实施例的方法中限定的上述功能。
[0284] 需要说明的是,本公开实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
[0285] 上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
[0286] 上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
[0287] 获取目标课堂图像;
[0288] 将所述目标课堂图像传送给预先训练的人体检测模型,获取所述人体检测模型的第一输出结果信息,其中所述第一输出结果信息包括从所述目标课堂图像中识别到的学生集合中各学生的人体位置信息;
[0289] 根据所述学生集合中任一学生的人体位置信息和所述目标课堂图像获取该学生对应的人体动作识别图像,对获取的各人体动作识别图像进行预处理,缩放为预定尺寸;
[0290] 将所述学生集合中任一学生对应的人体动作识别图像传送给预先训练的人体关键点检测模型,获取所述人体关键点检测模型输出的第二输出结果信息,其中所述第二输出结果信息包括该学生的多个预定关键点的位置信息;
[0291] 根据所述学生集合中任一学生的多个预定关键点的位置信息确定该学生的课堂行为。
[0292] 可以以一种或多种程序设计语言或其组合来编写用于执行本公开实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
[0293] 附图中的流程图和框图,图示了按照本公开实施例各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0294] 描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
[0295] 以上描述仅为本公开实施例的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开实施例中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈