首页 / 专利库 / 信号处理 / 信号处理 / 音频信号处理 / 音频分割 / 在线教学监控的方法、装置、电子设备及介质

在线教学监控的方法、装置、电子设备及介质

阅读:475发布:2020-05-17

专利汇可以提供在线教学监控的方法、装置、电子设备及介质专利检索,专利查询,专利分析的服务。并且本 申请 公开了一种在线教学监控的方法、装置、 电子 设备及介质。其中,本申请中,在获取教学视频之后,可以基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息,并根据第一用户对应的骨骼关键点信息,生成教学视频的评价结果。通过应用本申请的技术方案,可以根据教学视频中的第一用户的骨骼关键点信息,确定第一用户在教学视频中的肢体动作,从而判断教学视频的教学效率。从而可以避免相关技术中存在的需要人工判定教学视频的课堂 质量 所导致的效率不佳的问题。,下面是在线教学监控的方法、装置、电子设备及介质专利的具体信息内容。

1.一种在线教学监控的方法,其特征在于,包括:
获取教学视频信息,所述教学视频信息中至少包含第一用户的图像信息;
基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;
基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:获取所述预设时间段内,第二用户生成的音频数据信息,所述第二用户为在所述教学视频中的用户;以及所述基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果,包括:
基于所述音频数据信息以及所述骨骼关键点信息,生成所述教学视频的评价结果。
3.如权利要求2所述的方法,其特征在于,所述基于所述音频数据信息以及所述骨骼关键点信息,生成所述教学视频的评价结果,包括:
解析所述第二用户生成的音频数据信息,得到预期体态,所述预期体态为期望所述第一用户实现的体态;
根据所述骨骼关键点信息,确定所述第一用户展现的实际体态;
基于所述预期体态与所述实际体态的匹配关系,生成所述教学视频的评价结果。
4.如权利要求1所述的方法,其特征在于,所述根据所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果,包括:
获取所述第一用户对应的各个骨骼关键点信息;
解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值;
基于所述变化值与预设阈值的比较结果,生成所述教学视频的评价结果。
5.如权利要求4所述的方法,其特征在于,所述解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值,包括:
基于所述各骨骼关键点信息,确定所述第一用户在所述预设时间段内,各时间点的肢体朝向;
基于所述各骨骼关键点在各时间点的肢体朝向,计算所述各骨骼关键点在所述预设时间段内的第一变化值,所述第一变化值为肢体朝向的度变化值。
6.如权利要求4所述的方法,其特征在于,所述解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值,包括:
基于所述各骨骼关键点信息,确定所述第一用户在所述预设时间段内,各时间点的肢体位置
基于所述各肢体位置在各时间点的肢体位置,计算所述各骨骼关键点在所述预设时间段内的第二变化值,所述第二变化值为肢体位置的坐标变化值。
7.如权利要求1-6所述的方法,其特征在于,所述骨骼关键点信息包括如下至少之一:
部信息、胸口信息、肩部信息、肘部信息以及手腕信息。
8.如权利要求1所述的方法,其特征在于,所述基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息,包括:
利用图像神经网络模型,检测所述第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息。
9.如权利要求8所述的方法,其特征在于,在所述利用图像神经网络模型,检测所述第一用户的图像信息之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个样本骨骼关键点特征;
利用所述样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的所述图像神经网络模型。
10.一种在线教学监控的装置,其特征在于,包括:
第一获取模,被设置为获取教学视频,所述教学视频中至少包含第一用户的图像信息;
第二获取模块,被设置为基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;
生成模块,被设置为根据所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。
11.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-9中任一所述在线教学监控的方法的操作。
12.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-7中任一所述在线教学监控的方法的操作。

说明书全文

在线教学监控的方法、装置、电子设备及介质

技术领域

[0001] 本申请中涉及图像处理技术,尤其是一种在线教学监控的方法、装置、电子设备及介质。

背景技术

[0002] 随着社会的发展,越来越多的人会选择学习各种各样的知识来不断扩充自己。其中,由于传统的学生与教师面对面授课均需要双方在路上耗费大量的时间及精。因此,随着通信时代的发展,网络授课已被广大的用户所接受。
[0003] 一般的,网络授课是基于互联网络远程在线的互动培训课堂。网络授课是采用音视频传输以及数据协同等网络传输技术,模拟真实课堂环境,通过网络给学生提供有效地培训环境。进一步的,网络授课不仅可以避免线下授课带来的额外耗费时间精力的问题,还可以在授课结束后,随时观看授课时的回放视频,以便巩固所学知识。在一般的远程授课视频中,通常由教师端和学生端通过使用自身的智能设备进行通信,以完成授课过程。
[0004] 然而相关技术中,在判断某节课的课堂质量时是通过人工在课后回放课堂视频以查看学生和老师的状态,从而对该堂课程的教学质量进行监控,评判教学效果。但这种方法在面对大量数据时,难以保证监控、评判的准确性。发明内容
[0005] 本申请实施例提供一种在线教学监控的方法、装置、电子设备及介质。
[0006] 其中,根据本申请实施例的一个方面,提供的一种在线教学监控的方法,其特征在于,包括:
[0007] 获取教学视频信息,所述教学视频信息中至少包含第一用户的图像信息;
[0008] 基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;
[0009] 基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。
[0010] 可选地,在基于本申请上述方法的另一个实施例中,所述方法还包括:获取所述预设时间段内,第二用户生成的音频数据信息,所述第二用户为在所述教学视频中的用户;以及
[0011] 所述基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果,包括:
[0012] 可选地,在基于本申请上述方法的另一个实施例中,所述基于所述音频数据信息以及所述骨骼关键点信息,生成所述教学视频的评价结果,包括:
[0013] 解析所述第二用户生成的音频数据信息,得到预期体态,所述预期体态为期望所述第一用户实现的体态;
[0014] 根据所述骨骼关键点信息,确定所述第一用户展现的实际体态;
[0015] 基于所述预期体态与所述实际体态的匹配关系,生成所述教学视频的评价结果。
[0016] 可选地,在基于本申请上述方法的另一个实施例中,所述根据所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果,包括:
[0017] 获取所述第一用户对应的各个骨骼关键点信息;
[0018] 解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值;
[0019] 基于所述变化值与预设阈值的比较结果,生成所述教学视频的评价结果。
[0020] 可选地,在基于本申请上述方法的另一个实施例中,所述解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值,包括:
[0021] 基于所述各骨骼关键点信息,确定所述各骨骼关键点在所述预设时间段内,各时间点的肢体朝向;
[0022] 基于所述各骨骼关键点在各时间点的肢体朝向,计算所述各骨骼关键点在所述预设时间段内的第一变化值,所述第一变化值为肢体朝向的度变化值。
[0023] 可选地,在基于本申请上述方法的另一个实施例中,所述解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值,包括:
[0024] 基于所述各骨骼关键点信息,确定所述各骨骼关键点在所述预设时间段内,各时间点的肢体位置
[0025] 基于所述各肢体位置在各时间点的肢体位置,计算所述各骨骼关键点在所述预设时间段内的第二变化值,所述第二变化值为肢体位置的坐标变化值。
[0026] 可选地,在基于本申请上述方法的另一个实施例中,所述骨骼关键点信息包括如下至少之一:部信息、胸口信息、肩部信息、肘部信息以及手腕信息的一种信息。
[0027] 可选地,在基于本申请上述方法的另一个实施例中,所述基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息,包括:
[0028] 利用图像神经网络模型,检测所述第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息。
[0029] 可选地,在基于本申请上述方法的另一个实施例中,在所述利用图像神经网络模型,检测所述第一用户的图像信息之前,还包括:
[0030] 获取样本图像,其中,所述样本图像包括至少一个样本骨骼关键点特征;
[0031] 利用所述样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的所述图像神经网络模型。
[0032] 可选的,根据本申请实施例的另一个方面,提供的一种在线教学监控的装置,包括:
[0033] 第一获取模,被设置为获取教学视频,所述教学视频中至少包含第一用户的图像信息;
[0034] 第二获取模块,被设置为基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;
[0035] 生成模块,被设置为根据所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。
[0036] 根据本申请实施例的又一个方面,提供的一种电子设备,包括:
[0037] 存储器,用于存储可执行指令;以及
[0038] 显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述在线教学监控的方法的操作。
[0039] 根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述在线教学监控的方法的操作。
[0040] 本申请中,在获取教学视频之后,可以基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息,并根据第一用户对应的骨骼关键点信息,生成教学视频的评价结果。通过应用本申请的技术方案,可以根据教学视频中的第一用户的骨骼关键点信息,确定第一用户在教学视频中的肢体动作,从而判断教学视频的教学效率。从而可以避免相关技术中存在的需要人工判定教学视频的课堂质量所导致的效率不佳的问题。
[0041] 下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。

附图说明

[0042] 构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
[0043] 参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
[0044] 图1为本申请提出的一种在线教学监控的方法的示意图;
[0045] 图2为本申请提出的一种在线教学监控的方法的示意图;
[0046] 图3为本申请在线教学监控的装置的结构示意图;
[0047] 图4为本申请显示电子设备结构示意图。

具体实施方式

[0048] 现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
[0049] 同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
[0050] 以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
[0051] 对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
[0052] 应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
[0053] 需要说明,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
[0054] 另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
[0055] 下面结合图1-图2来描述根据本申请示例性实施方式的用于进行在线教学监控的方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
[0056] 本申请还提出一种在线教学监控的方法、装置、目标终端及介质。
[0057] 图1示意性地示出了根据本申请实施方式的一种在线教学监控的方法的流程示意图。如图1所示,该方法包括:
[0058] S101,获取教学视频信息,教学视频中信息至少包含第一用户的图像信息。
[0059] 首先需要说明的是,本申请中不对获取教学视频的设备做具体限定,例如可以为智能设备,也可以为服务器。其中,智能设备可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture ExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、便携计算机等具有显示功能的可移动式终端设备等等。
[0060] 其中,本申请中的教学视频中可以包含有多个用户的图像信息,也可以只包含有一个用户的图像信息。进一步的,第一用户可以为老师,也可以为多个学生之中的任意一个学生。
[0061] 另外,本申请中的教学视频可以是在线实时获取的教学视频,也可以是从数据库中提取的历史的教学视频。
[0062] 另外需要说明的是,在本申请中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
[0063] S102,基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息。
[0064] 进一步的,本申请中可以提取教学视频中,所有关于第一用户的图像信息,并在其中选取在预设时间段的第一用户的图像信息,进而获取该图像信息中的第一用户的骨骼关键点信息。需要说明的是,本申请不对预设时间段做具体限定,例如可以为教学视频中的全部时间段,也可以为教学视频中的任意部分时间段。
[0065] 其中,在视频数据中,可以包含有可视为随时间连续变换的许多张画面,而则指这些画面当中的每一张。通常来说,一般的视频数据中包含三种类型的帧图像。分别为关键帧I帧(Inter Frame),非关键帧P帧(P-Frame)以及B帧(B-Frame)。进一步的,I帧即为视频数据中的关键帧数据,也即当获得I帧的数据之后,就可以直接解码出当前帧的图像,对于P帧和B帧来说,他们所包含的内容可以理解为针对其参考帧的一个patch,也就是一个变化量,所以他们不用包含整个图像的信息,只要描述好与参考帧之间的变化关系即可。
[0066] 更进一步的,由于关键帧I帧的信息量较大,为了初步去除大量冗余信息并节省计算资源,可利用ffmpeg等工具对视频文件提取关键帧。并在提取到关键帧之后,确定其中包含第一用户的图像信息。进一步需要说明的是,本申请在获取多张包含第一用户的图像信息的关键帧之后,可以删除其中视频中模糊,人脸缺失,缓冲等等无效图像。
[0067] 另外,本申请中同样不对骨骼关键点信息做具体限定,其中骨骼关键点可以为第一用户身上的任意骨骼关键点。例如可以为左耳信息,右耳信息,左肩信息,右肩信息,胸口信息、左肘信息,右肘信息,左手手腕信息以及右手手腕信息的任意一种或多种信息。
[0068] S103,基于第一用户对应的骨骼关键点信息,生成教学视频的评价结果。
[0069] 本申请中,可以基于第一用户对应的骨骼关键点信息,采用多种方式生成教学视频的评价结果。例如,可以根据第一用户对应的骨骼关键点信息,确定其对应的肢体动作。并根据当前教学视频中的实际场景,生成该肢体动作对应评价结果。举例来说,例如当检测到第一用户在全部教学视频中的肢体动作幅度较低,可由此判断该第一用户的上课状态为无精打采,因此可以生成该堂教学视频的教学质量较低的评价结果。又或,当检测到第一用户在全部教学视频中的肢体动作幅度较大,可由此判断该第一用户的上课状态为兴奋,因此可以生成该堂教学视频的教学质量较高的评价结果。
[0070] 本申请中,在获取教学视频之后,可以基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息,并根据第一用户对应的骨骼关键点信息,生成教学视频的评价结果。通过应用本申请的技术方案,可以根据教学视频中的第一用户的骨骼关键点信息,确定第一用户在教学视频中的肢体动作,从而判断教学视频的教学效率。从而可以避免相关技术中存在的需要人工判定教学视频的课堂质量所导致的效率不佳的问题。
[0071] 可选的,在本申请一种可能的实施方式中,骨骼关键点信息至少包括以下多种信息的任意一种或多种:
[0072] 耳部信息、胸口信息、肩部信息、肘部信息以及手腕信息。
[0073] 进一步可选的,在本申请一种可能的实施方式中,在S103(根据第一用户对应的骨骼关键点信息,生成教学视频的评价结果)中,可以通过以下方式实现:
[0074] 获取第一用户对应的各个骨骼关键点信息;
[0075] 解析各骨骼关键点信息,得到各骨骼关键点在预设时间段内的变化值;
[0076] 基于变化值与预设阈值的比较结果,生成教学视频的评价结果。
[0077] 其中,本申请中在基于变化值与预设阈值的比较结果,生成教学视频的评价结果的实现方式中,可以包含两种方式:
[0078] 第一种方式:
[0079] 基于各骨骼关键点信息,确定第一用户在预设时间段内,各时间点的肢体朝向;
[0080] 基于各骨骼关键点在各时间点的肢体朝向,计算各骨骼关键点在预设时间段内的第一变化值,第一变化值为肢体朝向的角度变化值。
[0081] 进一步的,本申请中可以基于各个骨骼关键点在各时间点的角度朝向,确定各骨骼关键点在预设时间段内的肢体朝向的角度变化值。其中需要说明的是,本申请不对第一用户的肢体做具体限定,例如可以为手部器官,面部器官,手臂器官等等。
[0082] 举例来说,以第一用户的骨骼关键点为手指器官,预设时间段为1分钟为例。本申请中,可以在检测到用户的左手手指骨骼关键点信息以及右手手指骨骼关键点信息之后,基于两个手指骨骼关键点信息,确定第一用户在预设时间段内,各时间点的手指朝向。例如,当检测到用户在教学视频中的第10分钟时,左手手指的朝向为正下方,右手手指的朝向为正下方,且在教学视频中的第11分钟时,左手手指的朝向为正前方,右手手指的朝向为正下方时。即可以判定左手手指骨骼关键点对应的第一变化值(即左手肢体朝向的角度变化值)为90度,右手手指骨骼关键点对应的第一变化值(即右手肢体朝向的角度变化值)为0度。
[0083] 又或,以第一用户的骨骼关键点为耳部器官,预设时间段为1分钟为例。本申请中,可以在检测到用户的左耳的骨骼关键点信息以及右耳的骨骼关键点信息之后,基于两个耳部的骨骼关键点信息,确定第一用户在预设时间段内,各时间点的脸部朝向。例如,当检测到用户在教学视频中的第10分钟时,左耳的朝向为视频的正左方,右耳的朝向为视频的正右方,且在教学视频中的第11分钟时,左耳的朝向为视频的正前方,右耳的朝向为视频的正后方时。即可以判定左耳骨骼关键点对应的第一变化值为90度,右耳骨骼关键点对应的第一变化值同样为90度。进而可以根据第一用户的耳部器官的变化值,判定该第一用户的脸部朝向。
[0084] 第二种方式:
[0085] 基于各骨骼关键点信息,确定各骨骼关键点在预设时间段内,各时间点的肢体位置;
[0086] 基于各肢体位置在各时间点的肢体位置,计算各骨骼关键点在预设时间段内的第二变化值,第二变化值为肢体位置的坐标变化值。
[0087] 基于各骨骼关键点在各时间点的肢体朝向,计算各骨骼关键点在预设时间段内的第二变化值,其中第二变化值为用户的肢体位置在图像中的的坐标变化值。
[0088] 进一步的,本申请中可以基于各个骨骼关键点在各时间点的坐标值,确定各骨骼关键点在预设时间段内的肢体位置的坐标变化值。
[0089] 举例来说,以第一用户的骨骼关键点为手臂器官,预设时间段为1分钟为例。本申请中,可以在检测到用户的左手手臂骨骼关键点信息以及右手手臂骨骼关键点信息之后,基于两个手臂骨骼关键点信息,确定第一用户在预设时间段内,各时间点的手臂坐标位置。例如,当检测到用户在教学视频中的第30分钟时,左手手臂在图像中的坐标位置为{X,Y,Z},右手手臂在图像中的坐标位置为{M,N,O},且在教学视频中的第31分钟时,检测到用户的左手手臂在图像中的坐标位置为{X+50,Y+20,Z+10},右手手臂在图像中的坐标位置为{M+60,N+35,O+20}。即可以判定在预设时间段内,用户的左手手臂骨骼关键点对应的第二变化值(即左手肢体位置的坐标变化值)为{50,20,10},用户的右手手臂骨骼关键点对应的第二变化值(即右手肢体位置的坐标变化值)为{60,35,20}。
[0090] 又或,以第一用户的骨骼关键点为肩部器官,预设时间段为1分钟为例。本申请中,可以在检测到用户的左肩骨骼关键点信息以及右肩骨骼关键点信息之后,基于两个肩部骨骼关键点信息,确定第一用户在预设时间段内,各时间点的肩部坐标位置。例如,当检测到用户在教学视频中的第50分钟时,左肩在图像中的坐标位置为{X’,Y’,Z’},右肩在图像中的坐标位置为{M’,N’,O’},且在教学视频中的第51分钟时,检测到用户的左肩在图像中的坐标位置为{X’+30,Y’+20,Z’+20},右肩在图像中的坐标位置为{M’+50,N’+60,O’+18}。即可以判定在预设时间段内,用户的左肩骨骼关键点对应的第二变化值(即左手肢体位置的坐标变化值)为{30,20,20},用户的右肩骨骼关键点对应的第二变化值(即右手肢体位置的坐标变化值)为{50,60,18}。
[0091] 再进一步可选的,在本申请一种可能的实施方式中,在S102(基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息)中,可以通过以下方式实现:
[0092] 利用图像神经网络模型,检测第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息。
[0093] 其中,本申请不对图像神经网络模型做具体限定。例如可以为卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类。得益于CNN(卷积神经网络)对图像的强大特征表征能力,其在图像分类、目标检测、语义分割等领域都取得了令人瞩目的效果。
[0094] 进一步的,本申请可以使用CNN神经网络模型中的检测各关键帧中的第一用户的图像信息,并获取第一用户对应的骨骼关键点特征信息。其中,需要将各关键帧图像输入至预设的卷积神经网络模型中,并将卷积神经网络模型最后一层全连接层(FC,fully connected layer)的输出作为对该关键帧图像对应的特征数据。
[0095] 还需要说明的是,本申请在利用卷积神经网络模型,确定各关键帧数据对应的特征数据之前,还需要首先获取该卷积神经网络模型:
[0096] 获取样本图像,其中,样本图像包括至少一个样本骨骼关键点特征;
[0097] 利用样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的图像神经网络模型。
[0098] 进一步的,本申请可以通过神经网络图像分类模型,来识别样本图像所包括的至少一个对象的样本特征(例如可以为手部特征,肩部特征,肘部特征等等)。更进一步而言,神经网络图像分类模型还可以对样本图像中的各个样本特征进行分类,并且将属于同一类别的样本特征分为同一类型,这样,样本图像进行语义分割之后所得到的多个样本特征可以为多个不同类型所组成的样本特征。
[0099] 需要说明的是,神经网络图像分类模型对样本图像进行语义分割处理时,对样本图像中的像素点分类越准确,则识别样本图像中的标记对象的准确率越高。其中需要说明的是,预设条件可以是自定义设定的。
[0100] 例如,可以设定预设条件为:对像素点的分类准确率达到70%以上,那么,样本图像对神经网络图像分类模型进行反复训练,在神经网络图像分类模型对像素点的分类准确率达到70%以上时,则此时该神经网络图像分类模型可以应用在本申请实施例中,对关键帧数据进行语义分割处理。
[0101] 可选的,对于所使用的神经网络图像分类模型,一种实施方式中,可以通过样本图像对预设的图像语义分割模型进行训练。具体地,可以获取样本图像,并利用样本图像对预设的神经网络图像分类模型进行训练,得到满足预设条件的图像神经网络模型。
[0102] 进一步可选的,在本申请的一种实施方式中,在S102(基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息)之后,还包括一种具体的实施方式,如图2所示,包括:
[0103] S201,获取教学视频信息。
[0104] S202,基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息。
[0105] S203,获取预设时间段内,第二用户生成的音频数据信息,第二用户为在教学视频中的用户。
[0106] 本申请中,在获取第一用户在预设时间段对应的骨骼关键点信息之后,如上所述,可以对各个骨骼关键点信息进行解析,得到各骨骼关键点在预设时间段内的变化值。并利用该变化值,判定第一用户是否达到了预期动作。
[0107] 进一步的,本申请中可以基于第二用户生成的音频数据信息,来对第一用户的骨骼关键点信息进行分析。需要说明的是,本申请不对第二用户做具体限定,即第二用户可以与第一用户为同一用户,第二用户也可以与第一用户不为同一用户。举例来说,当第一用户为教学视频中的学生时,第二用户可以为该学生,也可以为与该学生进行上课的老师。同样的,当第一用户为教学视频中的老师时,第二用户可以为该老师,也可以为与该老师进行上课的学生。
[0108] 另外需要说明的是,本申请同样不对第二用户生成的音频数据信息做具体限定,例如可以为第二用户的说话,也可以为第二用户播放的预先录制的音频数据信息等等。
[0109] S204,基于音频数据信息以及骨骼关键点信息,生成教学视频的评价结果。
[0110] 具体来说,本申请中在实现基于音频数据信息以及骨骼关键点信息,生成教学视频的评价结果的过程中,可以通过以下步骤得到:
[0111] 解析第二用户生成的音频数据信息,得到预期体态,预期体态为期望第一用户展现的体态信息;
[0112] 可以理解的,预期体态即为第一用户在接收到第二用户生成的音频数据信息之后,根据该音频数据信息而期望第一用户实现的体态信息。例如,以第一用户为学生,第二用户为老师举例来说,当老师说出:“会答这道问题的请举手(即音频数据信息)”时,该第一用户的预期体态即为实现举手的体态信息。又或,当老师说出:“请起立(即音频数据信息)”时,该第一用户的预期体态即为实现站立的体态信息。
[0113] 根据骨骼关键点信息,确定第一用户展现的时间体态信
[0114] 进一步的,本申请可以基于各骨骼关键点信息,计算各骨骼关键点在预设时间段内的第一变化值,和/或,计算各骨骼关键点在预设时间段内的第二变化值。并基于该变化值,确定第一用户实现的体态信息。
[0115] 同样以上述举例进行说明,当老师说出:“会答这道问题的请举手”时,该第一用户的预期体态即为实现举手的体态信息。进一步的,本申请可以基于第一用户的手臂骨骼关键点信息,计算手臂骨骼关键点在预设时间段内的变化值。并当根据手臂骨骼关键点信息确定用户的手臂肢体的角度变化满足手臂与平面的夹角呈垂直的条件,或当根据手臂骨骼关键点信息确定用户的手臂肢体的位置坐标变化满足手臂的坐标位置呈画面正上方时,即可以确定第一用户实现的体态信息为举手。
[0116] 又或,当老师说出:“请起立”时,该第一用户的预期体态即为实现站立的体态信息。进一步的,本申请可以基于第一用户的肩部骨骼关键点信息,计算肩部骨骼关键点在预设时间段内的变化值。并当根据第一用户的肩部骨骼关键点信息确定用户的肩部肢体的位置坐标变化满足在画面的垂直方向上坐标位置移动了预设距离时,即可以确定第一用户实现的体态信息为站立。
[0117] 基于预期体态与体态信息的匹配关系,生成教学视频的评价结果。
[0118] 进一步的,本申请可以在检测到第一用户的预期体态与与其实际实现的体态信息的相匹配时,即可以判断第一用户的教学质量较好。进一步的,可以在一个教学视频中检测到预设次数的预期体态与体态信息相匹配时,生成教学视频为较好的评价结果。
[0119] 本申请中,在获取教学视频之后,可以基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息,并根据第一用户对应的骨骼关键点信息,生成教学视频的评价结果。通过应用本申请的技术方案,可以根据教学视频中的第一用户的骨骼关键点信息,确定第一用户在教学视频中的肢体动作,从而判断教学视频的教学效率。从而可以避免相关技术中存在的需要人工判定教学视频的课堂质量所导致的效率不佳的问题。
[0120] 在本申请的另外一种实施方式中,如图3所示,本申请还提供一种在线教学监控的装置,该装置包括第一获取模块301,第二获取模块302,生成模块303,其中,[0121] 第一获取模块301,被设置为获取教学视频,所述教学视频中至少包含第一用户的图像信息;
[0122] 第二获取模块302,被设置为基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;
[0123] 生成模块303,被设置为基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。
[0124] 本申请中,在获取教学视频之后,可以基于第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息,并根据第一用户对应的骨骼关键点信息,生成教学视频的评价结果。通过应用本申请的技术方案,可以根据教学视频中的第一用户的骨骼关键点信息,确定第一用户在教学视频中的肢体动作,从而判断教学视频的教学效率。从而可以避免相关技术中存在的需要人工判定教学视频的课堂质量所导致的效率不佳的问题。
[0125] 在本申请的另一种实施方式中,生成模块303,还包括:
[0126] 生成模块303,被配置为获取所述预设时间段内,第二用户生成的音频数据信息,所述第二用户为在所述教学视频中的用户;
[0127] 生成模块303,被配置为基于所述音频数据信息以及所述骨骼关键点信息,生成所述教学视频的评价结果。
[0128] 在本申请的另一种实施方式中,生成模块303,还包括:
[0129] 生成模块303,被配置为解析所述第二用户生成的音频数据信息,得到预期体态,所述预期体态为期望所述第一用户实现的体态信息;
[0130] 生成模块303,被配置为根据所述骨骼关键点信息,确定所述第一用户实现的实际体态;
[0131] 生成模块303,被配置为基于所述预期体态与所述体态信息的匹配关系,生成所述教学视频的评价结果。
[0132] 在本申请的另一种实施方式中,生成模块303,还包括:
[0133] 生成模块303,被配置为获取所述第一用户对应的各个骨骼关键点信息;
[0134] 生成模块303,被配置为解析所述各骨骼关键点信息,得到所述各骨骼关键点在所述预设时间段内的变化值;
[0135] 生成模块303,被配置为基于所述变化值与预设阈值的比较结果,生成所述教学视频的评价结果。
[0136] 在本申请的另一种实施方式中,还包括,解析模块304,其中:
[0137] 解析模块304,被配置为基于所述各骨骼关键点信息,确定所述第一用户在所述预设时间段内,各时间点的肢体朝向;
[0138] 解析模块304,被配置为基于所述各骨骼关键点在各时间点的肢体朝向,计算所述各骨骼关键点在所述预设时间段内的第一变化值,所述第一变化值为肢体朝向的角度变化值。
[0139] 在本申请的另一种实施方式中,还包括,解析模块304,其中:
[0140] 解析模块304,被配置为基于所述各骨骼关键点信息,确定所述第一用户在所述预设时间段内,各时间点的肢体位置;
[0141] 解析模块304,被配置为基于所述各肢体位置在各时间点的肢体位置,计算所述各骨骼关键点在所述预设时间段内的第二变化值,所述第二变化值为肢体位置的坐标变化值。
[0142] 在本申请的另一种实施方式中,所述骨骼关键点信息至少包括如下至少之一:耳部信息、胸口信息、肩部信息、肘部信息以及手腕信息的一种信息。
[0143] 在本申请的另一种实施方式中,第一获取模块301,还包括:
[0144] 第一获取模块301,被配置为利用图像神经网络模型,检测所述第一用户的图像信息,获取第一用户在预设时间段对应的骨骼关键点信息。
[0145] 在本申请的另一种实施方式中,第一获取模块301,还包括:
[0146] 第一获取模块301,被配置为获取样本图像,其中,所述样本图像包括至少一个样本骨骼关键点特征;
[0147] 第一获取模块301,被配置为利用所述样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的所述图像神经网络模型。
[0148] 图4是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
[0149] 参照图4,电子设备400可以包括以下一个或多个组件:处理器401和存储器402。
[0150] 处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
[0151] 存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的互动特效标定方法。
[0152] 在一些实施例中,电子设备400还可选包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、触摸显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
[0153] 外围设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
[0154] 射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
[0155] 显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置电子设备400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在电子设备400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在电子设备400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
[0156] 摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
[0157] 音频电路407可以包括麦克和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备400的不同部位。
麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
[0158] 定位组件408用于定位电子设备400的当前地理位置,以实现导航或LBS(Location Based  Service,基于位置的服务)。定位组件408可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
[0159] 电源409用于为电子设备400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
[0160] 在一些实施例中,电子设备400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
[0161] 加速度传感器411可以检测以电子设备400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
[0162] 陀螺仪传感器412可以检测电子设备400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
[0163] 压力传感器413可以设置在电子设备400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在电子设备400的侧边框时,可以检测用户对电子设备400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
[0164] 指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置电子设备400的正面、背面或侧面。当电子设备400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
[0165] 光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
[0166] 接近传感器416,也称距离传感器,通常设置在电子设备400的前面板。接近传感器416用于采集用户与电子设备400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
[0167] 本领域技术人员可以理解,图4中示出的结构并不构成对电子设备400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
[0168] 在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由电子设备400的处理器420执行以完成上述在线教学监控的方法,该方法包括:获取教学视频,所述教学视频中至少包含第一用户的图像信息;基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
[0169] 在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备400的处理器420执行,以完成上述在线教学监控的方法,该方法包括:获取教学视频,所述教学视频中至少包含第一用户的图像信息;基于所述第一用户的图像信息,获取所述第一用户在预设时间段对应的骨骼关键点信息;基于所述第一用户对应的骨骼关键点信息,生成所述教学视频的评价结果。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。
[0170] 本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
[0171] 应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈