首页 / 专利库 / 人工智能 / 碰撞检测 / 人机交互方法、装置、电子设备及计算机存储介质

人机交互方法、装置、电子设备及计算机存储介质

阅读:285发布:2020-05-11

专利汇可以提供人机交互方法、装置、电子设备及计算机存储介质专利检索,专利查询,专利分析的服务。并且本公开的 实施例 提供了一种 人机交互 方法、装置、 电子 设备及计算机存储介质,当接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在视频录制界面中运动,若特定人体区域与交互对象满足预设条件,则隐藏满足预设条件的交互对象。在本公开实施例中,由于是判断用户的特定人体区域与交互对象是否满足预设条件,即可实现对交互对象的相应处理,在这过程中不需要用户通过 手指 与应用程序的 用户界面 进行交互,或者通过借助其他设备实现与用户界面的交互,就可以完成相应的操作,因此能够很好的满足用户的实际应用需求,增加了人机交互的趣味性,提升了用户的交互体验。,下面是人机交互方法、装置、电子设备及计算机存储介质专利的具体信息内容。

1.一种人机交互方法,其特征在于,包括:
当接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在所述视频录制界面中运动,其中,所述用户视频的视频图像中包括至少一个用户;
检测当前视频帧图像中用户的特定人体区域;
判断所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象是否满足预设条件,若所述特定人体区域与所述交互对象满足预设条件,则隐藏满足预设条件的所述交互对象。
2.根据权利要求1所述的方法,其特征在于,所述判断所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象是否满足预设条件,包括:
判断所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象是否发生碰撞;
所述若所述特定人体区域与所述交互对象满足预设条件,则隐藏满足预设条件的所述交互对象,包括:
若所述特定人体区域与所述交互对象发生碰撞,则隐藏发生碰撞的所述交互对象。
3.根据权利要求2所述的方法,其特征在于,所述判断所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象是否发生碰撞,包括:
创建特定人体区域的包围盒
通过判断所述包围盒与当前在所述视频录制界面中运动的所述交互对象是否发生碰撞,确定所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象是否发生碰撞。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述控制交互对象在所述视频录制界面中运动,包括:
控制所述交互对象在所述视频录制界面中随机运动。
5.根据权利要求4所述的方法,其特征在于,所述控制所述交互对象在所述视频录制界面中随机运动,包括:
通过随机函数确定所述交互对象的运动轨迹;
根据所述运动轨迹,控制所述交互对象在所述视频录制界面中运动。
6.根据权利要求5所述的方法,其特征在于,所述运动轨迹包括所述交互对象在视频录制界面中的起点位置、运动速度、运动方向和运动时间中的至少一项。
7.根据权利要求2-6中任一项所述的方法,其特征在于,若所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象发生碰撞,所述方法还包括:
根据预配置的交互对象与处理方式的第一映射关系,确定发生碰撞的所述交互对象对应的处理方式;
依据发生碰撞的所述交互对象对应的处理方式,对碰撞对应的所述视频帧图像进行相应的处理。
8.根据权利要求2-6中任一项所述的方法,其特征在于,所述方法还包括:
统计当前与所述特定人体区域发生碰撞的交互对象的数量;
根据预配置的碰撞数量与处理方式的第二映射关系,确定与统计的数量对应的处理方式;
依据与统计的数量对应的处理方式,对当前对应的所述视频帧图像进行相应的处理。
9.根据权利要求1-8中任一项所述的方法,其特征在于,所述方法还包括:
在满足以下条件中的任一项时,结束所述用户视频的录制,并根据已录制的所述用户视频和录制过程中在所述视频录制界面中运动的所述交互对象生成交互视频;
所述以下条件包括:
检测到所述特定人体区域与特定交互对象发生碰撞;
所述用户视频的录制时长等于预设时长;
接收到用户的录制结束操作时。
10.根据权利要求9中所述的方法,其特征在于,所述生成交互视频之后,还包括:
接收用户的视频保存操作,根据所述视频保存操作,将所述交互视频保存到本地;和/或,
接收用户的视频发布操作,根据所述视频发布操作,发布所述交互视频。
11.根据权利要求9所述的方法,其特征在于,所述生成交互视频之后,还包括;
接收用户的滤镜添加操作,依据所述滤镜添加操作,将相应的滤镜特效添加到所述交互视频中;
和/或,
接收用户的封面生成操作,依据所述封面生成操作,生成交互视频的封面;
和/或,
接收用户的特效添加操作,依据所述特效添加操作,对所述交互视频进行相应的特效处理。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述特定人体区域包括嘴部区域。
13.根据权利要求1至11中任一项所述的方法,其特征在于,所述交互对象为从预配置的交互对象集合中随机选取的对象。
14.一种人机交互装置,其特征在于,包括:
视频录制模,用于当接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在所述视频录制界面中运动,其中,所述用户视频的视频帧图像中包括至少一个用户;
检测模块,用于检测当前视频帧图像中用户的特定人体区域;
判断模块,用于判断所述特定人体区域与当前在所述视频录制界面中运动的所述交互对象是否满足预设条件;
处理模块,用于在所述特定人体区域与所述交互对象满足预设条件时,隐藏满足预设条件的所述交互对象。
15.一种电子设备,其特征在于,包括:
处理器和存储器
所述存储器,用于存储计算机操作指令;
所述处理器,用于通过调用所述计算机操作指令,执行上述权利要求1至13中任一项所述的方法。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述权利要求1至13中任一项所述的方法。

说明书全文

人机交互方法、装置、电子设备及计算机存储介质

技术领域

[0001] 本公开涉及图像处理技术领域,具体而言,本公开涉及一种人机交互方法、装置、电子设备和计算机存储介质。

背景技术

[0002] 随着人们生活平的提高,终端应用程序的种类也越来越多样化,尤其是娱乐式的应用程序已经成为人们生活不可或缺的一部分,为了满足人们的使用需求,应用程序种类在不断更新,功能也在不断强大。
[0003] 目前,现有的用户在通过应用程序进行娱乐的过程中,通常都是需要用户通过手指与应用程序的用户界面进行交互,或者通过借助其他设备实现与用户界面的交互,以完成相应的操作,如用户在玩一些游戏类的应用程序时,需要借助外部的游戏手柄才可以实现与应用程序之间的交互。
[0004] 可见,现有的交互方式比较单一或者需要借助其他设备,不能够很好的满足用户的实际应用需求,降低了用户的交互体验。发明内容
[0005] 本公开的目的旨在至少能解决上述的技术缺陷之一,提升用户的使用体验。本公开采用的技术方案如下:
[0006] 第一方面,本公开提供了一种人机交互方法,包括:
[0007] 当接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在视频录制界面中运动,其中,用户视频的视频图像中包括至少一个用户;检测当前视频帧图像中用户的特定人体区域;判断特定人体区域与当前在视频录制界面中运动的交互对象是否满足预设条件,若特定人体区域与交互对象满足预设条件,则隐藏满足预设条件的交互对象。
[0008] 本公开的实施例中,判断特定人体区域与当前在视频录制界面中运动的交互对象是否满足预设条件,包括:
[0009] 判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞;
[0010] 若特定人体区域与交互对象满足预设条件,则隐藏满足预设条件的交互对象,包括:
[0011] 若特定人体区域与交互对象发生碰撞,则隐藏发生碰撞的交互对象。
[0012] 本公开的实施例中,判断嘴部区域与当前在视频录制界面中运动的交互对象是否发生碰撞,包括:
[0013] 创建特定人体区域的包围盒;通过判断包围盒与当前在视频录制界面中运动的交互对象是否发生碰撞,确定特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞。
[0014] 本公开的实施例中,控制交互对象在视频录制界面中随机运动。
[0015] 本公开的实施例中,控制交互对象在视频录制界面中运动,包括:
[0016] 通过随机函数确定交互对象的运动轨迹;
[0017] 根据运动轨迹,控制交互对象在视频录制界面中运动。
[0018] 本公开的实施例中,运动轨迹包括交互对象在视频录制界面中的起点位置、运动速度、运动方向和运动时间中的至少一项。
[0019] 本公开的实施例中,若特定人体区域与当前在视频录制界面中运动的交互对象发生碰撞,该方法还包括:
[0020] 根据预配置的交互对象与处理方式的第一映射关系,确定发生碰撞的交互对象对应的处理方式;依据发生碰撞的交互对象对应的处理方式,对碰撞对应的视频帧图像进行相应的处理。
[0021] 本公开的实施例中,该方法还包括:
[0022] 统计当前与嘴部区域发生碰撞的交互对象的当前数量;根据预配置的碰撞数量与处理方式的第二映射关系,确定与统计的数量对应的处理方式;依据与统计的数量对应的处理方式,对当前对应的视频帧图像进行相应的处理。
[0023] 本公开的实施例中,该方法还包括:
[0024] 在满足以下条件中的任一项时,结束用户视频的录制,并根据已录制的用户视频和录制过程中在视频录制界面中运动的交互对象生成交互视频;
[0025] 其中,以下条件包括:
[0026] 检测到特定人体区域与特定交互对象发生碰撞;
[0027] 用户视频的录制时长等于预设时长;
[0028] 接收到用户的录制结束操作时。
[0029] 本公开的实施例中,生成交互视频之后,还包括:
[0030] 接收用户的视频保存操作,根据的视频保存操作,将交互视频保存到本地;和/或,接收用户的视频发布操作,根据视频发布操作,发布交互视频。
[0031] 本公开的实施例中,生成交互视频之后,还包括;
[0032] 接收用户的滤镜添加操作;依据滤镜添加操作,将相应的滤镜特效添加到交互视频中;和/或,
[0033] 接收用户的封面生成操作;依据封面生成操作,生成交互视频的封面;和/或,[0034] 接收用户的特效添加操作;依据特效添加操作,对交互视频进行相应的特效处理。
[0035] 本公开的实施例中,特定人体区域包括嘴部区域。
[0036] 本公开的实施例中,交互对象为从预配置的交互对象集合中随机选取的对象。
[0037] 第二方面,本公开提供了一种人机交互装置,包括:
[0038] 视频录制模,用于在接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在视频录制界面中运动,其中,用户视频的视频帧图像中包括至少一个用户;
[0039] 检测模块,用于检测当前视频帧图像中用户的特定人体区域;
[0040] 判断模块,用于判断特定人体区域与当前在视频录制界面中运动的交互对象是否满足预设条件;
[0041] 处理模块,用于在特定人体区域与交互对象满足预设条件时,隐藏满足预设条件的交互对象。
[0042] 本公开的实施例中,判断模块具体用于:
[0043] 判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞;
[0044] 处理模块在特定人体区域与交互对象满足预设条件,隐藏满足预设条件的交互对象时,具体用于:
[0045] 若特定人体区域与交互对象发生碰撞,则隐藏发生碰撞的交互对象。
[0046] 本公开的实施例中,视频录制模块在控制交互对象在视频录制界面中运动时,具体用于:
[0047] 控制交互对象在视频录制界面中随机运动。
[0048] 本公开的实施例中,视频录制模块在控制交互对象在视频录制界面中随机运动,具体用于:
[0049] 通过随机函数确定交互对象的运动轨迹;
[0050] 根据运动轨迹,控制交互对象在视频录制界面中运动。
[0051] 本公开的实施例中,运动轨迹包括交互对象在视频录制界面中的起点位置、运动速度、运动方向和运动时间中的至少一项。
[0052] 本公开的实施例中,该处理模块还用于:
[0053] 在特定人体区域与当前在视频录制界面中运动的交互对象发生碰撞时,根据预配置的交互对象与处理方式的第一映射关系,确定发生碰撞的交互对象对应的处理方式;
[0054] 依据发生碰撞的交互对象对应的处理方式,对相应的视频帧图像进行相应的处理。
[0055] 本公开的实施例中,该处理模块还用于:
[0056] 统计当前与特定人体区域发生碰撞的交互对象的当前数量;
[0057] 根据预配置的碰撞数量与处理方式的第二映射关系,确定与统计的数量对应的处理方式;
[0058] 依据与统计的数量对应的处理方式,对当前对应的视频帧图像进行相应的处理。
[0059] 本公开的实施例中,该人机交互装置还包括:
[0060] 视频生成模块,用于在满足以下条件中的任一项时,结束用户视频的录制,并根据已录制的用户视频和录制过程中在视频录制界面中运动的交互对象生成交互视频;
[0061] 其中,以下条件包括:
[0062] 检测到特定人体区域与特定交互对象发生碰撞;
[0063] 用户视频的录制时长等于预设时长;
[0064] 接收到用户的录制结束操作时。
[0065] 本公开的实施例中,该视频生成模块生成交互视频之后,还用于:
[0066] 接收用户的视频保存操作,根据视频保存操作,将交互视频保存到本地;和/或,接收用户的视频发布操作,根据视频发布操作,发布交互视频。
[0067] 本公开的实施例中,该处理模块生成交互视频之后,还用于:
[0068] 接收用户的滤镜添加操作;依据滤镜添加操作,将相应的滤镜特效添加到交互视频中;和/或,
[0069] 接收用户的封面生成操作;依据封面生成操作,生成交互视频的封面;和/或,[0070] 接收用户的特效添加操作;依据特效添加操作,对交互视频进行相应的特效处理。
[0071] 本公开的实施例中,特定人体区域包括嘴部区域。
[0072] 本公开的实施例中,交互对象为从预配置的交互对象集合中随机选取的对象。
[0073] 第三方面,本公开提供了一种电子设备,该电子设备包括处理器和存储器
[0074] 存储器,用于存储操作指令;
[0075] 处理器,用于通过调用操作指令,执行如本公开的第一方面的任一实施例中所示的方法。
[0076] 第四方面,本公开提供了一种计算机可读存储介质,存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本公开的第一方面的任一实施例中所示的方法。
[0077] 本公开实施例提供的技术方案带来的有益效果是:
[0078] 本公开实施例中,由于是判断用户的特定人体区域与交互对象是否满足预设条件,即可实现对交互对象的相应处理,在这过程中不需要用户通过手指与应用程序的用户界面进行交互,或者通过借助其他设备实现与用户界面的交互,就可以完成相应的操作,因此能够很好的满足用户的实际应用需求,增加了人机交互的趣味性,提升了用户的交互体验。附图说明
[0079] 为了更清楚地说明在本公开的实施例中的技术方案,下面将对本公开实施例描述中所需要使用的附图作简单地介绍。
[0080] 图1为本公开的实施例提供的一种人机交互方法的流程示意图;
[0081] 图2为本公开的实施例中一种视频录制触发按钮的示意图;
[0082] 图3a为本公开的实施例中一种控制交互对象在在视频录制界面中随机运动的示意图;
[0083] 图3b为本公开的实施例中另一种控制交互对象在在视频录制界面中随机运动的示意图;
[0084] 图4为本公开的实施例中一种嘴部区域与交互对象发生碰撞的示意图;
[0085] 图5为本公开的实施例中通过进度条显示预设时长的示意图;
[0086] 图6为本公开的实施例一种结束录制触发按钮的示意图;
[0087] 图7a为本公开的实施例中视频处理选择界面的示意图;
[0088] 图7b为本公开的实施例中视频处理效果确定界面的示意图;
[0089] 图8为本公开的实施例提供的一种人机交互装置的结构示意图;
[0090] 图9为本公开的实施例提供的一种电子设备的结构示意图。

具体实施方式

[0091] 下面详细描述本公开的实施例,该实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本公开的技术感,而不能解释为对本公开的限制。
[0092] 本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”和“该”也可包括复数形式。应该进一步理解的是,本公开的说明书中使用的措辞“包括”是指存在该特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
[0093] 下面以具体地实施例对本公开的技术方案以及本公开的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本公开的实施例进行描述。
[0094] 本公开的实施例提供了一种人机交互方法,如图1所示,该方法可以包括:
[0095] 步骤S110,当接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在视频录制界面中运动,其中,用户视频的视频帧图像中包括至少一个用户。
[0096] 步骤S120,检测当前视频帧图像中用户的特定人体区域。
[0097] 步骤S130,判断特定人体区域与当前在视频录制界面中运动的交互对象是否满足预设条件,若特定人体区域与交互对象满足预设条件,则隐藏满足预设条件的交互对象。
[0098] 本公开实施例中,由于是判断用户的特定人体区域与交互对象是否满足预设条件,即可实现对交互对象的相应处理,在这过程中不需要用户通过手指与应用程序的用户界面进行交互,或者通过借助其他设备实现与用户界面的交互,就可以完成相应的操作,因此能够很好的满足用户的实际应用需求,增加了人机交互的趣味性,提升了用户的交互体验。
[0099] 下面对本公开的实施例提供的一种人机交互方法进行详细介绍。
[0100] 步骤S110中,用户的视频录制触发操作是表示用户想要开始录制视频的操作,即用户用于触发开始视频录制的动作,接收用户的视频录制触发操作的具体形式可以根据需要配置,例如,可以是用户在客户端的应用程序的界面上的指定位置的触发动作。其中,视频录制界面用于电子设备与用户之间的交互,通过该界面可以录制用户视频。
[0101] 在实际应用中,用户可通过客户端的相关触发标识触发视频录制触发操作,其中,本公开的实施例对触发标识的形式不作限定,比如,触发标识可以为客户端界面上的指定触发按钮或输入框,还可以是用户的语音指令等。具体的,如图2所示,可以在客户端的应用程序的用户界面上显示的“视频录制”的虚拟按钮,用户点击该按钮的操作即为用户的视频录制触发操作。
[0102] 相应的,当接收到用户的视频录制触发操作后,通过视频录制界面录制用户视频,并控制交互对象在视频录制界面中运动,其中,用户视频的视频帧图像中包括至少一个用户。
[0103] 可以理解的是,用户视频的视频帧图像指的是所录制的用户视频的每一帧对应的图像。上述视频录制界面和接收用户视频录制触发操作的界面可以是同一界面也可以是不同的界面,在是不同的用户界面时,接收到用户的视频录制触发操作后,如上述点击“视频录制”虚拟按钮的操作后,即可进入到视频录制界面。
[0104] 在本公开的实施例中,交互对象可以为从预配置的交互对象集合中随机选取的对象,并且交互对象的具体形式、以及从预配置的交互对象集合中随机选取的交互对象的方式和数量,本公开实施例不做具体限定。
[0105] 在实际的应用中,一种可选的方式中,交互对象可以为图片或者文字等形式的交互对象,具体的,例如可以为动画图片。交互对象集合中可以预配置多种不同的交互对象,在开始录制用户视频后,可以通过随机函数从预配置的交互对象集合中随机选取交互对象。
[0106] 例如,预配置的交互对象集合中包括对象A、对象B、对象C、对象D和对象E等一系列交互对象,可以通过随机函数每次从该集合中随机选取一个或多个对象作为在视频录制界面中显示的交互对象,控制选取出的对象在视频录制界面中运动,通过不断的选取对象,控制各对象在视频录制界面中运动,从而实现了用户视频录制过程中交互对象和用户的交互。
[0107] 在本公开的实施例中,控制交互对象在视频录制界面中运动,可以包括:控制交互对象在视频录制界面中随机运动。
[0108] 也就是说,交互对象在视频录制界面中的运动轨迹可以是随机的。通过控制交互对象在视频录制界面中随机运动,使用户无法提前预测到交互对象在视频录制界面中的位置,更加提高了人机交互的趣味性。
[0109] 在一可选实施方式中,控制交互对象在视频录制界面中随机运动,可以包括:
[0110] 通过随机函数确定交互对象的运动轨迹;
[0111] 根据运动轨迹,控制交互对象在视频录制界面中运动。
[0112] 在本公开实施例中,运动轨迹可以包括交互对象在视频录制界面中的起点位置、运动速度、运动方向和运动时间中的至少一项。
[0113] 也就是说,控制交互对象随机运动时,可以是上述起点位置、运动速度、运动方向和运动时间中的一项或多项。在实际应用中,是一项还是多项,可以根据实际需要进行配置。
[0114] 在一示例中,如图3a所示,在某一用户视频录制时刻,通过随机函数选取到对象A作为在视频录制界面中运动的交互对象,根据随机函数确定的对象A的运动轨迹如图3a中虚线所示,包括图中所示的起点位置,则在选取到交互对象A之后,可以根据确定的该交互对象A的运动轨迹,控制对象A从图中所示的起点位置开始在视频录制界面中运动。
[0115] 在又一示例中,如图3b所示,在某一用户视频录制时刻,通过随机函数选取到对象B作为在视频录制界面中运动的交互对象,根据随机函数确定的对象B的运动轨迹如图3b中虚线所示,包括图中所示的起点位置,则在选取到交互对象B之后,可以根据确定的该交互对象B的运动轨迹,控制对象B从图中所示的起点位置开始在视频录制界面中运动。
[0116] 步骤120,检测当前视频帧图像中用户的特定人体区域。
[0117] 其中,检测当前视频帧图像中用户的特定人体区域的具体方式本公开实施例不做具体限定,在实际的应用中,一种可选的方式可以为:
[0118] 检测当前视频帧图像中用户的人体特征点,然后基于检测到的人体特征点,确定当前视频帧图像中用户的特定人体区域。
[0119] 需要说明的是,在实际应用中,对于当前视频帧图像中用户特定人体区域的检测,可以是对录制过程中所录制的每一帧视频帧图像均进行特定人体区域的检测,也可以根据实际需要,配置检测的时间间隔,根据该时间间隔对所录制的视频帧图像进行检测,以节约电子设备的系统资源。例如,可以设置上述时间间隔为0.1秒,则可以每隔0.1秒进行一次当前视频帧图像中用户特定人体区域的检测。
[0120] 在本公开实施例中,特定人体区域包括嘴部区域。
[0121] 当然,在实际应用中特定人体区域可以根据实际需要设定,如将脸部中的眼睛作为特定区域,或人体的四肢作为特定区域,本公开实施例不做具体限定。
[0122] 本公开的实施例中,判断特定人体区域与当前在视频录制界面中运动的交互对象是否满足预设条件,包括:
[0123] 判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞;
[0124] 若特定人体区域与交互对象满足预设条件,则隐藏满足预设条件的交互对象,包括:
[0125] 若特定人体区域与交互对象发生碰撞,则隐藏发生碰撞的交互对象。
[0126] 需要说明的是,将判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞作为预设条件,只是举例说明,在实际的应用中,预设条件可以根据需要设定,本公开的实施例对此不做限定,比如,还可以将判断特定人体区域与当前在视频录制界面中运动的交互对象的直线距离值是否小于预设值作为预设条件。
[0127] 其中,隐藏发生碰撞的交互对象,即表示为在视频录制界面不再显示碰撞的交互对象。例如,当前视频帧图像中用户的特定人体区域与交互对象A发生碰撞后,则不再在视频录制界面显示发生碰撞的交互对象A。
[0128] 本公开的实施例中,判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞,包括:
[0129] 创建特定人体区域的包围盒;
[0130] 通过判断包围盒与当前在视频录制界面中运动的交互对象是否发生碰撞,确定特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞。
[0131] 在具体的实施例中,还可以分别创建特定人体区域的包围盒和交互对象的包围盒,然后判断特定人体区域的包围盒与当前在视频录制界面中运动的交互对象的包围盒是否发生碰撞,来判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞。在判断出用户的特定人体区域的包围盒与当前在视频录制界面中运动的交互对象发生碰撞时,则隐藏发生碰撞的交互对象。
[0132] 例如,若特定人体区域为嘴部区域,此时,当前视频帧图像中用户的嘴部区域的包围盒与交互对象A发生碰撞后,则不再在视频录制界面显示发生碰撞的交互对象A。
[0133] 在实际的应用中,为了提高用户的交互体验,提高交互的趣味性,本公开实施例中,若特定人体区域与当前在视频录制界面中运动的交互对象发生碰撞,方法还包括:
[0134] 根据预配置的交互对象与处理方式的第一映射关系,确定发生碰撞的交互对象对应的处理方式;
[0135] 依据发生碰撞的交互对象对应的处理方式,对碰撞对应的视频帧图像进行相应的处理。
[0136] 其中,对碰撞对应的视频帧图像进行相应的处理时,可以仅仅对当前视频帧图像进行相应的处理,也可以对当前视频帧图像以及当前视频帧图像之后的所有视频帧图像进行相应的处理。并且,上述中的处理方式可以根据需要自行设定,比如处理方式可以为添加特效,或者其它图片处理方式,本公开实施例不做限定。进一步的,交互对象与处理方式的第一映射关系的具体表示形式,本公开实施例也不做具体限定。作为一个示例,当处理方式为添加特效时,如可以采用表格的形式表示交互对象与处理方式的第一映射关系,如表1所示:
[0137] 表1
[0138]交互对象A 兔子贴纸
交互对象B 大嘴特效
交互对象C 蘑菇特效
[0139] 作为一个示例,如图4所示,若特定人体区域为嘴部区域,且当前视频帧图像中用户的嘴部区域的包围盒如图中所示,当检测到用户的嘴部区域的包围盒与交互对象A发生碰撞时,通过查找表1可知交互对象A对应的处理方式为兔子贴纸,则可以对相应的视频帧图像进行相应的兔子贴纸处理,将兔子帖子贴到对应的视频帧图像中,其中,将特效添加到视频帧图像中的具体方式本公开实施例不做限定。
[0140] 在本公开的实施例中,该人机交互的方法还包括:
[0141] 统计当前与特定人体区域发生碰撞的交互对象的数量;
[0142] 根据预配置的碰撞数量与处理方式的第二映射关系,确定与统计的数量对应的处理方式;
[0143] 依据与统计的数量对应的处理方式,对当前对应的视频帧图像进行相应的处理。
[0144] 其中,对相应的视频帧图像进行相应的处理时,可以仅仅对当前视频帧图像进行相应的处理,也可以对当前视频帧图像以及当前视频帧图像之后的所有视频帧图像进行相应的处理。
[0145] 其中,当前与特定人体区域发生碰撞的交互对象的数量,可以为连续与特定人体区域发生碰撞的交互对象的数量,也可以为截止到当前时刻,所有与特定人体区域发生碰撞的交互对象的数量,本公开实施例对此不做限定。
[0146] 同样的,碰撞数量与处理方式的第二映射关系的具体表示形式,以及具体的处理方式,本公开实施例也不做具体限定,作为一个示例,当处理方式为添加特效时,如可以采用表格的形式表示预配置的碰撞数量与处理方式第二映射关系,如表2所示:
[0147] 表2
[0148]
[0149]
[0150] 作为一个示例,若特定人体区域为嘴部区域,且当前与嘴部区域发生碰撞的交互对象的数量为5个时,通过查找表2得知数量5对应的特效为一级胖脸特效,然后对相应的视频帧图像进行一级胖脸特效处理。其中,特效的具体实现形式可以根据实际需要配置。
[0151] 相应的,本公开的实施例中,在满足以下条件中的任一项时,结束用户视频的录制,并根据已录制的用户视频和录制过程中在视频录制界面中运动的交互对象生成交互视频;其中,该条件包括:
[0152] 条件1、检测到特定人体区域与特定交互对象发生碰撞;
[0153] 比如,特定交互对象为对象B,当视频帧图像中的特定人体区域与特定对象B发生碰撞时,此时结束用户视频的录制,并根据用户视频和在视频录制界面中运动的交互对象生成交互视频。
[0154] 条件2、用户视频的录制时长等于预设时长;
[0155] 其中,预设时长可以通过进度条、数字倒计时等方式在视频录制界面显示,本公开实施例不做具体的限定。例如,如图5所示,通过进度条的方式在视频录制界面显示预设时长。
[0156] 作为一个示例,,假如预设时长为20秒,并通过进度条的方式在视频录制界面显示,当用户视频的录制时长等于20秒时,则结束用户视频的录制,并根据用户视频和在视频录制界面中运动的交互对象生成交互视频。
[0157] 条件3、在接收到用户的录制结束操作时;
[0158] 其中,用户的录制结束操作是表示用户想要结束录制视频的操作,即用户用于触发结束录制视频的动作,接收用户的结束录制视频触发操作的具体形式可以根据需要配置,例如,可以是用户在客户端的应用程序的界面上的指定位置的触发动作。
[0159] 在实际应用中,用户可通过客户端的相关触发标识触发录制结束触发操作,其中,本公开实施例对触发标识的形式不作限定,比如,触发标识可以客户端界面上的指定触发按钮或输入框,还可以是用户的语音等,具体的,如图6所示,可以在客户端的视频录制界面上显示“结束录制”的虚拟按钮,用户点击该按钮的操作即为用户的录制结束操作。
[0160] 本公开实施例中,在生成交互视频之后,该人机交互方法还可以包括:
[0161] 接收用户的视频保存操作,根据视频保存操作,将交互视频保存到本地;和/或,接收用户的视频发布操作,根据视频发布操作,发布交互视频。
[0162] 其中,用户的视频保存操作是表示用户想要保存录制的视频的操作,即用户用于触发视频保存操作的动作,接收用户的视频保存操作的具体形式可以根据需要配置,例如,可以是用户在客户端的应用程序的界面上的指定位置的触发动作。
[0163] 在实际应用中,可通过客户端的相关触发标识触发视频保存触发操作,其中,本公开实施例对触发标识的形式不作限定,比如,触发标识可以客户端界面上的指定触发按钮或输入框,还可以是用户的语音等,具体的,可以在客户端的视频录制界面上显示“保存视频”的虚拟按钮,用户点击该按钮的操作即为用户的视频保存操作。
[0164] 用户的视频发布操作是表示用户想要发布录制的视频,即用户用于触发视频发布操作的动作,接收用户的视频发布操作的具体形式可以根据需要配置,例如,可以是用户在客户端的应用程序的界面上的指定位置的触发动作。
[0165] 在实际应用中,可通过客户端的相关触发标识触发视频发布触发操作,其中,本公开实施例对触发标识的形式不作限定,比如,触发标识可以客户端界面上的指定触发按钮或输入框,还可以是用户的语音等,具体的,可以在客户端的视频录制界面上显示“视频发布”的虚拟按钮,用户点击该按钮的操作即为用户的视频发布操作。
[0166] 其中,根据用户的视频发布操作发布交互视频的具体实施方式,本公开实施例不作具体的限定,一种可选的实施方式为:
[0167] 在接收到用户的视频发布操作后,将用户的交互视频发送至服务器,然后由服务器将用户的交互视频发送至交互平台中。
[0168] 在实际的应用中,为了使生成的交互视频能够更好的反映个人特点,满足用户的个性化需求,进而提升用户的交互体验。在本公开的实施例中,在生成用户的交互视频后,还可以接收用户的滤镜添加操作,依据滤镜添加操作,将相应的滤镜特效添加到交互视频中;和/或,
[0169] 接收用户的封面生成操作,依据封面生成操作,生成交互视频的封面;和/或,[0170] 接收用户的特效添加操作,依据特效添加操作,对交互视频进行相应的特效处理。
[0171] 在实际应用中,在生成交互视频后,可以将视频处理选择界面显示,通过视频处理选择界面接收用户的滤镜添加操作、封面生成操作和特效添加操作,从而得到用户所选择的视频处理方式,之后,可将用户选择的视频处理方式下的处理效果选项通过视频处理效果确定界面呈现给用户,使用户能够通过视频处理效果确定界面中显示的处理效果选项,选择具体的视频处理效果。
[0172] 如图7所示,在生成交互视频后,可以在客户端显示视频处理选择界面,在视频处理选择界面上显示不同视频处理方式对应的虚拟按钮:如图7a中所示的“滤镜”、“封面”和“特效”等,在用户通过虚拟按钮选定处理方式后,可以通过用户界面进一步显示各处理方式所对应的具体处理效果选项,如图7a中所示,在用户可通过点击“滤镜”处理方式之后,可以进一步在用户界面中显示出用户选择的滤镜处理方式下的滤镜效果选项A,B,C和D,如图7b所示,用户可通过点击A,B,C和D中的任一个来选择想要添加的滤镜效果。
[0173] 其中,视频处理选择界面和视频处理效果确定界面可为同一个用户界面,也可以为不同的用户界面。
[0174] 这里需要说明的是,上述的视频处理方式仅仅是举例说明,在实际应用中视频处理方式不限定上述三种。
[0175] 基于与图1所示方法的相同原理,本公开的实施例中还提供了一种人机交互装置20,如图8所示,该装置20可以包括:视频录制模块210、检测模块220、判断模块230以及处理模块240,其中,
[0176] 视频录制模块210,用于在接收到用户的视频录制触发操作时,通过视频录制界面录制用户视频,并控制交互对象在视频录制界面中运动,其中,用户视频的视频帧图像中包括至少一个用户;
[0177] 检测模块220,用于检测当前视频帧图像中用户的嘴部区域;
[0178] 判断模块230,用于判断特定人体区域与当前在视频录制界面中运动的交互对象是否满足预设条件;
[0179] 处理模块240,用于在特定人体区域与交互对象满足预设条件时,隐藏满足预设条件的交互对象。
[0180] 本公开的实施例中,判断模块具体用于:
[0181] 判断特定人体区域与当前在视频录制界面中运动的交互对象是否发生碰撞;
[0182] 处理模块在特定人体区域与交互对象满足预设条件,隐藏满足预设条件的交互对象时,具体用于:
[0183] 若特定人体区域与交互对象发生碰撞,则隐藏发生碰撞的交互对象。
[0184] 本公开的实施例中,视频录制模块在控制交互对象在视频录制界面中运动时,具体用于:
[0185] 控制交互对象在视频录制界面中随机运动。
[0186] 本公开的实施例中,视频录制模块在控制交互对象在视频录制界面中随机运动,具体用于:
[0187] 通过随机函数确定交互对象的运动轨迹;
[0188] 根据运动轨迹,控制交互对象在视频录制界面中运动。
[0189] 本公开的实施例中,运动轨迹包括交互对象在视频录制界面中的起点位置、运动速度、运动方向和运动时间中的至少一项。
[0190] 本公开的实施例中,该处理模块还用于:
[0191] 在特定人体区域与当前在视频录制界面中运动的交互对象发生碰撞时,根据预配置的交互对象与处理方式的第一映射关系,确定发生碰撞的交互对象对应的处理方式;
[0192] 依据发生碰撞的交互对象对应的处理方式,对相应的视频帧图像进行相应的处理。
[0193] 本公开的实施例中,该处理模块还用于:
[0194] 统计当前与特定人体区域发生碰撞的交互对象的当前数量;
[0195] 根据预配置的碰撞数量与处理方式的第二映射关系,确定与统计的数量对应的处理方式;
[0196] 依据与统计的数量对应的处理方式,对当前对应的视频帧图像进行相应的处理。
[0197] 本公开的实施例中,该人机交互装置20还包括:
[0198] 视频生成模块,用于在满足以下条件中的任一项时,结束用户视频的录制,并根据已录制的用户视频和录制过程中在视频录制界面中运动的交互对象生成交互视频;
[0199] 其中,以下条件包括:
[0200] 检测到特定人体区域与特定交互对象发生碰撞;
[0201] 用户视频的录制时长等于预设时长;
[0202] 接收到用户的录制结束操作时。
[0203] 本公开的实施例中,该视频生成模块生成交互视频之后,还用于:
[0204] 接收用户的视频保存操作,根据视频保存操作,将交互视频保存到本地;和/或,接收用户的视频发布操作,根据视频发布操作,发布交互视频。
[0205] 本公开的实施例中,该处理模块生成交互视频之后,还用于:
[0206] 接收用户的滤镜添加操作;依据滤镜添加操作,将相应的滤镜特效添加到交互视频中;和/或,
[0207] 接收用户的封面生成操作;依据封面生成操作,生成交互视频的封面;和/或,[0208] 接收用户的特效添加操作;依据特效添加操作,对交互视频进行相应的特效处理。
[0209] 本公开的实施例中,特定人体区域包括嘴部区域。
[0210] 本公开的实施例中,交互对象为从预配置的交互对象集合中随机选取的对象。
[0211] 本公开实施例中,由于是判断用户的特定人体区域与交互对象是否满足预设条件,即可实现对交互对象的相应处理,在这过程中不需要用户通过手指与应用程序的用户界面进行交互,或者通过借助其他设备实现与用户界面的交互,就可以完成相应的操作,因此能够很好的满足用户的实际应用需求,增加了人机交互的趣味性,提升了用户的交互体验。。
[0212] 可以理解的是,本公开各实施例中的人机交互装置中的各模块所执行的动作是与本公开各实施例中的人机交互方法中的步骤相对应的,对于人机交互装置的各模块的详细功能描述具体可以参见前文中所示的对应的人机交互方法中的描述,在此不再赘述。
[0213] 基于与本公开的实施例中的人机交互方法相同的原理,本公开的实施例中还提供了一种电子设备,该电子设备可以包括但不限于:处理器和存储器;存储器,用于存储计算机操作指令;处理器,用于通过调用计算机操作指令,执行上述实施例所示的方法,在此不再赘述。
[0214] 基于与本公开的实施例中的人机交互方法相同的原理,本公开的实施例中还提供了一种计算机可读存储介质,该存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述实施例所示的方法,在此不再赘述。
[0215] 本公开的实施例提与现有技术相比,由于是判断用户的特定人体区域与交互对象是否满足预设条件,即可实现对交互对象的相应处理,在这过程中不需要用户通过手指与应用程序的用户界面进行交互,或者通过借助其他设备实现与用户界面的交互,就可以完成相应的操作,因此能够很好的满足用户的实际应用需求,增加了人机交互的趣味性,提升了用户的交互体验。
[0216] 下面参考图9,其示出了适于用来实现本公开实施例的电子设备900的结构示意图,该电子设备900可以是终端设备或服务器。其中终端设备可以包括但不限于诸如移动电话笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0217] 如图9所示,电子设备900可以包括处理装置(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储装置908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备
900操作所需的各种程序和数据。处理装置901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
[0218] 通常,以下装置可以连接至I/O接口905:包括例如触摸屏触摸板键盘鼠标、摄像头、麦克加速度计、陀螺仪等的输入装置906;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置907;包括例如磁带、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
[0219] 特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被处理装置901执行时,执行本公开实施例的方法中限定的上述功能。
[0220] 需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
[0221] 上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
[0222] 上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括至少两个网际协议地址的节点评价请求,其中,节点评价设备从至少两个网际协议地址中,选取网际协议地址并返回;接收节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
[0223] 或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
[0224] 可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
[0225] 附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0226] 描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
[0227] 以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈