声音处理系统

申请号 CN201520742860.2 申请日 2015-09-23 公开(公告)号 CN205508399U 公开(公告)日 2016-08-24
申请人 索尼公司; 发明人 关矢俊之; 森秀人; 羽生田诚; 东崎优; 平野雄哉;
摘要 本实用新型提供一种能够更鲜明地取得用户声音的声音处理系统。该声音处理系统具备佩戴于用户的佩戴部,所述佩戴部具有至少三个声音取得部,所述声音取得部取得用于波束成形的声音数据,在所述佩戴部佩戴于所述用户的状态下,四个声音取得部所包含的第1声音取得部与所述用户的嘴部之间的距离、与所述四个声音取得部所包含的第2声音取得部与所述用户的嘴部之间的距离被设置为不同的距离。
权利要求

1.一种声音处理系统,其中,
具备佩戴于用户的佩戴部,
所述佩戴部具有至少三个声音取得部,所述声音取得部取得用于波束成形的声音数据,
在所述佩戴部佩戴于所述用户的状态下,四个声音取得部所包含的第1声音取得部与所述用户的嘴部之间的距离、与所述四个声音取得部所包含的第2声音取得部与所述用户的嘴部之间的距离被设置为不同的距离。
2.根据权利要求1所述的声音处理系统,其中,
所述佩戴部具有至少四个所述声音取得部,
将设置有四个所述声音取得部的位置彼此连结而形成的形状是立体的。
3.根据权利要求1所述的声音处理系统,其中,
在所述佩戴部佩戴于所述用户的状态下,
所述第1声音取得部设置于相比其他所述声音取得部最靠近所述用户的嘴部的位置,所述第2声音取得部设置于所述用户在直立姿势下相比所述第1声音取得部靠所述用户的脚侧的位置。
4.根据权利要求1所述的声音处理系统,其中,
所述第1声音取得部以及所述第2声音取得部设置于所述用户在直立姿势下相比所述用户的嘴部靠脚侧的位置。
5.根据权利要求2所述的声音处理系统,其中,
所述声音取得部是在全方位具有灵敏度的麦克
6.根据权利要求5所述的声音处理系统,其中,
所述声音取得部是灵敏度在全方位一样的麦克风。
7.根据权利要求2所述的声音处理系统,其中,
所述声音处理系统还具备控制部,所述控制部使用由所述声音取得 部取得的多个声音数据来进行波束成形处理,所述波束成形处理形成用于取得来自所述用户的嘴部的方向的声音的指向性
8.根据权利要求7所述的声音处理系统,其中,
所述佩戴部具有所述控制部。
9.根据权利要求2所述的声音处理系统,其中,
所述佩戴部为绕所述用户的颈部佩戴的颈部悬挂型。

说明书全文

声音处理系统

技术领域

[0001] 本公开内容涉及声音处理系统。

背景技术

[0002] 近年来,佩戴于用户身体的任意部位,来感测用户状态,或对周围的情况进行拍摄或者录音等,或将多种信息向用户输出的可穿戴设备不断普及。例如,可穿戴设备被利用于生活日志的领域、运动辅助的领域等多种领域。
[0003] 可穿戴设备所取得的信息会较大地受到佩戴部位、用户状态、周围环境的影响。例如,对于声音,从用户的嘴部发出的声音(以下,也称为“用户声音”)有时会淹没于可穿戴设备与衣服的摩擦声、振动的声音、周围环境声等杂音。因此,寻求用于更鲜明地取得用户声音的技术。
[0004] 例如,在下述专利文献1中,公开了取得如下声音信号的技术,该声音信号是通过在头带式机(headset)中设置两个麦克,对从各麦克风输入的声音信号进行麦克风陈列处理来抑制杂音而增强了用户声音的信号。
[0005] 专利文献1:日本特开2005-303574号公报
[0006] 但是,在本技术领域中,希望性能进一步提高。实用新型内容
[0007] 因此,在本公开内容中,提出了一种能够更鲜明地取得用户声音的新改进的声音处理系统。
[0008] 根据本公开内容,提供了一种声音处理系统,具备佩戴于用户的佩戴部,所述佩戴部具有至少三个声音取得部,所述声音取得部取得用于波束成形的声音数据,在所述佩戴部佩戴于所述用户的状态下,四个声音取得部所包含的第1声音取得部与所述用户的嘴部之间的距离、与所 述四个声音取得部所包含的第2声音取得部与所述用户的嘴部之间的距离被设置为不同的距离。
[0009] 在所述声音处理系统中,优选所述佩戴部具有至少四个所述声音取得部,将设置有四个所述声音取得部的位置彼此连结而形成的形状是立体的。
[0010] 在所述声音处理系统中,优选在所述佩戴部佩戴于所述用户的状态下,所述四个声音取得部所包含的第1声音取得部与所述用户的嘴部之间的距离、与所述四个声音取得部所包含的第2声音取得部与所述用户的嘴部之间的距离被设置为不同的距离。
[0011] 在所述声音处理系统中,优选在所述佩戴部佩戴于所述用户的状态下,所述第1声音取得部设置于相比其他所述声音取得部最靠近所述用户的嘴部的位置,所述第2声音取得部设置于所述用户在直立姿势下相比所述第1声音取得部靠所述用户的脚侧的位置。
[0012] 在所述声音处理系统中,优选所述第1声音取得部以及所述第2声音取得部设置于所述用户在直立姿势下相比所述用户的嘴部靠脚侧的位置。
[0013] 在所述声音处理系统中,优选所述声音取得部是在全方位具有灵敏度的麦克风。
[0014] 在所述声音处理系统中,优选所述声音取得部是灵敏度在全方位一样或者大致一样的麦克风。
[0015] 在所述声音处理系统中,优选所述声音处理系统还具备控制部,所述控制部使用由所述声音取得部取得的多个声音数据来进行波束成形处理,所述波束成形处理形成用于取得来自所述用户的嘴部的方向的声音的指向性
[0016] 在所述声音处理系统中,优选所述波束成形处理是按声音到来的各个区域分别使增强程度发生变化的处理。
[0017] 在所述声音处理系统中,优选所述波束成形处理包括抑制从特定区域到来的声音的处理。
[0018] 在所述声音处理系统中,优选所述控制部基于所述用户以外的说话人的位置来控制所述波束成形处理。
[0019] 在所述声音处理系统中,优选所述控制部基于表示所述用户的状态的信息来控制所述波束成形处理。
[0020] 在所述声音处理系统中,优选所述控制部进行与声音识别的结果对应的处理,所述声音识别的结果是基于进行了所述波束成形处理的声音数据而执行得到的。
[0021] 在所述声音处理系统中,优选所述控制部基于所述声音识别的结果来控制所述声音处理系统的动作。
[0022] 在所述声音处理系统中,优选所述控制部基于所述声音识别的结果来控制所述指向性。
[0023] 在所述声音处理系统中,优选所述佩戴部具有所述控制部。
[0024] 在所述声音处理系统中,优选所述佩戴部以绕所述用户的颈部的方式佩戴。
[0025] 如以上说明那样,根据本公开内容,能够更鲜明地取得用户声音。
[0026] 应予说明,上述效果不被限定,也可以与上述效果一起、或者代替上述效果,发挥本说明书所示的任意效果、或者能够从本说明书中把握的其他效果。附图说明
[0027] 图1是表示本实施方式的声音处理系统的外观结构的一个例子的图。
[0028] 图2是表示本实施方式的声音处理系统的外观结构的一个例子的图。
[0029] 图3是表示本实施方式的声音处理系统的外观结构的一个例子的图。
[0030] 图4是表示本实施方式的声音处理系统的外观结构的其他一个例子的图。
[0031] 图5是表示本实施方式的声音处理系统的外观结构的其他一个例子的图。
[0032] 图6A和图6B是表示比较例的声音处理系统的外观结构的例子的图。
[0033] 图7A和图7B是用于对本实施方式的声音取得部的配置方针进行说 明的图。
[0034] 图8是用于对本实施方式的声音取得部的配置方针进行说明的图。
[0035] 图9A和图9B是用于对本实施方式的声音取得部的配置方针进行说明的图。
[0036] 图10是用于对本实施方式的声音取得部的配置方针进行说明的图。
[0037] 图11是表示本实施方式的声音处理系统的内部结构的一个例子的框图
[0038] 图12是表示本实施方式的声音处理系统中执行的声音信号处理的流程的一个例子的流程图
[0039] 附图标记说明:
[0040] 1…声音处理系统;110…声音取得部;120…拍摄部;130…操作部;140…传感器部;150…通信部;160…控制部。

具体实施方式

[0041] 以下,一边参照附图,一边对本公开内容的优选实施方式详细地进行说明。应予说明,在本说明书以及附图中,通过对于实际上具有相同的功能结构的构成要素标注相同的附图标记而省略重复说明。
[0042] 另外,在本说明书以及附图中,对于实际上具有相同功能结构的要素,有时还在标注了相同的附图标记后标注不同的字母来进行区别。例如,对于实际上具有相同的功能结构的多个要素,根据需要以声音取得部110A、110B以及110C的方式进行区别。其中,在无需对于实际上具有相同的功能结构的多个要素分别特别进行区别的情况下,仅标注相同附图标记。例如,在无需对于声音取得部110A、110B以及110C特别进行区别的情况下,简称为声音取得部110。
[0043] 应予说明,说明按以下的顺序来进行。
[0044] 1.外观结构
[0045] 2.声音取得部的配置
[0046] 2-1.配置方针
[0047] 2-2.实际的配置例
[0048] 3.内部结构
[0049] 4.动作处理
[0050] 5.总结
[0051] <1.外观结构>
[0052] 首先,参照图1~图6B,对本公开内容的一个实施方式的声音处理系统的外观结构进行说明。
[0053] 图1~图3是表示本实施方式的声音处理系统的外观结构的一个例子的图。如图1~图3所示,本实施方式的声音处理系统1具有从颈部两侧至后侧(后背侧)环绕半周之类的形状的佩戴单元(佩戴部)。而且,佩戴单元通过悬挂于用户颈部而佩戴于用户。应予说明,图1~图3表示从各个视观察用户佩戴了佩戴单元的状态的图,具体而言,图1是立体图,图2是从用户右侧观察的侧视图,图3是从用户上侧观察的俯视图。
[0054] 应予说明,在本说明书中,虽使用上下左右前后这样表示方向的术语,但这些方向表示后述的图8所示的用户的直立姿势下从用户身体的中心(例如胸口的位置)观察的方向。例如,“右”表示用户的右半身侧的方向,“左”表示用户的左半身侧的方向,“上”表示用户头侧的方向,“下”表示用户脚侧的方向。另外,“前”表示用户身体所面向的方向,“后”表示用户后背侧的方向。
[0055] 如图1~图3所示,本实施方式的佩戴单元可以为绕用户颈部佩戴的颈部悬挂型。佩戴单元可以与用户颈部紧贴地佩戴,也可以分离地佩戴。作为颈部悬挂型的佩戴单元的其他形状,例如可以考虑利用颈下束带佩戴于用户的垂饰型、代替悬挂于头的头带而具有通过颈部后侧的颈带的头带式耳机型。
[0056] 佩戴型单元的使用方式可以为直接佩戴于人体地使用的方式。直接佩戴地使用的方式是指以在佩戴型单元与人体之间不存在任何物体的状态进行使用的方式。例如,图1~图3所示的佩戴单元以与用户的颈部的肌肤接触的方式进行佩戴的情况属于本方式。除此之外,可以考虑直接佩戴于头部的头带式耳机型、眼镜型等多种方式。
[0057] 佩戴型单元的使用方式也可以为间接佩戴于人体地进行使用的方式。间接佩戴地进行使用的方式是指以在佩戴型单元与人体之间存在某种物体的状态进行使用的方式。例如,图1~图3所示的佩戴单元以隐藏于衬衫的衣领下方的方式进行佩戴等以从衣服上方与用户接触的方式进行佩戴的情况属于本方式。除此之外,可以考虑利用颈下束带佩戴于用户的垂饰型、利用扣件等扣住衣服的饰针型等多种方式。
[0058] 如图1~图3所示,佩戴单元具有多个声音取得部110(110A、110B、110C以及110D)。声音取得部110取得用户声音、用户的谈话对象发出的声音、或者周围环境声等声音数据。
由声音取得部110取得的声音数据成为使用户声音鲜明、使用户的谈话对象发出的声音鲜明、抑制其他杂音的波束成形处理的对象。如图1~图3所示,在声音取得部以不与用户直接接触的方式设置于未面向用户侧的部分(例如,与接触于用户的面相反的一侧的面)的情况下,能够降低由于颈部与佩戴单元之间的摩擦而产生杂音的影响。应予说明,在图1~图3中示出了在佩戴单元设置有四个声音取得部110的结构,但本技术并不限定于上述例子。例如,佩戴单元可以具有至少三个声音取得部,也可以具有五个以上声音取得部。
[0059] 本实施方式的声音处理系统1可以作为佩戴单元单体而实现,也可以作为多个装置的组合而实现。例如,声音处理系统1可以作为图1~图3所示的颈部悬挂型的佩戴单元以及佩戴于手腕的腕带型的佩戴单元的组合而实现。而且,声音处理系统1也可以使用由设置于多个装置的多个声音取得部取得的声音数据来进行波束成形处理。应予说明,以下,对声音处理系统1为作为图1~图3所示的佩戴单元单体而实现的情况进行说明。
[0060] 佩戴单元的其他例子如图4以及图5所示。图4以及图5是表示本实施方式的声音处理系统的外观结构的其他一个例子的图。图4表示由 眼镜型的佩戴单元单体构成的声音处理系统1的外观结构。图5表示由颈带型的佩戴单元单体构成的声音处理系统1的外观结构。在图4以及图5所示的例子中,与图1~图3所示的例子同样,声音处理系统1也具有多个声音取得部110(110A、110B、110C以及110D)。
[0061] 此处,参照图6A和图6B对比较例进行说明。图6A和图6B是表示比较例的声音处理系统的外观结构的例子的图。图6A以及图6B表示所谓的蓝牙(注册商标)头带式耳机的外观结构例。在图6A所示的例子中,比较例的声音处理系统具有两个声音取得部910(910A以及910B),并通过悬挂于用户右耳而佩戴于用户。在图6B所示的例子中,比较例的声音处理系统具有左右对称地设置于与左右耳机连结的线缆的两个声音取得部910(910C以及910D)。
这样,在图6A以及图6B所示的例子中,均具有两个声音取得部。
[0062] 此处,在可穿戴设备中,存在使用时麦克风与用户的嘴部的距离较远的情况,有时用户声音淹没于杂音。即便进行使用了由比较例那样的两个声音取得部取得的声音数据的波束成形处理,也难以解决这种问题。
[0063] 因此,在本实施方式中,提出在通过波束成形处理进行杂音抑制的情况下提高杂音抑制性能的声音取得部110的配置。
[0064] <2.声音取得部的配置>
[0065] [2-1.配置方针]
[0066] 首先,参照图7A~图10对声音取得部110的配置方针进行说明。
[0067] 图7A和图7B是用于对本实施方式的声音取得部110的配置方针进行说明的图。如图7A所示,将相对于目标声音到来的方向210直线地配置声音取得部110作为第1配置方针。另外,如图7A所示,将相对于欲抑制的杂音到来的方向220直线地配置声音取得部110作为第2配置方针。在本实施方式中,能够相对于作为目标声音的用户声音到来的方向亦即用户的嘴部的方向210,直线地配置声音取得部110A以及110B。根据第1第2配置方针以及第2配置方针,能够高效地抑制从相反方向220到来的杂音成分。其原因在于:从用户的嘴部的方向210到 来的用户声音到达声音取得部110A以及110B为止的相位差(时间差)较大,并且从相反方向220到来的声音到达声音取得部110B以及110A为止的相位差也较大。如图7B所示的极性图案所示,通过基于后述的控制部160进行的波束成形处理,来增强从用户的嘴部的方向210到来的用户声音,并且抑制从相反方向220A、220B以及220C到来的杂音成分。
[0068] 接下来,参照图8,对与欲抑制的杂音到来的方向有关的声音取得部110的配置方针详细地进行说明。
[0069] 图8是用于对本实施方式的声音取得部110的配置方针进行说明的图。如图8所示,在本实施方式中,将相对于下方向直线地配置声音取得部110A以及110B作为第3配置方针。若假定在屋外使用声音处理系统1,则在屋外产生的杂音多如图8所示地以用户的嘴部为基准从地面的方向(下方向)或者平方向到来。应予说明,从地面的方向到来的杂音也称为地面噪声。根据本配置方针,由于相对于地面噪声到来的下方向直线地配置有声音取得部
110,所以能够通过波束成形处理高效地抑制地面噪声。另外,根据本配置方针,从下方向与水平方向的中间倾斜方向到来的杂音也存在到达声音取得部110B以及110A为止的相位差,因此能够通过波束成形处理抑制杂音。这样,根据本配置方针,能够高效地抑制屋外环境中的杂音。应予说明,对于直升机的螺旋桨声音、来自设置于头上的液晶显示器的声音等,也会存在难以进行抑制的情况。当然,根据佩戴单元的形状,声音取得部110A以及110B也可以不严格地向下方向(竖直方向)直线地进行配置,也可以倾斜地进行配置。
[0070] 接下来,参照图9A、图9B以及图10,对设置有四个以上声音取得部110的情况下的配置方针详细地进行说明。
[0071] 图9A和图9B是用于对本实施方式的声音取得部110的配置方针进行说明的图。如图9A所示,在本实施方式中,将立体地配置多个声音取得部110作为第4配置方针。详细而言,将设置有四个声音取得部110的位置彼此连结而形成的形状为立体。应予说明,立体也可以把握为在包含任意三个声音取得部110的位置在内的平面上不存在剩余一个声音取得部110。在这样立体地进行配置的情况下,无论是从哪一方向到来的声音,由任意两个以上的声音取得部110取得的声音数据均会产生相 位差,因此能够抑制从全部方向到来的杂音。另外,如图9B所示,将设置有四个声音取得部110的位置彼此连结而形成的形状为正四面体。将设置有多个声音取得部110的位置彼此连结而形成的形状优选为从各声音取得部110至用户的嘴部的距离形等间隔的正四面体之类的正多面体。当然,如图9B所示,根据佩戴单元的形状,将设置有四个声音取得部110的位置连结而形成的形状也可以是不为正四面体的四面体。
[0072] 图10是用于对本实施方式的声音取得部110的配置方针进行说明的图。如图10所示,在本实施方式中,将使至少其中一个声音取得部110靠近用户的嘴部作为第5配置方针。根据本配置方针,至少一个声音取得部110能够以比其他杂音大的音量取得用户声音。由此,能够进一步增大基于波束成形处理的对用户声音的增强效果。例如图10所示,可以在比形成四面体的四个声音取得部110靠近用户的嘴部的位置设置有第五个声音取得部110E。
除此之外,也可以例如图9B所示,将位于四面体顶点的声音取得部110中的其中一个(在图
9B所示的例子中为声音取得部110A)设置于相比其他声音取得部靠近用户的嘴部的位置。
[0073] 以上,对声音取得部110的配置方针进行了说明。
[0074] [2-2.实际的配置例]
[0075] 接着,再次一边参照图1~图3,一边对遵照了上述配置方针的声音取得部110的实际的配置例进行说明。应予说明,由于佩戴单元的形状、各部件的重量等制约条件,声音取得部110的实际的配置也可以不必完全遵照上述配置方针。
[0076] 首先,对第1配置方针进行说明。如图2所示,在佩戴单元佩戴于用户的状态下,声音取得部110A以及声音取得部110B在从用户的嘴部观察时配置于相同方向。另外,在佩戴单元佩戴于用户的状态下,将四个声音取得部110所包含的声音取得部110A(第1声音取得部)与用户的嘴部的距离、与四个声音取得部110所包含的声音取得部110B(第2声音取得部)与用户的嘴部的距离设置为不同。这样,在图1~图3所示的例子中,由于相对于目标声音到来的用户的嘴部的方向直线地配置有声音取得部110A以及110B,所以能够通过波束成形处理高效地增强用户声音。
[0077] 接下来,对第2配置方针以及第3配置方针进行说明。如图2所示,在佩戴单元佩戴于用户的状态下,声音取得部110A以及声音取得部110B在从用户的嘴部观察时配置于相同方向。另外,在佩戴单元佩戴于用户的状态下,声音取得部110A(第1声音取得部)以及声音取得部110B(第2声音取得部)设置于用户直立姿势下相比用户的嘴部靠脚侧的位置。这样,在图1~图3所示的例子中,由于相对于欲抑制的杂音所到来的地面方向直线地配置有声音取得部110A以及110B,所以能够通过波束成形处理高效地抑制杂音。
[0078] 接下来,对第4配置方针进行说明。如图1~图3所示,将设置有声音取得部110A、110B、110C、以及110D的位置彼此连结而形成的形状为立体。这样,在图1~图3所示的例子中,由于将多个声音取得部110立体地配置,所以能够通过波束成形处理抑制从全部方向到来的杂音。
[0079] 接下来,对第5配置方针进行说明。如图1~图3所示,在佩戴单元佩戴于用户的状态下,声音取得部110A(第1声音取得部)设置于比其他声音取得部最靠近用户的嘴部的位置。这样,在图1~图3所示的例子中,由于声音取得部110A设置于靠近用户嘴部的位置,所以能够以比其他杂音大的音量取得用户声音。另外,对于第2以及第3配置条件而言,在佩戴单元佩戴于用户的状态下,声音取得部110B(第2声音取得部)设置于用户直立姿势下相比设置于最靠近用户的嘴部位置的声音取得部110A(第1声音取得部)靠用户脚侧的位置。由此,在图1~图3所示的例子中,能够兼顾用户声音的增强效果与杂音的抑制效果。应予说明,在图1~图3所示的例子中,声音取得部110A也设置于相比用户嘴部靠下侧的位置,但声音取得部110A也可以设置于相比嘴部更靠上侧的位置。
[0080] 以上,对本实施方式的声音处理系统1中的声音取得部110的配置进行了说明。接着,参照图11对本实施方式的声音处理系统1的内部结构进行说明。
[0081] <3.内部结构>
[0082] 图11是表示本实施方式的声音处理系统1的内部结构的一个例子的 框图。如图11所示,声音处理系统1具有声音取得部110A~110D、拍摄部120、操作部130、传感器部140、通信部150、以及控制部160。
[0083] (1)声音取得部110
[0084] 声音取得部110具有取得用于波束成形的声音数据的功能。例如,声音取得部110取得佩戴有声音处理系统1(佩戴单元)的用户所产生的用户声音、或者周围的声音。例如,声音取得部110由麦克风实现。声音取得部110可以设置于一个佩戴单元,可以设置于与佩戴单元不同的装置,也可以分散地设置于多个装置。例如,除了图1~图3所示的颈部悬挂型的佩戴单元之外,也可以在腕带型的佩戴单元、眼镜型的佩戴单元、以及智能手机设置声音取得部110。
[0085] 声音取得部110也可以不为有指向性的麦克风。例如,声音取得部110也可以为在全方位具有灵敏度的麦克风。在全方位具有灵敏度是指极性图案中不存在不灵敏的区域(方位)。这种麦克风也可以称为半指向性的麦克风。并且,声音取得部110也可以为灵敏度在全方位一样或者大致一样的麦克风。灵敏度在全方位一样或者大致一样是指极性图案中灵敏度可以为圆形,但未必一定为完全圆形。换句话说,声音取得部110也可以为无指向性的麦克风。
[0086] 声音取得部110也可以具有对由麦克风获得的声音信号进行放大处理的麦克风放大电路、A/D转换器。声音取得部110将所取得的声音数据向控制部160输出。
[0087] (2)拍摄部120
[0088] 拍摄部120具有:由拍摄透镜、光阑、变焦透镜、以及聚焦透镜等构成的透镜系统;相对于透镜系统进行聚焦动作、变焦动作的驱动系统;以及对由透镜系统获得的拍摄光进行光电转换而生成拍摄信号的固态拍摄元件陈列等。固态拍摄元件陈列例如可以由电耦合元件(CCD:Charge Coupled Device)传感器陈列、互补金属化物半导体(CMOS:
Complementary Metal Oxide Semiconductor)传感器陈列实现。例如,拍摄部120可以被设置为在声音处理系统1(佩戴单元)佩戴于用户的状态下能够拍摄用户的前方。在该情况下,拍摄部120例如能够拍摄用 户的谈话对象。另外,拍摄部120也可以被设置为在声音处理系统1佩戴于用户的状态下拍摄用户的面孔。在该情况下,声音处理系统1能够根据拍摄图像来确定用户嘴部的位置。拍摄部120将作为数字信号的拍摄图像的数据向控制部160输出。
[0089] (3)操作部130
[0090] 操作部130被用户操作,具有接受来自用户的输入的功能。例如,操作部130可以作为照相机按钮而实现,接受指示拍摄部120拍摄静止图像的输入、指示拍摄部120开始或者停止拍摄动态图像的输入。另外,操作部130也可以作为声音输入按钮而实现,接受指示声音取得部110开始或者停止声音输入的输入。另外,操作部130也可以作为触摸滑而实现,接受触摸操作、滑动操作。另外,操作部130也可以作为电源按钮而实现,接受指示声音处理系统1开启或者关闭电源的操作。操作部130将表示用户输入的信息向控制部160输出。
[0091] (4)传感器部140
[0092] 传感器部140具有对佩戴有声音处理系统1的用户的状态或者周围的状态进行感测的功能。例如,传感器部140可以具有加速度传感器、速度传感器、陀螺仪传感器、地磁传感器、全球定位系统(GPS:Global Positioning System)模块或者振动传感器中的至少一个。传感器部140可以设置于与佩戴单元不同的装置,也可以分散地设置于多个装置。例如,也可以在腕带型的装置设置脉搏传感器,在智能手机设置振动传感器。传感器部140将表示感测结果的信息向控制部160输出。
[0093] (5)通信部150
[0094] 通信部150是用于通过有线/无线在声音处理系统1与其他装置之间进行数据收发的通信模块。通信部150例如通过有线局域网(LAN:Local Area Network)、无线局域网、无线网(Wi-Fi:Wireless Fidelity、注册商标)、红外线通信、蓝牙、近距离无线通讯技术(NFC:Near field communication)等方式与外部设备直接或者经由网络接入点进行无线通信。
[0095] 例如,在智能手机或者服务器等其他装置包含后述的作为控制部 160的功能的情况下,通信部150可以发送利用声音取得部110、拍摄部120、操作部130、传感器部140取得的数据。在该情况下,利用其他装置进行波束成形处理、声音识别处理等。除此之外,例如在声音取得部110、拍摄部120、操作部130或者传感器部140设置于其他位置的装置的情况下,通信部150也可以接收由上述各部取得的数据并将其向控制部160输出。另外,通信部150也可以将基于控制部160进行的波束成形处理后的声音数据向用于存储该声音数据的存储装置发送。
[0096] (6)控制部160
[0097] 控制部160作为运算处理装置以及控制装置发挥功能,并根据各种程序控制声音处理系统1内的全部动作。控制部160例如由中央处理器(CPU:Central Processing Unit)、微处理器电子电路实现。应予说明,控制部160也可以包括存储所使用的程序、运算参数等的只读存储器(ROM:Read Only Memory)、以及临时存储适当变化的参数等的RAM(Random Access Memory)。
[0098] 例如,控制部160使用由声音取得部110取得的多个声音数据,来进行形成用于取得来自用户嘴部的方向的声音的指向性的波束成形处理。波束成形处理是按照声音到来的各个区域分别使增强的程度变化的处理。具体而言,控制部160所进行的波束成形处理可以包括抑制从特定的区域到来的声音的处理,也可以包括增强来自所希望的方位的声音的处理。例如,控制部160也可以将来自用户嘴部的方向以外的方向的声音作为杂音进行抑制。另外,控制部160也可以增强来自用户嘴部的方向的声音。如上所述,声音取得部110本身也可以具有指向性。控制部160通过进行以由各声音取得部110取得的声音数据为对象的波束成形处理,来控制指向性。控制部160能够使用由各声音取得部110取得的声音数据间的相位差,来进行波束成形处理。
[0099] 控制部160能够以多种视角控制波束成形处理。例如,控制部160能够以作为一个例子在以下进行说明的视角,来控制形成指向性的方向以及/或者范围。
[0100] 例如,控制部160也可以基于杂音产生源与声音取得部110的位置关系来控制波束成形处理。例如上述那样,由于地面噪声的产生源为地 面,所以控制部160也可以以抑制来自地面方向的声音的方式,控制波束成形处理。另外,例如在能够根据位置信息辨别出在特定方向存在交通量多的道路、线路等的情况下,控制部160也可以以抑制来自该方向的声音的方式,控制波束成形处理。除此之外,例如在存在指定杂音产生源的位置的用户指示的情况下,控制部160也可以以抑制来自用户指示所表示的位置的声音的方式,控制波束成形处理。
[0101] 例如,控制部160也可以基于用户以外的说话人的位置来控制波束成形处理。例如,控制部160也可以进行增强来自用户以外的其他说话人的声音的波束成形处理。另外,控制部160也可以进行抑制来自用户以外的其他说话人的声音的波束成形处理。可以考虑多种确定用户以外的其他说话人的存在或者位置(方向)的方法。例如,控制部160也可以形成为若在从用户以外的方向取得了说话声的情况下判定为存在其他说话人则对方向进行确定。另外,控制部160也可以在通过声音识别而识别出取得了其他说话人的说话声的情况下判定为存在其他说话人。另外,控制部160也可以根据由拍摄部120拍摄出的拍摄图像的图像识别结果来确定其他说话人的存在以及位置。另外,控制部160也可以通过对由传感器部140所具有的全球定位系统模块取得的用户的位置信息、与其他说话人的位置信息进行比较,来确定其他说话人的存在以及位置。另外,控制部160也可以通过对从其他说话人所持的装置发出的电波的电波强度(例如,无线网的电波强度)进行测定,来确定其他说话人的存在以及位置。
[0102] 例如,控制部160也可以基于表示用户状态的信息来控制波束成形处理。用户状态例如可以指用户跑、走、或者乘坐交通工具等运动状态。例如,控制部160能够根据由传感器部140取得的感测结果来推断用户的运动状态。控制部160也可以通过组合多个感测结果来推断详细的运动状态。例如,控制部160也可以通过组合基于振动传感器以及速度传感器的感测结果而将振动等级以及速度比步行时大的情况推断为乘坐汽车。除此之外,控制部160也可以将与乘坐汽车的情况相比振动等级小且速度大的情况判断为乘坐汽车。而且,控制部160也可以根据所推断的用户的运动状态,来放大或者缩小所形成的指向性的范围。例如,控制部160也可以在运动状态所表示的运动的强度(例如,从各传感器输出的数值)相对较大的情况下相比较小的情况,放大指向性的范围。 应予说明,放大或者缩小指向性的范围这也可以把握为针对到来的声音放大或者缩小表示规定值以上的灵敏度的区域范围。除此之外,用户的状态也可以指用户面孔的朝向、姿势等用户姿势。例如,控制部160也可以根据由拍摄部120拍摄出的拍摄图像的图像识别结果等来推断用户面孔的朝向,并根据朝向控制指向性的朝向。在该情况下,在面孔的朝向改变,从而用户嘴部与声音取得部110的位置关系发生变化的情况下,控制部160能够以鲜明地取得从用户嘴部产生的声音的方式控制指向性。
[0103] 另外,控制部160也可以进行与基于进行了波束成形处理的声音数据而执行的声音识别的结果对应的处理。声音识别处理可以利用控制部160执行,也可以利用云服务器等其他装置执行。例如,控制部160也可以基于声音识别的结果来控制声音处理系统1的动作。具体而言,控制部160也可以基于声音识别的结果来控制波束成形处理的指向性。由此,用户例如能够以使指向性朝向欲记录的声音的方向的方式利用声音进行指示。除此之外,控制部160也可以基于声音识别的结果使照相机的拍摄开始或者停止、记录特定的感测结果。
由此,用户例如能够以记录欲记录的风景、运动状态的方式利用声音进行指示。
[0104] 应予说明,控制部160例如能够作为移动处理器而实现。如上所述,佩戴单元可以具有控制部160,智能手机或者云服务器等其他任意装置也可以具有控制部160。
[0105] (7)其他
[0106] 除此之外,声音处理系统1可以具有多种构成要素。例如,声音处理系统1也可以具有电池。如图1~图3所示,由于佩戴单元可以具有弯曲的形状,所以电池优选为曲面状的曲面电池。另外,声音处理系统1也可以具有能够连接用于对电池充电的线缆的充电连接器。充电连接器也可以为兼具作为能够连接通信线缆的通信连接器的功能的充电通信连接器。
另外,声音处理系统1也可以具有作为针对用户的输出装置发挥功能的振荡器。另外,声音处理系统1也可以具有作为针对用户的输出装置发挥功能的扬声器。另外,声音处理系统1也可以具有能够连接作为针对用户的输出装置发挥功能的耳机的耳机连接器。耳机连接器可以具有磁,也可以能够通过磁力对耳机连接器与耳机进行拆装。另外, 声音处理系统1也可以具有用于对基于控制部160进行的波束成形处理后的声音数据进行存储的存储部。
[0107] 以上,对本实施方式的声音处理系统1的内部结构进行了说明。接着,参照图12对本实施方式的声音处理系统1的动作处理进行说明。
[0108] <4.动作处理>
[0109] 图12是表示本实施方式的声音处理系统1中执行的声音信号处理的流程的一个例子的流程图。
[0110] 如图12所示,首先,在步骤S102中,声音处理系统1取得声音数据。例如,声音取得部110A、110B、110C以及110D分别取得声音数据并将其向控制部160输出。
[0111] 接下来,在步骤S104中,声音处理系统1取得表示声源与声音取得部110的位置关系的信息。声源可以为杂音产生源,可以为用户声音的产生源亦即用户的嘴部,也可以为用户以外的说话人。控制部160取得表示上述声源与声音取得部110的位置关系、详细而言从声音取得部110观察的方向的信息。作为这种信息,可举出由声音取得部110取得的声音的声音识别结果、由拍摄部120拍摄出的拍摄图像的图像识别结果、由操作部130取得的表示用户输入的信息、基于传感器部140的感测结果、利用通信部150从其他装置取得的信息等。
[0112] 接下来,在步骤S106中,声音处理系统1取得表示用户状态的信息。例如,控制部160取得表示用户的运动状态或者用户的姿势的信息。作为这种信息,可举出由声音取得部
110取得的声音的声音识别结果、由拍摄部120拍摄出的拍摄图像的图像识别结果、由操作部130取得的表示用户输入的信息、基于传感器部140的感测结果、利用通信部150从其他装置取得的信息等。
[0113] 而且,在步骤S108中,声音处理系统1进行波束成形处理。例如,控制部160进行使用上述步骤S102中取得的多个声音数据来形成用于取得来自用户嘴部的方向的声音的指向性的波束成形处理。此时,控制部160也可以基于杂音产生源与声音取得部110的位置关系而以抑制杂音的方式控制波束成形处理。另外,控制部160也可以进行基于用户以 外的说话人的位置来增强或者抑制来自用户以外的其他说话人的声音的波束成形处理。另外,控制部160也可以根据用户状态来控制形成指向性的方向以及/或者范围。
[0114] 之后,在步骤S110中,声音处理系统1进行声音识别处理。例如,控制部160基于进行了波束成形处理的声音数据来执行声音识别处理。而且,控制部160也可以根据声音识别结果来控制声音处理系统1的动作。
[0115] 以上,对声音处理系统1中执行的声音信号处理的流程的一个例子进行了说明。
[0116] <5.总结>
[0117] 以上,参照图1~图12对本公开的一个实施方式详细地进行了说明。如上述说明那样,本实施方式的声音处理系统1在佩戴单元具有至少三个声音取得部。由此,声音处理系统1能够取得适于进行使用户声音更鲜明的波束成形处理的声音数据。
[0118] 以上,一边参照附图,一边对本公开的优选实施方式详细地进行了说明,但本公开内容的技术范围并不限定于上述例子。了解到只要是具有本公开内容的技术领域中的通常知识的人,显而易见能够在权利要求所记载的技术思想的范畴内想到各种变更例或者修正例,这当然属于本公开的技术范围。
[0119] 应予说明,本说明书中说明的基于各装置进行的一系列处理可以使用软件硬件以及软件与硬件的组合中的任一方式来实现。构成软件的程序例如预先储存于设置于各装置的内部或者外部的存储介质(非暂时性介质:non-transitory media)。而且,各程序例如在计算机执行时被读入内存,并利用中央处理器等处理器来执行。
[0120] 另外,在本说明书中使用流程图以及序列图进行了说明的处理可以不必以图示的顺序来执行。几个处理步骤可以并列地执行。另外,可以采用追加的处理步骤,也可以省略一部分的处理步骤。
[0121] 另外,本说明书所记载的效果只不过是说明或者例示而并不限定。 换句话说,本公开内容的技术可以与上述效果一起、或者代替上述效果发挥本领域技术人员从本说明书的记载中明确出的其他效果。
[0122] 应予说明,如下结构也属于本公开内容的技术范围。
[0123] (1)一种声音处理系统,具备佩戴于用户的佩戴部,上述佩戴部具有至少三个声音取得部,上述声音取得部取得用于波束成形的声音数据。
[0124] (2)根据上述(1)所记载的声音处理系统,上述佩戴部具有至少四个上述声音取得部,将设置有四个上述声音取得部的位置彼此连结而形成的形状是立体的。
[0125] (3)根据上述(1)或(2)所记载的声音处理系统,在上述佩戴部佩戴于上述用户的状态下,上述四个声音取得部所包含的第1声音取得部与上述用户的嘴部的距离、与上述四个声音取得部所包含的第2声音取得部与上述用户的嘴部的距离被设置为不同的距离。
[0126] (4)根据上述(3)所记载的声音处理系统,在上述佩戴部佩戴于上述用户的状态下,上述第1声音取得部设置于相比其他上述声音取得部最靠近上述用户的嘴部的位置,上述第2声音取得部设置于上述用户在直立姿势下相比上述第1声音取得部靠上述用户的脚侧的位置。
[0127] (5)根据上述(3)或(4)所记载的声音处理系统,上述第1声音取得部以及上述第2声音取得部设置于上述用户在直立姿势下相比上述用户的嘴部靠脚侧的位置。
[0128] (6)根据上述(2)~(5)中的任一项所记载的声音处理系统,上述声音取得部是在全方位具有灵敏度的麦克风。
[0129] (7)根据上述(6)所记载的声音处理系统,上述声音取得部是灵敏度在全方位一样或者大致一样的麦克风。
[0130] (8)根据上述(2)~(7)中任一项所记载的声音处理系统,上述声音处理系统还具备控制部,上述控制部使用由上述声音取得部取得的多个声音数据来进行波束成形处理,上述波束成形处理形成用于取得来自上述用户的嘴部的方向的声音的指向性。
[0131] (9)根据上述(8)所记载的声音处理系统,上述波束成形处理是按声音到来的各个区域分别使增强程度发生变化的处理。
[0132] (10)根据上述(9)所记载的声音处理系统,上述波束成形处理包括抑制从特定区域到来的声音的处理。
[0133] (11)根据上述(8)~(10)中任一项所记载的声音处理系统,上述控制部基于杂音产生源与上述声音取得部之间的位置关系来控制上述波束成形处理。
[0134] (12)根据上述(8)~(11)中任一项所记载的声音处理系统,上述控制部基于上述用户以外的说话人的位置来控制上述波束成形处理。
[0135] (13)根据上述(8)~(12)中任一项所记载的声音处理系统,上述控制部基于表示上述用户的状态的信息来控制上述波束成形处理。
[0136] (14)根据上述(8)~(13)中任一项所记载的声音处理系统,上述控制部进行与声音识别的结果对应的处理,上述声音识别的结果是基于进行了上述波束成形处理的声音数据而执行得到的。
[0137] (15)根据上述(14)所记载的声音处理系统,上述控制部基于上述声音识别的结果来控制上述声音处理系统的动作。
[0138] (16)根据上述(15)所记载的声音处理系统,上述控制部基于上述声音识别的结果来控制上述指向性。
[0139] (17)根据上述(8)~(16)中的任一项所记载的声音处理系统,上述佩戴部具有上述控制部。
[0140] (18)根据上述(2)~(17)中的任一项所记载的声音处理系统,上述佩戴部以绕上述用户的颈部佩戴。
QQ群二维码
意见反馈