序号 专利名 申请号 申请日 公开(公告)号 公开(公告)日 发明人
81 一种降低移动终端通话功耗的方法及移动终端 CN201110122338.0 2011-05-12 CN102781075A 2012-11-14 蔡晓光; 占明
发明公开了一种降低移动终端通话功耗的方法及移动终端,所述方法包括:在语音通话过程中,移动终端对本身采集到的音频信号进行声纹建模,判断得到的声纹模型与已存储的用户声纹模型是否匹配;若不匹配,则放弃对所采集的所述音频信号进行无线发射或者放弃对所采集的所述音频信号进行基带和射频处理及无线发射,若匹配,则对所述音频信号进行基带和射频处理及无线发射。所述移动终端的基带射频处理模包括声纹处理子模块和音频信号控制处理子模块,用于实现上述方法,这种方法及移动终端降低了移动终端语音通话的功耗,减少了无效数据的发送,从而减轻了系统的负载,提高了系统资源的有效利用率,降低了基带和射频的功率消耗。
82 对声音模式加了标签的联系人 CN201080046312.6 2010-09-14 CN102576530A 2012-07-11 K·萨姆
一种将声音模式与联系人记录相关联和/或使用移动电话(10)来识别讲话者的方法和系统。移动设备(10)可以包括声音识别应用,其用于从音频数据提取声音模式,并且将该声音模式与联系人记录相关联,该联系人记录包括例如人的姓名的身份信息。设备(10)还可用来识别讲话者。设备(10)获取讲话者的音频数据;声音识别应用从音频数据中提取声音模式,并且将声音模式和与存储在联系人目录中的联系人记录相关联的声音模式进行比较。声音识别应用识别具有和来自音频数据的声音模式相匹配的声音模式的联系人记录,并且驱动该设备(10)来显示具有匹配声音模式的联系人记录的身份信息。
83 声音识别装置 CN200980156033.2 2009-10-08 CN102301419A 2011-12-28 山崎道弘; 石井纯; 坂下博纪; 野木和行
发明提供一种声音识别装置,包括:声音输入部(11),该声音输入部(11)输入多次发声的声音;登记声音数据存储部(12),该登记声音数据存储部(12)对声音输入部(11)输入的多次发声的声音数据进行存储;发声稳定性检验部(13),该发声稳定性检验部(13)求出从登记声音数据存储部(12)读取的多次发声的声音数据之间的相似度,在相似度大于阈值T1的情况下,判定声音数据能够登记;以及标准模式生成部(14),该标准模式生成部(14)使用由发声稳定性检验部(13)判定为能够登记的声音数据来生成标准模式。
84 用于评估声音间相似度的方法和设备 CN200710088085.3 2007-03-26 CN101042870B 2010-12-29 东山三树夫; 风间道子; 后藤理; 川原毅彦; 吉冈靖雄
发明提供了一种用于评估声音间相似度的方法和设备,该相似度评估方法由两个处理来执行。在第一处理中,从输入声音的谱数据来生成波段间相关矩阵,从而将谱数据分割成沿频率轴彼此以间隔分开的多个离散波段,从所述多个离散波段中获得谱数据的多个包络成分,并且所述波段间相关矩阵的元素是输入声音的各个包络成分间的相关值。在第二处理中通过使用由所述波段间相关矩阵生成处理针对一对要互相比较的输入声音而获得的各自的波段间相关矩阵来对这对输入声音间的相似度进行计算。
85 说话人模板的压缩、合并装置和方法,以及说话人认证 CN200510115300.5 2005-11-11 CN1963918A 2007-05-16 栾剑; 郝杰
发明提供了说话人模板的压缩方法和装置、将多个说话人模板合并的方法和装置、说话人认证的注册方法和装置、说话人认证的验证方法和装置、以及说话人认证系统。该说话人模板包含多个特征向量。本发明的说话人模板的压缩方法包括:根据一个码本,为说话人模板中的每个上述特征向量指定一个码字,其中上述码本包含多个码字以及每个码字对应的特征向量;以及将上述说话人模板中相邻且被指定的码字相同的多个特征向量用一个特征向量代替。
86 评价语音的分辨、说话人认证的注册和验证方法及装置 CN200510114901.4 2005-11-11 CN1963917A 2007-05-16 栾剑; 郝杰
发明提供了说话人认证的注册方法和装置、说话人认证的验证方法和装置、评价语音的分辨的方法、以及说话人认证系统。本发明的说话人认证的注册方法包括:输入说话人说出的包含密码的语音;根据上述输入的语音,获得音素序列;根据音素分辨力表,评价该音素序列的分辨力,其中,上述音素分辨力表包含每个音素的分辨力;为该语音设定分辨阈值;以及为该语音生成语音模板。
87 用于确定是否接受登记对象的系统、方法以及计算机程序产品 CN200510134191.1 2005-12-27 CN1841402A 2006-10-04 普拉布哈·森达拉姆
发明提供了一种用于确定是否接受在生物测定系统中登记对象的系统、方法以及计算机程序产品的实施例。根据一个实施例,可以根据从对象中获得的生物测定输入的第一实例中提取的特征向量来生成模板。把从生物测定输入的第二实例中提取的特征向量与所述模板进行比较,以便基于所述生物测定输入的第一和第二实例之间的相似度来生成匹配得分。如果匹配得分符合阈值标准,则可以接受向生物测定系统中进行登记的所述对象。
88 VIRTUAL VOICEPRINT SYSTEM AND METHOD FOR GENERATING VOICEPRINTS PCT/US2004041284 2004-12-08 WO2005059892A2 2005-06-30 TEUNEN REMCO; KAUSHANSKY KAREN
A system and method for generating on-demand voiceprints are presented wherein voiceprints are created on the fly using voice recordings and associated metadata specified by an application. The application requests a voiceprint and specifies a description of the data necessary to generate the voiceprint, including the appropriate voice recordings, the requisite verification engine and other parameters that should be utilized to generate the voiceprint. The specified voice recordings are accessed from storage and a voiceprint is produced using the designated speech engine and application-specified parameters.
89 TRAINING CLASSIFIERS USING SELECTED COHORT SAMPLE SUBSETS PCT/PL2014050017 2014-03-28 WO2015147662A8 2016-10-06 BOCKLET TOBIAS; MAREK ADAM
Various systems, apparatuses, and methods for training classifiers using selected cohort sample subsets are disclosed herein. In an example, a set of target supervectors, representing a target class, is received, and a set of cohort supervectors, representing a cohort class, is received. A distance metric is calculated from a respective cohort supervector to a respective target supervector, and a proper subset of cohort supervectors are selected based on the calculated distance metrics. The set of target supervectors and the selected proper subset of cohort supervectors are used to train a classifier. Further examples described herein describe how training classifiers using selected cohort sample subsets may be used to increase performance and decrease resource consumption in voice biometric systems.
90 METHOD OF MULTIPLE ALGORITHM PROCESSING OF BIOMETRIC DATA PCT/US0326091 2003-08-20 WO2004019164A3 2004-04-08 THIEME MICHAEL; NANAVATI SAMIR; NANAVATI RAKJUMAR; MAK MACKEN
A method performs processing of biometric information to create multiple templates. This allows biometric systems to be flexible and interact with a plurality of vendors' technologies. Specifically, a biometric sample (101) is captured from a sensor (100) and transmitted to a processing component (107). The biometric sample is then processed by a first algorithm to yield a biometric template (108) and the template (108) is stored and associated with a record identifier. The biometric sample is also processed by a second algorithm to yield a second template (112). The second template (112) is stored and associated with the record identifier.
91 音声データを処理するための方法及び装置 JP2017109505 2017-06-01 JP6429945B2 2018-11-28 イェ ツァン; ポン イーユィ
92 話者識別装置、話者識別方法、および話者識別用プログラム JP2014557410 2014-01-16 JP6424628B2 2018-11-21 谷 真宏; 越仲 孝文; 大西 祥史; 澤田 茂
93 声紋に基づく身分確認方法及び装置 JP2018000918 2018-01-09 JP2018112740A 2018-07-19 シ・ズチアン; リィウ・リィウ; リィウ・ルゥジエ
【課題】本発明は、声紋に基づく身分確認方法及び装置を提供する。
【解決手段】声紋に基づく身分確認方法は、未知語音を受信し;予めトレーニングされたニューラルネットワークに基づく声紋抽出器を用いて、前記未知語音中の声紋を抽出し;抽出された声紋と、予め記憶された声紋とを繋ぎ合わせて、繋ぎ合わせられた声紋を取得し;及び、予めトレーニングされた分類モデルを用いて、繋ぎ合わせられた声紋に対して判断を行い、抽出された声紋及び予め記憶された声紋が同じ人からのものであるかを確認することを含む。
【選択図】図1
94 話者検証のためのニューラルネットワーク JP2017556908 2016-07-27 JP2018517927A 2018-07-05 ゲオルク・ハイゴルト; サミー・ベンジオ; イグナシオ・ロペス・モレーノ
本明細書は一般に、(i)話者検証モデルに対するニューラルネットワークをトレーニングするステップと、(ii)クライアントデバイスでユーザを加入させるステップと、(iii)ユーザのアイデンティティを前記ユーザの音声の特性に基づいて検証するステップとを含む、話者検証に関連するシステム、方法、デバイス、および他の技術を説明する。幾つかの実装はコンピュータ実行型の方法を含む。前記方法は、コンピューティングデバイスで、前記コンピューティングデバイスのユーザの発声を特徴付けるデータを受信するステップを含むことができる。話者表現を、前記コンピューティングデバイスで、前記コンピューティングデバイス上のニューラルネットワークを用いて前記発声に対して生成することができる。前記ニューラルネットワークは、それぞれが、(i)第1の発声を特徴付けるデータおよび1つまたは複数の第2の発声を特徴付けるデータを含み、(ii)マッチング話者サンプルまたは非マッチング話者サンプルとしてラベル付けされる、複数のトレーニング・サンプルに基づいてトレーニングされることができる。
95 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム JP2014183652 2014-09-09 JP6350148B2 2018-07-04 早川 昭二
96 動的に生成された句を使用するセグメントベースの話者検証 JP2016208467 2016-10-25 JP6208313B2 2017-10-04 ドミニク・ロブレック; マシュー・シャリフィ
97 音声辞書生成方法、音声辞書生成装置及び音声辞書生成プログラム JP2016048243 2016-03-11 JP2017161825A 2017-09-14 辻川 美沙貴
【課題】話者識別の精度を向上させることができる音声辞書生成方法、音声辞書生成装置及び音声辞書生成プログラムを提供する。
【解決手段】音声辞書生成方法は、複数の不特定話者の音声を取得するステップ(S1)と、所定の場所における雑音を取得するステップ(S2)と、複数の不特定話者の音声に雑音を重畳するステップ(S3)と、雑音を重畳した複数の不特定話者の音声の特徴量に基づいて、識別対象話者を識別するための個人用音声辞書を生成するために用いられる不特定話者音声辞書を生成するステップ(S4)とを含む。
【選択図】図2
98 話者識別装置および話者識別用の登録音声の特徴量登録方法 JP2016563500 2015-12-07 JPWO2016092807A1 2017-08-31 川戸 正裕; 正裕 川戸
[課題]登録音声に起因する識別誤りを抑制し、安定して正確に話者を識別すること。[解決手段]音声認識部102は、登録音声に対応するテキストデータを、抽出テキストデータとして抽出する。登録音声は、事前に設定されたテキストデータである登録対象テキストデータが登録話者により読み上げられることにより入される音声である。登録音声評価部103は、抽出テキストデータと登録対象テキストデータとの間の類似度を示すスコア(登録音声スコア)を、登録話者毎に算出する。辞書登録部104は、登録音声評価部103の評価結果に応じて、登録話者毎に登録音声の特徴量を登録するための話者識別辞書108に、登録音声の特徴量を登録する。
99 個別化されたホットワード検出モデル JP2016143155 2016-07-21 JP2017027049A 2017-02-02 ラシエル・アルバレス・ゲバラ
【課題】システム内で通知を提示するための、コンピュータ記憶媒体上に符号化されたコンピュータプログラムを備える、方法、システム、および装置。
【解決手段】一態様では、方法は、ユーザによって話される登録発話を表す登録音響データを取得するアクションと、他のユーザによって話される発話を表す候補音響データのセットを取得するアクションと、候補音響データのセットの各候補音響データについて、登録音響データと候補音響データとの間の類似性を表す類似度スコアを決定するアクションと、少なくとも類似度スコアに基づき候補音響データのセットから候補音響データのサブセットを選択するアクションと、候補音響データのサブセットに基づき検出モデルを生成するアクションと、ユーザによって話される発話を検出する際に使用するための検出モデルを提供するアクションとを含む。
【選択図】図1
100 話者識別装置、話者識別方法、および話者識別用プログラム JP2014557410 2014-01-16 JPWO2014112375A1 2017-01-19 真宏 谷; 孝文 越仲; 祥史 大西; 茂 澤田
話者識別装置は、入音声と予め記憶されている登録話者の音声との類似度を示すスコアを登録話者毎に算出する一次話者識別部1と、スコアの高さに応じて複数の登録話者を類似話者として選択する類似話者選択部2と、類似話者のうち、ある類似話者の音声を正例とし、他の類似話者の音声を負例として類似話者毎の識別器を作成する学習部3と、入力音声に対する識別器のスコアを識別器毎に算出し、識別結果を出力する二次話者識別部4とを備える。
QQ群二维码
意见反馈