序号 专利名 申请号 申请日 公开(公告)号 公开(公告)日 发明人
101 ハンズフリー・ビームパターン構成 JP2016533005 2014-09-25 JP2017500785A 2017-01-05 ジョン ジェイ ベイカー; マーティン イー ジョンソン; アフルーズ ファミリー; マイケル ビー ハウズ; クレイグ エム スタンリー; ブラッド ジー ブーザー
ユーザ/リスナの好みに基づいて1つ以上のラウドスピーカアレイにより放射される1つ以上のビームパターンを調整するオーディオシステムが説明される。オーディオシステムは、リスナ位置推定器、リスナ識別器、及び音声コマンドプロセッサを備えるオーディオ受信機を含む。リスナ位置推定器、リスナ識別器、及び音声コマンドプロセッサからの入は、アレイプロセッサに供給される。アレイプロセッサは、これらのデバイスの各々からの入力に基づいて、リスニング領域内にビームパターンを放射するように1つ以上のラウドスピーカアレイを駆動する。位置、好ましい使用設定、及びリスナからの音声コマンドを調査することにより、生成されるビームパターンは、最小限度の直接入力で、リスナの明示的及び暗黙の好みにカスタマイズされる。他の実施形態もまた記載されている。
102 アプリケーションへのアクセスを制御するための方法および装置 JP2016542025 2014-09-05 JP2016538658A 2016-12-08 ユン、スングラック; キム、テス; チョ、ジュン−チョル; パク、ミン−キュ; ホワン、キュ・ウォン
本開示の一態様によれば、電子デバイスにおける複数のアプリケーションへのアクセスを制御するための方法が開示される。本方法は、話者から、複数のアプリケーションの中のターゲットアプリケーションにアクセスするためのボイスコマンドを受信することと、アプリケーションにアクセスすることを許可されたユーザの話者モデルに基づいて、ボイスコマンドが許可されたユーザを示すかどうかを検証することとを含む。本方法では、各アプリケーションは、しきい値を有するセキュリティレベルに関連する。本方法は、ボイスコマンドがユーザを示すことを検証された場合、ボイスコマンドを用いて話者モデルを更新することと、更新された話者モデルに基づいてしきい値のうちの少なくとも1つを調整することとをさらに含む。【選択図】図6
103 音声エージェント装置、及びその制御方法 JP2012235902 2012-10-25 JP6025037B2 2016-11-16 西川 由理; 山田 和範
104 人工ニューラル・ネットワーク・ベースのサブ音素単位区別を用いた話者照合および同定 JP2015552632 2013-12-05 JP2016509254A 2016-03-24 ホーソン、ジョン−ポール; バーミューレン、ピーター・ジェイ.; シャウ、ジョナサン
1つの実施形態において、コンピュータ・システムは、複数の話者のための音声データを記憶する。ここで、音声データは、複数の特徴ベクトルと、各特徴ベクトルについて関連付けられたサブ音素クラスとを含む。その後、コンピュータ・システムは、複数の話者のうちのターゲット話者の音声をモデル化するための人工ニューラル・ネットワーク(ANN)を、音声データに基づいて構築する。ここで、ANNは、ターゲット話者によって発せられたサブ音素クラスのインスタンスと、複数の話者のうちの別の話者によって発せられたサブ音素クラスのインスタンスとを区別するように構成される。
105 音声処理装置、音声処理方法、及び、プログラム JP2013170504 2013-08-20 JP2015040903A 2015-03-02 MITSUFUJI YUKI; CHINEN TORU
【課題】ユーザが希望する声質変換を、容易に行う。【解決手段】声質決定部は、声質変換の目的とする声質の話者である目的話者を決定する目的話者決定方法を指示する決定方法制御値に従い、声質変換に用いる目的話者決定方法を決定し、その目的話者決定方法に従い、目的話者を決定する。本技術は、例えば、参照話者の音声を、目的話者の音声に変換する声質変換に適用することができる。【選択図】図4
106 Modeling device and method for speaker recognition and speaker recognition system, JP2013542329 2010-12-10 JP2014502374A 2014-01-30 ハイフォン シェン; ロン マー; ビンチー チャン
話者認識のためのモデリング・デバイスおよび方法ならびに話者認識システムが実現される。 モデリング・デバイスは、各目標話者から登録音声データを受け取るフロント・エンドと、アンカー空間に基づいて登録音声データを使用して参照アンカー集合を生成する参照アンカー集合生成ユニットと、参照アンカー集合および登録音声データに基づいて声紋を生成する声紋生成ユニットとを備える。 本開示では、登録音声および話者適応技術を考慮することによって、より小さなサイズのアンカー・モデルを生成することができ、したがって、より小さなサイズの参照アンカー集合を有する信頼性の高いロバストな話者認識が可能になる。 これは、計算速度の改善および大幅なメモリ削減を行ううえで非常に有利である。
107 Statistical model learning device, statistical model learning method, and program JP2010534655 2009-07-22 JP5321596B2 2013-10-23 孝文 越仲
A statistical model learning device is provided to efficiently select data effective in improving the quality of statistical models. A data classification means 601 refers to structural information 611 generally possessed by a data which is a learning object, and extracts a plurality of subsets 613 from the training data 612. A statistical model learning means 602 utilizes the plurality of subsets 613 to create statistical models 614 respectively. A data recognition means 603 utilizes the respective statistical models 614 to recognize other data 615 different from the training data 612 and acquires each recognition result 616. An information amount calculation means 604 calculates information amounts of the other data 615 from a degree of discrepancy among the statistical models of the recognition results. A data selection means 605 selects the data with a large information amount and adds the same to the training data 612.
108 音声認識装置 JP2010548268 2009-10-08 JPWO2010086925A1 2012-07-26 道弘 山崎; 石井 純; 純 石井; 博紀 坂下; 和行 野木
複数回発話された音声を入する音声入力部11と、音声入力部11が入力した複数回発話された音声データを記憶する登録音声データ記憶部12と、登録音声データ記憶部12から読み出した複数回発話された音声データ間の類似度を求め、類似度が閾値Tlより大きい場合に音声データを登録可と判定する発話安定性検証部13と、発話安定性検証部13により登録可と判定された音声データを用いて標準パタンを作成する標準パタン作成部14とを備える。
109 統計モデル学習装置、統計モデル学習方法、およびプログラム JP2010534655 2009-07-22 JPWO2010047019A1 2012-03-15 孝文 越仲
この統計モデル学習装置は、統計モデルの品質向上に有効なデータを効率的に選択することを目的とする。データ分類手段601は、学習対象となるデータが通常有する構造情報611を参照して、学習データ612から複数個のサブセット613を抽出する。統計モデル学習手段602は、複数個のサブセット613を用いて、それぞれ統計モデル614を作成する。データ認識手段603は、それぞれの統計モデル614を用いて学習データ612とは別のデータ615を認識して個々の認識結果616を得る。情報量計算手段604は、認識結果の統計モデル間での不一致の度合いからデータ615の情報量を計算する。データ選択手段605は情報量の高いデータを選択し、学習データ612に追加する。
110 Acoustic model registration apparatus, speaker recognition device, acoustic model registration method and the acoustic model registration processing program JP2009503831 2007-03-14 JP4897040B2 2012-03-14 聡一 外山; 育雄 藤田; 幸生 鴨志田
111 Speaker recognition device, acoustic model update method and acoustic model update processing program JP2009508804 2007-03-30 JP4847581B2 2011-12-28 聡一 外山; 育雄 藤田; 幸生 鴨志田
112 Enrollment of speaker authentication and verification method and apparatus JP2007099947 2007-04-06 JP4802135B2 2011-10-26 ジアン・ルアン; ジー・ハオ; ペイ・ディン; レイ・ヘ
113 Speaker template updating device and method JP2008275807 2008-10-27 JP2010102254A 2010-05-06 MIKI MURASAKI; NOGUCHI MASAMI
PROBLEM TO BE SOLVED: To improve accuracy of speaker recognition by making processing time short for actually recognizing a speaker, without forcing the user additional operation. SOLUTION: In an IVR (Interactive Voice Response) 40, a voice response section 41 obtains a conversation data by line, and a voice recognition section 42 creates a predetermined data by recognizing the conversation data. In a voiceprint authentication device 60, a voice analysis section 66 extracts a voice feature from the predetermined data, and a language analysis section 67 extracts a keyword from the predetermined data. Then, a DB management section 65 specifies a message box in which a message has been transmitted, from an extension number of a conversation partner, by referring to a history information storage section 62, and specifies the message box of the user who possibly speaks the keyword extracted by the language analysis section 67 in conversation, by referring to a keyword information storage section 63. These message boxes in a template information storage section 61 is set to a searching range, and a speaker template is searched and updated. COPYRIGHT: (C)2010,JPO&INPIT
114 Background learning of the speaker's voice JP2002588127 2002-04-25 JP4369132B2 2009-11-18 ヤ−チェルング チュ; ジュ−ミン チュング; ウェイ−ホ ツァイ; チャオ−シー フアング
115 Personal identification authenticating system JP2007324513 2007-12-17 JP2009146263A 2009-07-02 SAWADA ARIO; WATADA KAZUHIRO; YASUNAGA KOTA; SAKATE HIROYUKI
<P>PROBLEM TO BE SOLVED: To provide a system in which a user needs not any registration of a speaker model using a speech act on each occasion for each of business associates, in the system in which a business party utilizes a speaker identification to authenticate a personal identification of the user. <P>SOLUTION: A user side apparatus 20 is provided with a voice inputting means 24, a speaker model creating means 21, a storing means 22 and a communicating means 23 for transferring a speaker model, a managing apparatus 40 on the side of a business party is provided with a speaker model acquiring means 41, a storing means 42 and a communicating means 43, a speaker identifying apparatus 50 on the side of the business party is provided with an acquiring means 51 for speaker models, a speaker model registering means 52, a feature acquiring means 53, and a speaker identifying means 54, the user uses the user side apparatus 20 to create and store a speaker model to be used for speaker recognition, and the business party utilizes the managing apparatus 40 to acquire from the user the speaker model together with personal information necessary for a transaction and registers the speaker model in the speaker identifying apparatus device 50 when the business party registers the user as a business associate. <P>COPYRIGHT: (C)2009,JPO&INPIT
116 System, method and computer program product for updating biometric model based on change in biometric feature JP2006351685 2006-12-27 JP2007249179A 2007-09-27 SUNDARAM PRABHA; TAVARES CLIFFORD
<P>PROBLEM TO BE SOLVED: To update a biometric model of a user enrolled in a biometric system based on changes in a biometric feature of the user. <P>SOLUTION: The user is authenticated based on an analysis of a first biometric sample received from the user. Features extracted from the first biometric sample may be compared to a first model generated using a second biometric sample obtained from the user at enrollment as well as to a second model generated using a previously authenticated third biometric sample to determine whether the features more closely match the second model than the first model. If the features more closely match the second model than the first model, then the first and second models of the data storage apparatus 106 can be updated based on the extracted features. <P>COPYRIGHT: (C)2007,JPO&INPIT
117 Method and apparatus for estimating discrimination capability of voice and method and apparatus for registration and evaluation of speaker authentication JP2006307250 2006-11-13 JP2007133414A 2007-05-31 JIAN LUAN; HAO JIE
<P>PROBLEM TO BE SOLVED: To provide a method and apparatus for estimating the discrimination capability of a voice and method and apparatus for registration and evaluation of speaker authentication. <P>SOLUTION: The method for registration of the speaker authentication includes a step 101 of inputting the voice including a password uttered by a speaker, step 110 of acquiring a phoneme sequence from the input voice, a step 115 of estimating the discrimination capability of the phoneme sequence based on the discrimination capability table including the discrimination capability by every phoneme, a step 130 of estimating the discrimination threshold for the voice, and a step 135 of generating a voice template for the voice. <P>COPYRIGHT: (C)2007,JPO&INPIT
118 Method and apparatus for compressing speaker template, method and apparatus for merging a plurality of the speaker templates, and speaker authentication JP2006307249 2006-11-13 JP2007133413A 2007-05-31 JIAN LUAN; HAO JIE
<P>PROBLEM TO BE SOLVED: To provide a method and apparatus for compressing a speaker template, a method and apparatus for merging a plurality of the speaker templates, and a speaker authentication technology. <P>SOLUTION: The method and apparatus for compressing the speaker template, the method and apparatus for merging a plurality of the speaker templates, a method and apparatus for speaker authentication registration, a method and apparatus for speaker authentication verification, and a system for speaker authentication are provided. The method for compressing the speaker template including a plurality of feature vectors includes assigning a code to each of the plurality of the feature vectors within the speaker template in compliance with a code book including a plurality of codes and the feature vectors corresponding to the codes and substituting the plurality of the adjacent feature vectors assigned by the same code within the speaker template with the one feature vector. <P>COPYRIGHT: (C)2007,JPO&INPIT
119 How to create a suppression standard pattern that is cohort in speaker recognition and speaker verification system, including the system and the system JP4010297 1997-02-07 JP2991148B2 1999-12-20 YAMADA EIKO; HATSUTORI HIROAKI
Input speech is supplied to an analyzer (10) for conversion to feature vector, which is supplied to an inhibiting speaker selector (40) and also to a feature vector memory(30). An inhibiting speaker selector (40) selects inhibiting speakers by calculating similarities between reference patterns stored in an inhibiting speaker's reference pattern memory (20) and the feature vector of the true speaker, stored in the feature vector memory (30). The inhibiting speakers are selected in the order of smaller distances thereof. Selected inhibiting speaker's reference patterns are supplied to an estimator (50). The estimator (50) obtains mapping functions from inhibiting speaker's feature vector spaces to feature vector space of the true speaker, using the reference patterns supplied from the inhibiting speaker selector and the feature vector of the true speaker, supplied form the feature vector memory (30). The mapping functions thus obtained are supplied to an adapter (60). The adapter (60) adapts the inhibiting speaker's reference patterns selected in the inhibiting speaker selector by using the mapping functions supplied from the estimator (50). <IMAGE>
120 Speaker certifying probabilistic matching method JP6345198 1998-03-13 JPH10307593A 1998-11-17 LI QI P
PROBLEM TO BE SOLVED: To improve speaker recognizing performance by efficiently performing probabilistic matching with a corresponding case of training voice data on aggregation of input test voice data. SOLUTION: A first covariance matrix to express a probabilistic characteristic of information on a characteristic of an input test voice is generated on the basis of information on a characteristic of a concerned input test voice. Then, the conversion of information on a characteristic of its input test voice is performed. Its conversion is based on the first covariance matrix and a second covariance matrix to express a probabilistic characteristic of information on a characteristic of a training voice. Information on a characteristic of an already converted input test voice having a probabilistic characteristic exactly adapted by a probabilistic characteristic of information on a characteristic of the training voice, can be successfully obtained as a result by such conversion. This conversion is also desirably based on a probabilistic average value of information on a characteristic of the training voice. COPYRIGHT: (C)1998,JPO
QQ群二维码
意见反馈