101 |
ハンズフリー・ビームパターン構成 |
JP2016533005 |
2014-09-25 |
JP2017500785A |
2017-01-05 |
ジョン ジェイ ベイカー; マーティン イー ジョンソン; アフルーズ ファミリー; マイケル ビー ハウズ; クレイグ エム スタンリー; ブラッド ジー ブーザー |
ユーザ/リスナの好みに基づいて1つ以上のラウドスピーカアレイにより放射される1つ以上のビームパターンを調整するオーディオシステムが説明される。オーディオシステムは、リスナ位置推定器、リスナ識別器、及び音声コマンドプロセッサを備えるオーディオ受信機を含む。リスナ位置推定器、リスナ識別器、及び音声コマンドプロセッサからの入力は、アレイプロセッサに供給される。アレイプロセッサは、これらのデバイスの各々からの入力に基づいて、リスニング領域内にビームパターンを放射するように1つ以上のラウドスピーカアレイを駆動する。位置、好ましい使用設定、及びリスナからの音声コマンドを調査することにより、生成されるビームパターンは、最小限度の直接入力で、リスナの明示的及び暗黙の好みにカスタマイズされる。他の実施形態もまた記載されている。 |
102 |
アプリケーションへのアクセスを制御するための方法および装置 |
JP2016542025 |
2014-09-05 |
JP2016538658A |
2016-12-08 |
ユン、スングラック; キム、テス; チョ、ジュン−チョル; パク、ミン−キュ; ホワン、キュ・ウォン |
本開示の一態様によれば、電子デバイスにおける複数のアプリケーションへのアクセスを制御するための方法が開示される。本方法は、話者から、複数のアプリケーションの中のターゲットアプリケーションにアクセスするためのボイスコマンドを受信することと、アプリケーションにアクセスすることを許可されたユーザの話者モデルに基づいて、ボイスコマンドが許可されたユーザを示すかどうかを検証することとを含む。本方法では、各アプリケーションは、しきい値を有するセキュリティレベルに関連する。本方法は、ボイスコマンドがユーザを示すことを検証された場合、ボイスコマンドを用いて話者モデルを更新することと、更新された話者モデルに基づいてしきい値のうちの少なくとも1つを調整することとをさらに含む。【選択図】図6 |
103 |
音声エージェント装置、及びその制御方法 |
JP2012235902 |
2012-10-25 |
JP6025037B2 |
2016-11-16 |
西川 由理; 山田 和範 |
|
104 |
人工ニューラル・ネットワーク・ベースのサブ音素単位区別を用いた話者照合および同定 |
JP2015552632 |
2013-12-05 |
JP2016509254A |
2016-03-24 |
ホーソン、ジョン−ポール; バーミューレン、ピーター・ジェイ.; シャウ、ジョナサン |
1つの実施形態において、コンピュータ・システムは、複数の話者のための音声データを記憶する。ここで、音声データは、複数の特徴ベクトルと、各特徴ベクトルについて関連付けられたサブ音素クラスとを含む。その後、コンピュータ・システムは、複数の話者のうちのターゲット話者の音声をモデル化するための人工ニューラル・ネットワーク(ANN)を、音声データに基づいて構築する。ここで、ANNは、ターゲット話者によって発せられたサブ音素クラスのインスタンスと、複数の話者のうちの別の話者によって発せられたサブ音素クラスのインスタンスとを区別するように構成される。 |
105 |
音声処理装置、音声処理方法、及び、プログラム |
JP2013170504 |
2013-08-20 |
JP2015040903A |
2015-03-02 |
MITSUFUJI YUKI; CHINEN TORU |
【課題】ユーザが希望する声質変換を、容易に行う。【解決手段】声質決定部は、声質変換の目的とする声質の話者である目的話者を決定する目的話者決定方法を指示する決定方法制御値に従い、声質変換に用いる目的話者決定方法を決定し、その目的話者決定方法に従い、目的話者を決定する。本技術は、例えば、参照話者の音声を、目的話者の音声に変換する声質変換に適用することができる。【選択図】図4 |
106 |
Modeling device and method for speaker recognition and speaker recognition system, |
JP2013542329 |
2010-12-10 |
JP2014502374A |
2014-01-30 |
ハイフォン シェン; ロン マー; ビンチー チャン |
話者認識のためのモデリング・デバイスおよび方法ならびに話者認識システムが実現される。 モデリング・デバイスは、各目標話者から登録音声データを受け取るフロント・エンドと、アンカー空間に基づいて登録音声データを使用して参照アンカー集合を生成する参照アンカー集合生成ユニットと、参照アンカー集合および登録音声データに基づいて声紋を生成する声紋生成ユニットとを備える。 本開示では、登録音声および話者適応技術を考慮することによって、より小さなサイズのアンカー・モデルを生成することができ、したがって、より小さなサイズの参照アンカー集合を有する信頼性の高いロバストな話者認識が可能になる。 これは、計算速度の改善および大幅なメモリ削減を行ううえで非常に有利である。 |
107 |
Statistical model learning device, statistical model learning method, and program |
JP2010534655 |
2009-07-22 |
JP5321596B2 |
2013-10-23 |
孝文 越仲 |
A statistical model learning device is provided to efficiently select data effective in improving the quality of statistical models. A data classification means 601 refers to structural information 611 generally possessed by a data which is a learning object, and extracts a plurality of subsets 613 from the training data 612. A statistical model learning means 602 utilizes the plurality of subsets 613 to create statistical models 614 respectively. A data recognition means 603 utilizes the respective statistical models 614 to recognize other data 615 different from the training data 612 and acquires each recognition result 616. An information amount calculation means 604 calculates information amounts of the other data 615 from a degree of discrepancy among the statistical models of the recognition results. A data selection means 605 selects the data with a large information amount and adds the same to the training data 612. |
108 |
音声認識装置 |
JP2010548268 |
2009-10-08 |
JPWO2010086925A1 |
2012-07-26 |
道弘 山崎; 石井 純; 純 石井; 博紀 坂下; 和行 野木 |
複数回発話された音声を入力する音声入力部11と、音声入力部11が入力した複数回発話された音声データを記憶する登録音声データ記憶部12と、登録音声データ記憶部12から読み出した複数回発話された音声データ間の類似度を求め、類似度が閾値Tlより大きい場合に音声データを登録可と判定する発話安定性検証部13と、発話安定性検証部13により登録可と判定された音声データを用いて標準パタンを作成する標準パタン作成部14とを備える。 |
109 |
統計モデル学習装置、統計モデル学習方法、およびプログラム |
JP2010534655 |
2009-07-22 |
JPWO2010047019A1 |
2012-03-15 |
孝文 越仲 |
この統計モデル学習装置は、統計モデルの品質向上に有効なデータを効率的に選択することを目的とする。データ分類手段601は、学習対象となるデータが通常有する構造情報611を参照して、学習データ612から複数個のサブセット613を抽出する。統計モデル学習手段602は、複数個のサブセット613を用いて、それぞれ統計モデル614を作成する。データ認識手段603は、それぞれの統計モデル614を用いて学習データ612とは別のデータ615を認識して個々の認識結果616を得る。情報量計算手段604は、認識結果の統計モデル間での不一致の度合いからデータ615の情報量を計算する。データ選択手段605は情報量の高いデータを選択し、学習データ612に追加する。 |
110 |
Acoustic model registration apparatus, speaker recognition device, acoustic model registration method and the acoustic model registration processing program |
JP2009503831 |
2007-03-14 |
JP4897040B2 |
2012-03-14 |
聡一 外山; 育雄 藤田; 幸生 鴨志田 |
|
111 |
Speaker recognition device, acoustic model update method and acoustic model update processing program |
JP2009508804 |
2007-03-30 |
JP4847581B2 |
2011-12-28 |
聡一 外山; 育雄 藤田; 幸生 鴨志田 |
|
112 |
Enrollment of speaker authentication and verification method and apparatus |
JP2007099947 |
2007-04-06 |
JP4802135B2 |
2011-10-26 |
ジアン・ルアン; ジー・ハオ; ペイ・ディン; レイ・ヘ |
|
113 |
Speaker template updating device and method |
JP2008275807 |
2008-10-27 |
JP2010102254A |
2010-05-06 |
MIKI MURASAKI; NOGUCHI MASAMI |
PROBLEM TO BE SOLVED: To improve accuracy of speaker recognition by making processing time short for actually recognizing a speaker, without forcing the user additional operation.
SOLUTION: In an IVR (Interactive Voice Response) 40, a voice response section 41 obtains a conversation data by line, and a voice recognition section 42 creates a predetermined data by recognizing the conversation data. In a voiceprint authentication device 60, a voice analysis section 66 extracts a voice feature from the predetermined data, and a language analysis section 67 extracts a keyword from the predetermined data. Then, a DB management section 65 specifies a message box in which a message has been transmitted, from an extension number of a conversation partner, by referring to a history information storage section 62, and specifies the message box of the user who possibly speaks the keyword extracted by the language analysis section 67 in conversation, by referring to a keyword information storage section 63. These message boxes in a template information storage section 61 is set to a searching range, and a speaker template is searched and updated.
COPYRIGHT: (C)2010,JPO&INPIT |
114 |
Background learning of the speaker's voice |
JP2002588127 |
2002-04-25 |
JP4369132B2 |
2009-11-18 |
ヤ−チェルング チュ; ジュ−ミン チュング; ウェイ−ホ ツァイ; チャオ−シー フアング |
|
115 |
Personal identification authenticating system |
JP2007324513 |
2007-12-17 |
JP2009146263A |
2009-07-02 |
SAWADA ARIO; WATADA KAZUHIRO; YASUNAGA KOTA; SAKATE HIROYUKI |
<P>PROBLEM TO BE SOLVED: To provide a system in which a user needs not any registration of a speaker model using a speech act on each occasion for each of business associates, in the system in which a business party utilizes a speaker identification to authenticate a personal identification of the user. <P>SOLUTION: A user side apparatus 20 is provided with a voice inputting means 24, a speaker model creating means 21, a storing means 22 and a communicating means 23 for transferring a speaker model, a managing apparatus 40 on the side of a business party is provided with a speaker model acquiring means 41, a storing means 42 and a communicating means 43, a speaker identifying apparatus 50 on the side of the business party is provided with an acquiring means 51 for speaker models, a speaker model registering means 52, a feature acquiring means 53, and a speaker identifying means 54, the user uses the user side apparatus 20 to create and store a speaker model to be used for speaker recognition, and the business party utilizes the managing apparatus 40 to acquire from the user the speaker model together with personal information necessary for a transaction and registers the speaker model in the speaker identifying apparatus device 50 when the business party registers the user as a business associate. <P>COPYRIGHT: (C)2009,JPO&INPIT |
116 |
System, method and computer program product for updating biometric model based on change in biometric feature |
JP2006351685 |
2006-12-27 |
JP2007249179A |
2007-09-27 |
SUNDARAM PRABHA; TAVARES CLIFFORD |
<P>PROBLEM TO BE SOLVED: To update a biometric model of a user enrolled in a biometric system based on changes in a biometric feature of the user. <P>SOLUTION: The user is authenticated based on an analysis of a first biometric sample received from the user. Features extracted from the first biometric sample may be compared to a first model generated using a second biometric sample obtained from the user at enrollment as well as to a second model generated using a previously authenticated third biometric sample to determine whether the features more closely match the second model than the first model. If the features more closely match the second model than the first model, then the first and second models of the data storage apparatus 106 can be updated based on the extracted features. <P>COPYRIGHT: (C)2007,JPO&INPIT |
117 |
Method and apparatus for estimating discrimination capability of voice and method and apparatus for registration and evaluation of speaker authentication |
JP2006307250 |
2006-11-13 |
JP2007133414A |
2007-05-31 |
JIAN LUAN; HAO JIE |
<P>PROBLEM TO BE SOLVED: To provide a method and apparatus for estimating the discrimination capability of a voice and method and apparatus for registration and evaluation of speaker authentication. <P>SOLUTION: The method for registration of the speaker authentication includes a step 101 of inputting the voice including a password uttered by a speaker, step 110 of acquiring a phoneme sequence from the input voice, a step 115 of estimating the discrimination capability of the phoneme sequence based on the discrimination capability table including the discrimination capability by every phoneme, a step 130 of estimating the discrimination threshold for the voice, and a step 135 of generating a voice template for the voice. <P>COPYRIGHT: (C)2007,JPO&INPIT |
118 |
Method and apparatus for compressing speaker template, method and apparatus for merging a plurality of the speaker templates, and speaker authentication |
JP2006307249 |
2006-11-13 |
JP2007133413A |
2007-05-31 |
JIAN LUAN; HAO JIE |
<P>PROBLEM TO BE SOLVED: To provide a method and apparatus for compressing a speaker template, a method and apparatus for merging a plurality of the speaker templates, and a speaker authentication technology. <P>SOLUTION: The method and apparatus for compressing the speaker template, the method and apparatus for merging a plurality of the speaker templates, a method and apparatus for speaker authentication registration, a method and apparatus for speaker authentication verification, and a system for speaker authentication are provided. The method for compressing the speaker template including a plurality of feature vectors includes assigning a code to each of the plurality of the feature vectors within the speaker template in compliance with a code book including a plurality of codes and the feature vectors corresponding to the codes and substituting the plurality of the adjacent feature vectors assigned by the same code within the speaker template with the one feature vector. <P>COPYRIGHT: (C)2007,JPO&INPIT |
119 |
How to create a suppression standard pattern that is cohort in speaker recognition and speaker verification system, including the system and the system |
JP4010297 |
1997-02-07 |
JP2991148B2 |
1999-12-20 |
YAMADA EIKO; HATSUTORI HIROAKI |
Input speech is supplied to an analyzer (10) for conversion to feature vector, which is supplied to an inhibiting speaker selector (40) and also to a feature vector memory(30). An inhibiting speaker selector (40) selects inhibiting speakers by calculating similarities between reference patterns stored in an inhibiting speaker's reference pattern memory (20) and the feature vector of the true speaker, stored in the feature vector memory (30). The inhibiting speakers are selected in the order of smaller distances thereof. Selected inhibiting speaker's reference patterns are supplied to an estimator (50). The estimator (50) obtains mapping functions from inhibiting speaker's feature vector spaces to feature vector space of the true speaker, using the reference patterns supplied from the inhibiting speaker selector and the feature vector of the true speaker, supplied form the feature vector memory (30). The mapping functions thus obtained are supplied to an adapter (60). The adapter (60) adapts the inhibiting speaker's reference patterns selected in the inhibiting speaker selector by using the mapping functions supplied from the estimator (50). <IMAGE> |
120 |
Speaker certifying probabilistic matching method |
JP6345198 |
1998-03-13 |
JPH10307593A |
1998-11-17 |
LI QI P |
PROBLEM TO BE SOLVED: To improve speaker recognizing performance by efficiently performing probabilistic matching with a corresponding case of training voice data on aggregation of input test voice data.
SOLUTION: A first covariance matrix to express a probabilistic characteristic of information on a characteristic of an input test voice is generated on the basis of information on a characteristic of a concerned input test voice. Then, the conversion of information on a characteristic of its input test voice is performed. Its conversion is based on the first covariance matrix and a second covariance matrix to express a probabilistic characteristic of information on a characteristic of a training voice. Information on a characteristic of an already converted input test voice having a probabilistic characteristic exactly adapted by a probabilistic characteristic of information on a characteristic of the training voice, can be successfully obtained as a result by such conversion. This conversion is also desirably based on a probabilistic average value of information on a characteristic of the training voice.
COPYRIGHT: (C)1998,JPO |