序号 专利名 申请号 申请日 公开(公告)号 公开(公告)日 发明人
101 Integrated message system having automatic language identification for text speech conversion JP20441298 1998-07-03 JPH11149474A 1999-06-02 HYDE-THOMSON HENRY C A; LIRON ROGER
PROBLEM TO BE SOLVED: To automatically identify the language of a text to be converted or translated in a system for converting a text message to voices, and to appropriately perform text/speech conversion or text/text translation. SOLUTION: An integrated message system 100 is provided with an audio gateway server 140 connected to an electronic mail system and a private branch exchange 120. The audio gateway server 140 provides an audio message service for the group of subscribers. Inside the audio gateway server 140, a triple sound character analyzer investigates continuous three characters in a text message, determines the frequency of occurrence, compares reference occurrence statistics prepared from a text example written in the specified language with the occurrence frequency and generates the language identifier and approximate degree of the text message. Based on the language identifier, a message inquiry unit selects a suitable text speech engine and converts the text message to computer- created speech to be spoken for the subscribers. COPYRIGHT: (C)1999,JPO
102 翻訳装置および翻訳方法 JP2017015409 2017-04-17 JPWO2018008227A1 2018-08-16 足立 祐介; 林 孝行
翻訳装置(10)は、第1の受信部(11)と、第2の受信部(21)と、第1の出部(12)と、第2の出力部(22)とを備える。第1の受信部(11)は、第1のユーザの音声を受信し、第1のユーザの音声に応じた第1の音声データを生成する。第2の受信部(21)は、第2のユーザの音声を受信し、第2のユーザの音声に応じた第2の音声データを生成する。第1の出力部(12)は、第2の音声データから第1の音声データに基づいたデータを減算することにより生成された第3の音声データを翻訳することにより生成された第3の翻訳データに応じた音声を出力する。第2の出力部(22)は、第1の音声データを翻訳することにより生成された第1の翻訳データに応じた音声を出力する。
103 機械翻訳装置、方法およびプログラム JP2014202631 2014-09-30 JP6334354B2 2018-05-30 園尾 聡
104 単語自動翻訳に基づく唇形状変更装置および方法 JP2015531005 2013-09-05 JP6333260B2 2018-05-30 キム,サン チョル
105 動的言語モデル JP2015518519 2013-06-18 JP6254583B2 2017-12-27 ペドロ・ジェー・モレーノ・メンギバー; マイケル・エイチ・コーエン
106 表示装置、入力表示方法及び入力表示プログラム JP2017520187 2015-05-28 JP6235763B2 2017-11-22 平井 正人; 今石 晶子; 梅木 嘉道; 松原 勉; 鶴 直樹; 山口 貴弘; 引間 孝典; 山内 貴司
107 単一音響モデルと自動アクセント検出を用いたテキスト規則ベースの複数アクセントの音声認識 JP2017503577 2015-07-24 JP2017521724A 2017-08-03 ラジャット パシニ,
コンピュータシステムで音声を認識する実施形態を開示する。音声認識方法の例は、アクセント付き部分文字列のデータベースを備える生成ユニットでメタデータを受信することと、メタデータに含まれるワードに関してアクセントを訂正した音声表記データであって、データベースに記憶されたアクセント付き部分文字列に基づいて、メタデータに含まれたワードの異なる発音を表すアクセントを訂正した音声表記データを生成ユニットを介して生成することと、ユーザが音声認識システムに入した発話から引き出された抽出音声データを音声認識エンジンで受信することと、アクセントを訂正した音声表記データを音声認識エンジンで受信することと、を含む。と、認識された音声データを音声制御装置に出力することと、をさらに含む。【選択図】図3
108 混雑した通信チャネルでの音声通信の維持方法 JP2016538902 2013-08-29 JP2016529839A 2016-09-23 カリミ−チェルカンディ ビザン; モハマザデー コウチリ ファロク; ワリ アリ シャー
本発明は、通信システム、及び、送信側と受信側との間の音声通信における、音声通話の送信を現在担持している通信チャネルが混雑しているときの音声通信の維持方法に関する。通信チャネルは、少なくとも1つのシグナリングチャネルと、所定のサービス品質を有する少なくとも1つのペイロードチャネルとを含む。音声通信中、ペイロードチャネルのサービス品質が監視される。ペイロードチャネルのサービス品質が所定の閾値を下回る場合、対応する送信側の音声通話がテキストへ変換され、保持された通信チャネルを介して、対応する受信側へ送信される。テキストは受信側で音声通話へ戻し変換することができる。
109 オンライン音声翻訳方法及び装置 JP2016526445 2014-11-12 JP2016529603A 2016-09-23 ワン,ハイフェン; ウー,ホワ
第一ユーザから入された第一音声情報について音声認識を行って、第一認識情報を取得するステップと、第一認識情報の信頼度を判定するステップと、第一認識情報の信頼度に基づいて、第一認識情報を確認するように第一ユーザに促すステップと、確認された第一認識情報を翻訳して、第一翻訳情報を取得して出力するステップと、第二ユーザからフィードバックされた第二情報に基づいて、前記第二情報に対応する関連情報を抽出するステップと、関連情報に基づいて、第一翻訳情報を修正して出力するステップとを含むオンライン音声翻訳方法及び装置について記載する。オンライン音声翻訳方法及び装置によれば、クロスランゲージ交流をスムーズにすることができる。【選択図】図1
110 再生装置、設定装置、再生方法およびプログラム JP2014544412 2013-10-11 JPWO2014069220A1 2016-09-08 謙一 北谷
再生装置は、発話音声として再生されるデータを含む聴覚的言語データを取得する取得部と、前記聴覚的言語データを解析し、解析結果を出する解析部と、前記解析結果に基づいて、前記聴覚的言語データの少なくとも一部を設定された再生速度で再生される制御部分に設定する設定部と、前記制御部分を前記設定された再生速度で発話音声として再生する音声再生部と、を具備する。
111 機械翻訳装置、方法およびプログラム JP2014202631 2014-09-30 JP2016071761A 2016-05-09 園尾 聡
【課題】同時翻訳において、同時性を保ちつつ、意図の伝達度を高める様に、原言語テキストの分割処理ならびに翻訳処理を行うことのできる機械翻訳装置を提供する。
【解決手段】逐次的に入される原言語の音声入力を受けて、音声認識処理結果である原言語テキストを生成する音声認識処理部101と、原言語テキスト中に含まれる解析情報により、原言語テキストの部分的な意味のまとまりである処理単位の分割位置及びその翻訳順序情報を決定する処理単位分割部102と、処理単位を逐次的に目的言語へ翻訳処理を実行して翻訳結果を得る翻訳処理部104と、処理単位毎の翻訳結果を、翻訳順序情報に基づいて並べた目的言語テキストを生成する翻訳制御部103と、前記目的言語テキストを出力する出力部105と、を備えた機械翻訳装置である。
【選択図】 図1
112 動的言語モデル JP2015518519 2013-06-18 JP2015526797A 2015-09-10 ペドロ・ジェー・モレーノ・メンギバー; マイケル・エイチ・コーエン
音声認識のための方法、システム、およびコンピュータ記憶媒体に符号化されたコンピュータプログラム装置である。方法の一つは、ベース確率値を有する第1の単語シーケンスを含む音声認識のためのベース言語モデルを受信するステップと、クエリコンテキストに関連付けられた音声検索クエリを受信するステップと、クエリコンテキストがカスタマイズされた言語モデルに関連付けられた1つまたは複数の基準を満たす場合、カスタマイズされた言語モデルが使用されていると決定するステップと、カスタマイズされた言語モデルを取得するステップであって、カスタマイズされた言語モデルは、クエリコンテキストに従って調整されたベース確率値である調整済み確率値を有する第1の単語シーケンスを含む、ステップと、1つまたは複数の確率に基づいて音声検索クエリをテキスト検索クエリに変換するステップであって、確率の各々は、1つまたは複数の単語シーケンスのグループにおける単語シーケンスに対応し、グループは、調整済み確率値を有する第1の単語シーケンスを含む、ステップとを含む。
113 Information processing device, voice operation system, and voice operation method of information processing device JP2013003266 2013-01-11 JP2014134483A 2014-07-24 SEKIGUCHI TAKAAKI; MORI NAOKI; SHIMIZU ATSUSHI
PROBLEM TO BE SOLVED: To safely drive a vehicle during vehicle traveling when instructing operation of an application by a voice, in an information processing device such as an in-vehicle device loaded on the vehicle.SOLUTION: A permission/prohibition list of operations during traveling which is a list of words meaning operations to be prohibited to be executed during traveling is prepared. A command permission/prohibition execution part in an in-vehicle device determines whether or not a command corresponding to a content spoken by a user can be operated during traveling by collating the list with names of commands which can be operated by voice, included in the application, refers to a traveling state of a vehicle, and when the traveling vehicle is being traveled, instructs an application control part to execute the command only when operation is available. When operation impossibility is determined, execution of the command is not instructed to the application control part.
114 Voice understanding device JP2010011175 2010-01-21 JP5530729B2 2014-06-25 幹生 中野; 真樹 勝丸; 孝太郎 船越; 博 奥乃
115 Information processing apparatus and program JP2011048076 2011-03-04 JP5250066B2 2013-07-31 雅仁 佐野; 清充 山口; 幸次 黒沢
An information processing apparatus comprising an information output unit configured to switch a plurality of languages at each given time interval while output a guidance information set by the plurality of languages, a response detection unit configured to detect a response to the guidance information when the guidance information is output while the languages are switched and a processing language determination unit configured to take the language which detect the response to the guidance information as a processing language.
116 Information processing device and program JP2011048076 2011-03-04 JP2012185302A 2012-09-27 SANO MASAHITO; YAMAGUCHI KIYOMITSU; KUROSAWA KOJI
PROBLEM TO BE SOLVED: To select a piece of guidance information in a language to be understood by a user from among pieces of guidance information set in respective languages without needing a special selection operation.SOLUTION: An information processing device includes information output means that output the guidance information set in the plurality of languages with a certain time interval by switching the language, response detection means that detects responses to the guidance information when the guidance information is output while changing the language, and processing language deciding means that decides the language which is used in the guidance information for which the response is detected as the language to be used to execute the processing.
117 音声認識装置 JP2010546177 2009-10-20 JPWO2010086928A1 2012-07-26 鈴木 忠; 鈴木  忠; 石川 泰; 泰 石川; 裕三 丸田
第1の言語切換手段SW1と第2の言語切換手段SW2により、音声ラベル列を作るために使う音声標準モデルメモリ1と、生成した音声ラベル列を保持する音声ラベルメモリ2の言語を自動的に切換えながら、入されたユーザ発話音声の特徴ベクトル時系列と音声標準モデルのデータとにより、前記入力されたユーザ発話音声に対する音声ラベル列を各言語用に生成し、音声ラベルメモリ2に登録するように構成したので、ユーザが発声した登録音声に対応する音声ラベル列が、各言語用に生成され、ユーザ辞書として保持される。この結果、音声認識で使う言語を切換えても、ユーザが発声した登録音声を使った音声認識が可能になる。
118 Speech recognition device JP2010546177 2009-10-20 JP4703787B2 2011-06-15 裕三 丸田; 泰 石川; 鈴木  忠
119 Gaming machine JP2008248094 2008-09-26 JP2009189797A 2009-08-27 OKADA KAZUO
<P>PROBLEM TO BE SOLVED: To provide an innovative gaming machine which has a speech translation function operated suitably for amusement. <P>SOLUTION: A message display area 85 of a sub monitor 111 provided in each station displays contents uttered by each player through a microphone 116 provided in each station in an output language of the station. The contents displayed in the message display area 85 are outputted as speech from a speaker 117. The speech outputted from speaker 117 is outputted in the output language of the station as well. The setting of the output language is changed by using a language selecting button 88 displayed on the sub monitor 111 as well. The player can specify the station which outputs contents uttered by the player. When the player specifies the station, a station selecting button 89 displayed on the sub monitor 111 is used. <P>COPYRIGHT: (C)2009,JPO&INPIT
120 Independent voice-based search system in the language JP2002535114 2001-10-03 JP4028375B2 2007-12-26 ゾウ,グオジュン
A language independent, voice based user interface method includes receiving voice input data spoken by a user, identifying a language spoken by the user from the voice input data, converting the voice input data into a first text in the identified language by recognizing the user's speech in the voice input data based at least in part on the language identifier, parsing the first text to extract a keyword, and using the keyword as a command to an application. Further actions include receiving results to the command, converting the results into a second text in a natural language format according to the identified language, and rendering the second text for perception by the user.
QQ群二维码
意见反馈