序号 专利名 申请号 申请日 公开(公告)号 公开(公告)日 发明人
61 通信セッションの体感品質の向上 JP2017543967 2016-02-22 JP2018511973A 2018-04-26 ギャルビン、ジュニア、ジェームズ、パトリック; アッセム、アリ、サラマ、ヒザム、アハメド; ハープール、リアム; ダン、ジョナサン
【課題】電子通信セッションについての体感品質を向上させること。【解決手段】通信セッションについての体感品質を管理するためのコンピュータ実施方法、コンピュータ・プログラム製品及びコンピュータ・システムが提供される。1つの実施において、方法は、通信セッションで話される言語を判断することを含むことができる。方法はまた、通信セッションで話される言語に少なくとも部分的に基づいて通信セッションのためのコーデックを選択することも含むことができる。方法は、通信セッションのための選択されたコーデックを用いて、通信セッションのトランザクションを行うことをさらに含むことができる。【選択図】図2
62 ハイブリッド型クライアントサーバ音声認識 JP2013554691 2012-02-22 JP6317111B2 2018-04-25 アジャイ・ジュネジャ
63 翻訳装置、翻訳システムおよびプログラム JP2016134715 2016-07-07 JP2018005749A 2018-01-11 伊藤 泰
【課題】複数回の翻訳を行なっても元の原稿の内容が変化しにくい翻訳装置等を提供する。
【解決手段】原稿の内容を異なる言語に翻訳する翻訳部504と、翻訳部504が原稿の内容を第1の言語から第2の言語に翻訳したときに、第1の言語による原文と第2の言語による訳文との対応関係を含む履歴情報を作成する履歴作成部506と、翻訳部504が原稿の内容を第2の言語から他の言語に翻訳するときに、第2の言語により記載された原稿の内容が履歴情報に存在した場合、履歴情報には記載されていない内容を抽出する抽出部507と、翻訳部504により履歴情報には記載されていない内容を第2の言語から他の言語に翻訳した結果と、履歴情報に存在した内容を履歴情報に基づき第2の言語から当該他の言語に置き換えた結果とを合成する合成部508と、を備える翻訳装置。
【選択図】図5
64 音声認識装置および音声認識方法 JP2015548915 2013-11-20 JP6080978B2 2017-02-15 瀬戸 祐介
65 情報処理装置、操作システム、および、情報処理装置の操作方法 JP2013003266 2013-01-11 JP6029985B2 2016-11-24 関口 隆昭; 森 直樹; 清水 淳史
66 名前発音システム及び方法 JP2014560055 2013-02-28 JP6021956B2 2016-11-09 ナイク, デヴァング ケー.
67 言語モデル学習方法及び装置、言語認識方法及び装置 JP2015210589 2015-10-27 JP2016134169A 2016-07-25 李 昊 潼; 李 鎬 式; 崔 喜 烈; 閔 允 泓; 柳 尚 賢; 李 禮 夏; 李 知 ▲ひょん▼; 崔 榮 相
【課題】 学習データから第1学習特徴ベクトル列と第2学習特徴ベクトル列を生成するステップを含む言語モデル学習方法及び装置を提供すること。
【解決手段】 言語モデル学習方法は、第1学習特徴ベクトル列に基づいて神経網の順方向推定を行い、前記第2学習特徴ベクトル列に基づいて神経網の逆方向推定を行う。言語モデル学習方法は順方向推定の結果と逆方向推定の結果に基づいて言語モデルを学習させることができる。
【選択図】 図1A
68 電話の音声をテキストに転写するための言語を決定する方法および装置 JP2015545676 2012-12-06 JP2016502828A 2016-01-28 ロドリゲス、エセキエル ルイス
【課題】音声メッセージをテキストに転写する効率を向上させること。【解決手段】本発明は、留守番電話システムが提供する、発信者と受信者との間の通話の音声からテキストへの転写において使用可能な複数の言語の中から言語を決定する方法、装置およびシステムを提供する。発信者に対応する電話国コード、受信者に対応する電話国コード、留守番電話システムによる転写に使用可能な言語の集合に含まれる言語、および、発信者または受信者によって設定されたパラメータに基づいて自動的に選択された言語に基づいて、前記使用可能な言語のうちの少なくとも2つの言語が発信者に提示される。発信者は、留守番電話システムとやり取りするための言語を選択する。対応する音声メッセージは選択された言語のテキストに転写され、受信者への転送の用に供される。【選択図】図1
69 音声翻訳装置、音声翻訳方法およびプログラム JP2013194021 2013-09-19 JP2015060095A 2015-03-30 KAMAYA SATOSHI; SUMITA KAZUO; KAWAMURA AKINORI
【課題】会話の流れの中で使用される可能性の高い発音でも音声認識ができる音声翻訳装置、音声翻訳方法およびプログラムを提供する。【解決手段】実施形態の音声翻訳装置は、音声変換辞書を参照して、第1言語による音声を認識して原文テキストに変換する音声認識部と、前記第1言語による原文テキストを前記第2言語の訳文テキストに翻訳する翻訳部と、前記翻訳部によって翻訳された前記第2言語の訳文テキストの内、前記第2言語の音声を認識する前記音声認識辞書における未登録語を未知語として検出する未知語検出部と、前記未知語検出部が検出した前記未知語の発音を、前記第2言語における未知語の表記から第1発音候補を推定すると共に、前記未知語の第1言語における原言語単語の発音から第2発音候補を推定する発音推定部と、前記未知語と、推定された前記第1および第2発音候補とを対応づけて、前記音声認識辞書に登録する辞書更新部と、を備える。【選択図】図1
70 ナビゲーション装置および方法 JP2013533337 2011-09-13 JPWO2013038440A1 2015-03-23 匠 武井; 友紀 古本
ユーザの認識語彙理解度に合わせて、ユーザへの案内(ガイダンス)のみではなく、案内、操作手順、操作画面および認識語彙のすべて、すなわち、案内、操作手順、操作画面および認識語彙から規定される操作遷移を変更して提示可能なナビゲーション装置としたことにより、認識語彙理解度の低いユーザにとってタスクを達成できる可能性を高めることや、認識語彙理解度の高いユーザにとって操作の快適性を向上することができ、すべてのユーザにとって最適な操作遷移を提示することができる。
71 データを変換する装置及び方法 JP2013188335 2013-09-11 JP2015055979A 2015-03-23 SANUI TARO; SHIIKI HISAE; HATTORI YOICHI; HASHIMOTO KENSUKE
【課題】複数のユーザが電子会議を行うシステムにおいて音声データを発言文字列に変換する際の精度を向上させる。【解決手段】電子会議システム1のサーバ20において、音声データ取得部21が、クライアント10から音声データを受信し、音声認識部22が、音声データに対応する音素データを取得し、変換候補抽出部24が、複数の音素データの各音素データに対して各音素データの変換候補を定義した変換辞書23を参照することにより、音素データの複数の変換候補を特定し、選択候補抽出部28が、複数のユーザが電子会議のセッション内で共通に閲覧する共通画面における複数の変換候補の表示状況を共有履歴記憶部27から取り出し参照して、複数の変換候補に点数を付与し、発言文字列決定部29が、この点数に基づいて、複数の変換候補から発言文字列を選択し、発言文字列をクライアント10に送信する。【選択図】図3
72 音声翻訳装置、方法およびプログラム JP2012146880 2012-06-29 JP5653392B2 2015-01-14 住田 一男; 一男 住田; 鈴木 博和; 博和 鈴木; 建太郎 降幡; 聡史 釜谷; 知野 哲朗; 哲朗 知野; 尚義 永江; 康顕 有賀; 貴史 益子
73 Voice translation device, method and program JP2012146880 2012-06-29 JP2014010623A 2014-01-20 SUMITA KAZUO; SUZUKI HIROKAZU; KOHATA KENTARO; KAMAYA SATOSHI; CHINO TETSURO; NAGAE HISAYOSHI; ARIGA YASUAKI; MASUKO TAKASHI
PROBLEM TO BE SOLVED: To achieve smooth and highly responsive voice translation.SOLUTION: A voice translation device according to an embodiment includes an acquisition unit, a voice recognition unit, a translation unit, a retrieval unit, a selection unit and an example presentation unit. The acquisition unit acquires speech in a first language as a voice signal. The voice recognition unit performs voice recognition about the voice signal sequentially, and acquires a first language character string of the voice recognition result. The translation unit translates the first language character string into a second language different from the first language, and acquires a second language character string of the translation result. The retrieval unit retrieves a similar example which is an example in the first language that resembles the first language character string for each first language character string, and if a similar example is present, acquires the similar example and a parallel translation example which is the result in which the similar example is translated into the second language. The selection unit, according to a user instruction, selects at least either the first language character string in which the similar example is present, or the second language character string in which the parallel translation example is present as a selected character string. The example presentation unit presents one or more of similar examples and parallel translation examples regarding the selected character string.
74 Speech understanding apparatus JP2010011175 2010-01-21 JP2010170137A 2010-08-05 NAKANO MIKIO; KATSUMARU MAKI; FUNAKOSHI KOTARO; OKUNO HIROSHI
PROBLEM TO BE SOLVED: To provide a speech understanding apparatus which accurately understands an utterance. SOLUTION: The speech understanding apparatus 1 has: a speech recognition unit 20 which performs speech recognition of the utterance using multiple different language models; a language understanding unit 30 which uses the multiple different language understanding models to perform language understanding for each of speech recognition results output by the speech recognition unit 20 using the multiple different language model, and obtains multiple speech understanding results; and an integrating unit 40 which, on the basis of each of the speech understanding results, calculates utterance batch confidences, based on features obtained from likelihood of a sound model, the number of included concepts and confidence of each concept, and selects and outputs one of the speech understanding results with a highest utterance batch confidence among the calculated utterance batch confidences. COPYRIGHT: (C)2010,JPO&INPIT
75 Device, system, method and program for performing machine translation JP2006261350 2006-09-26 JP2008083855A 2008-04-10 KAMAYA SATOSHI; CHINO TETSURO; KOHATA KENTARO
<P>PROBLEM TO BE SOLVED: To provide a machine translation device for performing translation with high precision. <P>SOLUTION: This machine translation device is provided with: a document accepting part 101 for accepting the input of a source language document including at least one source language sentence as a sentence constituted of source language; a translation part 102 for translating the source language document into a translation document, and for storing the translation document and ambiguous information in a storage part 120; a speech accepting part 103 for accepting speech in the source language; a voice recognition part 104 for voice-recognizing the accepted speech, and for generating a source language spoken sentence as the recognition result; a translation update part 105 for retranslating the ambiguous section of the source language sentence on the basis of the spoken content corresponding to the ambiguous section of the source language spoken sentence when there exists any ambiguous section in the source language sentence; and for updating the translation document stored in a storage part 120; and a display control part 106 for displaying the translation document. <P>COPYRIGHT: (C)2008,JPO&INPIT
76 Translation service providing method JP2000106095 2000-04-07 JP2001292234A 2001-10-19 KAGE GOZO; SUZUKI HIROMITSU
PROBLEM TO BE SOLVED: To facilitate understanding between persons speaking different languages regardless of place or time. SOLUTION: When a line is connected, language information on the user's own language and the language of an opposite party, the telephone number of a first portable telephone and the telephone number of the second portable telephone of the opposite party are sent from the first portable telephone to a network together with translation request information (step 1). The network connects the first portable telephone and the second portable telephone through a prepared translation device (step 2). The translation device 6 translates the voice of the first portable telephone 1 and the voice of the second portable telephone 2 according to the language information and sends the translated result to the portable telephones of the participating parties (step 3). A charging device 7 previously prepared on the network 3 counts the time required for translation, charges on the time as a translation fee and adds it to a call tariff between the first portable telephone 1 and the second portable telephone 2 (step 4). COPYRIGHT: (C)2001,JPO
77 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 JP2016576013 2016-07-19 JP2018530930A 2018-10-18 メーラ, シュチタ
ある言語に対応するコンテンツを識別するためのシステムおよび方法が、提供される。第1のユーザによって話される言語が、第1のユーザから受信される口頭入に基づいて、自動的に、音声認識回路を用いて、判定される。コンテンツソースのデータベースが、第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために相互参照される。データベース内の言語フィールドは、関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する。識別されたコンテンツソースの表現が、表示のために、第1のユーザに生成される。
78 翻訳装置および翻訳方法 JP2018508780 2017-04-17 JP6364629B2 2018-08-01 足立 祐介; 林 孝行
79 情報処理装置、及び、情報処理方法 JP2017515431 2016-03-18 JPWO2016174955A1 2018-02-15 足立 真希; 八尋 隆生; 井口 福也; 安友 健太; 加藤 寛
ユーザの音声を受け付け、音声に基づく処理を実行可能な情報処理装置について、ユーザの利便性を向上する。車載装置12の制御部20は、動作モードとして、非音声操作モードと、音声操作モードとを備え、動作モードが非音声操作モードの場合、タッチパネル26に操作ボタンを表示し、操作ボタンが操作されたことを検出した場合、操作された操作ボタンに対応する処理を実行し、動作モードが音声操作モードM2の場合、操作ボタンに代えて、操作ボタンに対応する処理を実行させる場合にユーザが発話すべき文言の例を示す文言例示画像をタッチパネル26に表示し、文言例示画像が示す文言に基づく音声データが生成された場合、操作ボタンに対応する処理を実行する。
80 再生装置、設定装置、再生方法およびプログラム JP2014544412 2013-10-11 JP6277958B2 2018-02-14 北谷 謙一
QQ群二维码
意见反馈