序号 | 专利名 | 申请号 | 申请日 | 公开(公告)号 | 公开(公告)日 | 发明人 |
---|---|---|---|---|---|---|
61 | 通信セッションの体感品質の向上 | JP2017543967 | 2016-02-22 | JP2018511973A | 2018-04-26 | ギャルビン、ジュニア、ジェームズ、パトリック; アッセム、アリ、サラマ、ヒザム、アハメド; ハープール、リアム; ダン、ジョナサン |
【課題】電子通信セッションについての体感品質を向上させること。【解決手段】通信セッションについての体感品質を管理するためのコンピュータ実施方法、コンピュータ・プログラム製品及びコンピュータ・システムが提供される。1つの実施において、方法は、通信セッションで話される言語を判断することを含むことができる。方法はまた、通信セッションで話される言語に少なくとも部分的に基づいて通信セッションのためのコーデックを選択することも含むことができる。方法は、通信セッションのための選択されたコーデックを用いて、通信セッションのトランザクションを行うことをさらに含むことができる。【選択図】図2 | ||||||
62 | ハイブリッド型クライアントサーバ音声認識 | JP2013554691 | 2012-02-22 | JP6317111B2 | 2018-04-25 | アジャイ・ジュネジャ |
63 | 翻訳装置、翻訳システムおよびプログラム | JP2016134715 | 2016-07-07 | JP2018005749A | 2018-01-11 | 伊藤 泰 |
【課題】複数回の翻訳を行なっても元の原稿の内容が変化しにくい翻訳装置等を提供する。 【解決手段】原稿の内容を異なる言語に翻訳する翻訳部504と、翻訳部504が原稿の内容を第1の言語から第2の言語に翻訳したときに、第1の言語による原文と第2の言語による訳文との対応関係を含む履歴情報を作成する履歴作成部506と、翻訳部504が原稿の内容を第2の言語から他の言語に翻訳するときに、第2の言語により記載された原稿の内容が履歴情報に存在した場合、履歴情報には記載されていない内容を抽出する抽出部507と、翻訳部504により履歴情報には記載されていない内容を第2の言語から他の言語に翻訳した結果と、履歴情報に存在した内容を履歴情報に基づき第2の言語から当該他の言語に置き換えた結果とを合成する合成部508と、を備える翻訳装置。 【選択図】図5 |
||||||
64 | 音声認識装置および音声認識方法 | JP2015548915 | 2013-11-20 | JP6080978B2 | 2017-02-15 | 瀬戸 祐介 |
65 | 情報処理装置、操作システム、および、情報処理装置の操作方法 | JP2013003266 | 2013-01-11 | JP6029985B2 | 2016-11-24 | 関口 隆昭; 森 直樹; 清水 淳史 |
66 | 名前発音システム及び方法 | JP2014560055 | 2013-02-28 | JP6021956B2 | 2016-11-09 | ナイク, デヴァング ケー. |
67 | 言語モデル学習方法及び装置、言語認識方法及び装置 | JP2015210589 | 2015-10-27 | JP2016134169A | 2016-07-25 | 李 昊 潼; 李 鎬 式; 崔 喜 烈; 閔 允 泓; 柳 尚 賢; 李 禮 夏; 李 知 ▲ひょん▼; 崔 榮 相 |
【課題】 学習データから第1学習特徴ベクトル列と第2学習特徴ベクトル列を生成するステップを含む言語モデル学習方法及び装置を提供すること。 【解決手段】 言語モデル学習方法は、第1学習特徴ベクトル列に基づいて神経網の順方向推定を行い、前記第2学習特徴ベクトル列に基づいて神経網の逆方向推定を行う。言語モデル学習方法は順方向推定の結果と逆方向推定の結果に基づいて言語モデルを学習させることができる。 【選択図】 図1A |
||||||
68 | 電話の音声をテキストに転写するための言語を決定する方法および装置 | JP2015545676 | 2012-12-06 | JP2016502828A | 2016-01-28 | ロドリゲス、エセキエル ルイス |
【課題】音声メッセージをテキストに転写する効率を向上させること。【解決手段】本発明は、留守番電話システムが提供する、発信者と受信者との間の通話の音声からテキストへの転写において使用可能な複数の言語の中から言語を決定する方法、装置およびシステムを提供する。発信者に対応する電話国コード、受信者に対応する電話国コード、留守番電話システムによる転写に使用可能な言語の集合に含まれる言語、および、発信者または受信者によって設定されたパラメータに基づいて自動的に選択された言語に基づいて、前記使用可能な言語のうちの少なくとも2つの言語が発信者に提示される。発信者は、留守番電話システムとやり取りするための言語を選択する。対応する音声メッセージは選択された言語のテキストに転写され、受信者への転送の用に供される。【選択図】図1 | ||||||
69 | 音声翻訳装置、音声翻訳方法およびプログラム | JP2013194021 | 2013-09-19 | JP2015060095A | 2015-03-30 | KAMAYA SATOSHI; SUMITA KAZUO; KAWAMURA AKINORI |
【課題】会話の流れの中で使用される可能性の高い発音でも音声認識ができる音声翻訳装置、音声翻訳方法およびプログラムを提供する。【解決手段】実施形態の音声翻訳装置は、音声変換辞書を参照して、第1言語による音声を認識して原文テキストに変換する音声認識部と、前記第1言語による原文テキストを前記第2言語の訳文テキストに翻訳する翻訳部と、前記翻訳部によって翻訳された前記第2言語の訳文テキストの内、前記第2言語の音声を認識する前記音声認識辞書における未登録語を未知語として検出する未知語検出部と、前記未知語検出部が検出した前記未知語の発音を、前記第2言語における未知語の表記から第1発音候補を推定すると共に、前記未知語の第1言語における原言語単語の発音から第2発音候補を推定する発音推定部と、前記未知語と、推定された前記第1および第2発音候補とを対応づけて、前記音声認識辞書に登録する辞書更新部と、を備える。【選択図】図1 | ||||||
70 | ナビゲーション装置および方法 | JP2013533337 | 2011-09-13 | JPWO2013038440A1 | 2015-03-23 | 匠 武井; 友紀 古本 |
ユーザの認識語彙理解度に合わせて、ユーザへの案内(ガイダンス)のみではなく、案内、操作手順、操作画面および認識語彙のすべて、すなわち、案内、操作手順、操作画面および認識語彙から規定される操作遷移を変更して提示可能なナビゲーション装置としたことにより、認識語彙理解度の低いユーザにとってタスクを達成できる可能性を高めることや、認識語彙理解度の高いユーザにとって操作の快適性を向上することができ、すべてのユーザにとって最適な操作遷移を提示することができる。 | ||||||
71 | データを変換する装置及び方法 | JP2013188335 | 2013-09-11 | JP2015055979A | 2015-03-23 | SANUI TARO; SHIIKI HISAE; HATTORI YOICHI; HASHIMOTO KENSUKE |
【課題】複数のユーザが電子会議を行うシステムにおいて音声データを発言文字列に変換する際の精度を向上させる。【解決手段】電子会議システム1のサーバ20において、音声データ取得部21が、クライアント10から音声データを受信し、音声認識部22が、音声データに対応する音素データを取得し、変換候補抽出部24が、複数の音素データの各音素データに対して各音素データの変換候補を定義した変換辞書23を参照することにより、音素データの複数の変換候補を特定し、選択候補抽出部28が、複数のユーザが電子会議のセッション内で共通に閲覧する共通画面における複数の変換候補の表示状況を共有履歴記憶部27から取り出し参照して、複数の変換候補に点数を付与し、発言文字列決定部29が、この点数に基づいて、複数の変換候補から発言文字列を選択し、発言文字列をクライアント10に送信する。【選択図】図3 | ||||||
72 | 音声翻訳装置、方法およびプログラム | JP2012146880 | 2012-06-29 | JP5653392B2 | 2015-01-14 | 住田 一男; 一男 住田; 鈴木 博和; 博和 鈴木; 建太郎 降幡; 聡史 釜谷; 知野 哲朗; 哲朗 知野; 尚義 永江; 康顕 有賀; 貴史 益子 |
73 | Voice translation device, method and program | JP2012146880 | 2012-06-29 | JP2014010623A | 2014-01-20 | SUMITA KAZUO; SUZUKI HIROKAZU; KOHATA KENTARO; KAMAYA SATOSHI; CHINO TETSURO; NAGAE HISAYOSHI; ARIGA YASUAKI; MASUKO TAKASHI |
PROBLEM TO BE SOLVED: To achieve smooth and highly responsive voice translation.SOLUTION: A voice translation device according to an embodiment includes an acquisition unit, a voice recognition unit, a translation unit, a retrieval unit, a selection unit and an example presentation unit. The acquisition unit acquires speech in a first language as a voice signal. The voice recognition unit performs voice recognition about the voice signal sequentially, and acquires a first language character string of the voice recognition result. The translation unit translates the first language character string into a second language different from the first language, and acquires a second language character string of the translation result. The retrieval unit retrieves a similar example which is an example in the first language that resembles the first language character string for each first language character string, and if a similar example is present, acquires the similar example and a parallel translation example which is the result in which the similar example is translated into the second language. The selection unit, according to a user instruction, selects at least either the first language character string in which the similar example is present, or the second language character string in which the parallel translation example is present as a selected character string. The example presentation unit presents one or more of similar examples and parallel translation examples regarding the selected character string. | ||||||
74 | Speech understanding apparatus | JP2010011175 | 2010-01-21 | JP2010170137A | 2010-08-05 | NAKANO MIKIO; KATSUMARU MAKI; FUNAKOSHI KOTARO; OKUNO HIROSHI |
PROBLEM TO BE SOLVED: To provide a speech understanding apparatus which accurately understands an utterance. SOLUTION: The speech understanding apparatus 1 has: a speech recognition unit 20 which performs speech recognition of the utterance using multiple different language models; a language understanding unit 30 which uses the multiple different language understanding models to perform language understanding for each of speech recognition results output by the speech recognition unit 20 using the multiple different language model, and obtains multiple speech understanding results; and an integrating unit 40 which, on the basis of each of the speech understanding results, calculates utterance batch confidences, based on features obtained from likelihood of a sound model, the number of included concepts and confidence of each concept, and selects and outputs one of the speech understanding results with a highest utterance batch confidence among the calculated utterance batch confidences. COPYRIGHT: (C)2010,JPO&INPIT | ||||||
75 | Device, system, method and program for performing machine translation | JP2006261350 | 2006-09-26 | JP2008083855A | 2008-04-10 | KAMAYA SATOSHI; CHINO TETSURO; KOHATA KENTARO |
<P>PROBLEM TO BE SOLVED: To provide a machine translation device for performing translation with high precision. <P>SOLUTION: This machine translation device is provided with: a document accepting part 101 for accepting the input of a source language document including at least one source language sentence as a sentence constituted of source language; a translation part 102 for translating the source language document into a translation document, and for storing the translation document and ambiguous information in a storage part 120; a speech accepting part 103 for accepting speech in the source language; a voice recognition part 104 for voice-recognizing the accepted speech, and for generating a source language spoken sentence as the recognition result; a translation update part 105 for retranslating the ambiguous section of the source language sentence on the basis of the spoken content corresponding to the ambiguous section of the source language spoken sentence when there exists any ambiguous section in the source language sentence; and for updating the translation document stored in a storage part 120; and a display control part 106 for displaying the translation document. <P>COPYRIGHT: (C)2008,JPO&INPIT | ||||||
76 | Translation service providing method | JP2000106095 | 2000-04-07 | JP2001292234A | 2001-10-19 | KAGE GOZO; SUZUKI HIROMITSU |
PROBLEM TO BE SOLVED: To facilitate understanding between persons speaking different languages regardless of place or time. SOLUTION: When a line is connected, language information on the user's own language and the language of an opposite party, the telephone number of a first portable telephone and the telephone number of the second portable telephone of the opposite party are sent from the first portable telephone to a network together with translation request information (step 1). The network connects the first portable telephone and the second portable telephone through a prepared translation device (step 2). The translation device 6 translates the voice of the first portable telephone 1 and the voice of the second portable telephone 2 according to the language information and sends the translated result to the portable telephones of the participating parties (step 3). A charging device 7 previously prepared on the network 3 counts the time required for translation, charges on the time as a translation fee and adds it to a call tariff between the first portable telephone 1 and the second portable telephone 2 (step 4). COPYRIGHT: (C)2001,JPO | ||||||
77 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 | JP2016576013 | 2016-07-19 | JP2018530930A | 2018-10-18 | メーラ, シュチタ |
ある言語に対応するコンテンツを識別するためのシステムおよび方法が、提供される。第1のユーザによって話される言語が、第1のユーザから受信される口頭入力に基づいて、自動的に、音声認識回路を用いて、判定される。コンテンツソースのデータベースが、第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために相互参照される。データベース内の言語フィールドは、関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する。識別されたコンテンツソースの表現が、表示のために、第1のユーザに生成される。 | ||||||
78 | 翻訳装置および翻訳方法 | JP2018508780 | 2017-04-17 | JP6364629B2 | 2018-08-01 | 足立 祐介; 林 孝行 |
79 | 情報処理装置、及び、情報処理方法 | JP2017515431 | 2016-03-18 | JPWO2016174955A1 | 2018-02-15 | 足立 真希; 八尋 隆生; 井口 福也; 安友 健太; 加藤 寛 |
ユーザの音声を受け付け、音声に基づく処理を実行可能な情報処理装置について、ユーザの利便性を向上する。車載装置12の制御部20は、動作モードとして、非音声操作モードと、音声操作モードとを備え、動作モードが非音声操作モードの場合、タッチパネル26に操作ボタンを表示し、操作ボタンが操作されたことを検出した場合、操作された操作ボタンに対応する処理を実行し、動作モードが音声操作モードM2の場合、操作ボタンに代えて、操作ボタンに対応する処理を実行させる場合にユーザが発話すべき文言の例を示す文言例示画像をタッチパネル26に表示し、文言例示画像が示す文言に基づく音声データが生成された場合、操作ボタンに対応する処理を実行する。 | ||||||
80 | 再生装置、設定装置、再生方法およびプログラム | JP2014544412 | 2013-10-11 | JP6277958B2 | 2018-02-14 | 北谷 謙一 |