[go: up one dir, main page]

JP2018045686A - 機械翻訳装置及び機械翻訳方法 - Google Patents

機械翻訳装置及び機械翻訳方法 Download PDF

Info

Publication number
JP2018045686A
JP2018045686A JP2017165926A JP2017165926A JP2018045686A JP 2018045686 A JP2018045686 A JP 2018045686A JP 2017165926 A JP2017165926 A JP 2017165926A JP 2017165926 A JP2017165926 A JP 2017165926A JP 2018045686 A JP2018045686 A JP 2018045686A
Authority
JP
Japan
Prior art keywords
translation
score
hypothesis
unit
phrases
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017165926A
Other languages
English (en)
Other versions
JP6523388B2 (ja
Inventor
ヂァンシャン シュエ
Zhengshan Xue
ヂァンシャン シュエ
ダークン ヂァン
Dakun Zhang
ダークン ヂァン
ジーチョン グオ
Jichong Guo
ジーチョン グオ
ジェ ハオ
Jie Hao
ジェ ハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2018045686A publication Critical patent/JP2018045686A/ja
Application granted granted Critical
Publication of JP6523388B2 publication Critical patent/JP6523388B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

【課題】ユーザ履歴文書を用いることにより、機械翻訳結果の品質を向上できる機械翻訳の装置及び方法を提供する。【解決手段】機械翻訳装置500は、入力部、セグメンテーション部、翻訳オプション探索部、選択部、組み合せ部、翻訳仮説探索部及び増加部を備える。入力部は、第1言語文を入力する。セグメンテーション部は、第1言語文をセグメントし複数句を生成する。翻訳オプション探索部は、複数句の夫々に対応した第2言語の翻訳オプションについて翻訳モデルを探索する。選択部は、複数句の夫々に対し、翻訳モデルから第2言語文生成用の高確率を有する上位N個の翻訳オプションを選択する。組み合せ部は、複数句の夫々に対し前記上位N個の翻訳オプションを組み合せる事により複数の翻訳仮説を生成する。翻訳仮説探索部は、翻訳仮説についてユーザ履歴句ペアを探索する。増加部は、ユーザ履歴句ペアに存在する翻訳仮説のスコアを増加させる。【選択図】図5

Description

本発明の実施形態は、機械翻訳装置及び機械翻訳方法に関する。
現在、多数の機械翻訳(MT)システムが存在する。これらの中には、グーグル(Google) MT、百度(Baidu) MT、有道(Youdao) MT、シストラン(Systran)等の、オンラインMTシステムが含まれる。これらのMTシステムの品質は期待されたほど良くはないが、一般の翻訳要求に対しては役立っている。
我々(発明者)が専門文書を翻訳するためにMTシステムを用いる時、よりよい翻訳結果を得るのは困難であることが分かった。その理由は、既存の統計的なMTシステムは学習コーパスに基づいて全て得られており、全分野や人的表現の可能な全文章をカバーするだけの十分な学習コーパスを収集することが不可能だからである。従って既存の統計的MTシステムは、所定分野内については高品質の翻訳となるが、所定分野外については低品質の翻訳となる。所定分野内のテストセットについては、学習コーパス内のあるフラグメント(文の部分)がテストセット内のフラグメントと多かれ少なかれヒットする、又は全文とヒットすることさえある。しかしながら所定分野外のテストセットについては、学習コーパスとテストセット間では、ほぼ全てのフラグメントがヒットしない。このため、デコーディングプロセス(訳文生成処理)において、多数の未知語(OOVs = out of vocabulary)が生じる。結果として、所定分野外の翻訳結果の品質が非常に劣化する。何故ならば、専門文書は大概が所定分野外に属するためである。
US8630839号公報 US2007/0203688号公報 US2013/0144594号公報
Zhengxian Gong, Min Zhang, Guodong Zhou,"Cache-based Document-level Statistical Machine Translation", Proceeding of the 2011 Conference on Empirical Methods in Natural Language Processing, Pages 909-919, Edinburgh, Scotland, UK, July 27-31
本発明が解決しようとする課題は、ユーザ履歴文書(UHD)を用いることにより、機械翻訳結果の品質を向上できる機械翻訳装置及び機械翻訳方法を提供することである。
実施形態に係る機械翻訳装置は、入力部と、セグメンテーション部と、翻訳オプション探索部と、選択部と、組み合せ部と、翻訳仮説探索部と、増加部とを備える。入力部は第1言語文を入力する。セグメンテーション部は前記第1言語文をセグメントして複数句を生成する。翻訳オプション探索部は前記複数句の夫々に対応した第2言語の翻訳オプションについて、翻訳モデルを探索する。選択部は前記複数句の夫々に対して、前記翻訳モデルから、第2言語文生成用の高確率を有する上位N個(Nは1以上の整数)の翻訳オプションを選択する。組み合せ部は前記複数句の夫々に対して、前記上位N個の翻訳オプションを組み合わせることにより、複数の翻訳仮説を生成する。翻訳仮説探索部は前記翻訳仮説についてユーザ履歴句ペアを探索する。増加部は前記ユーザ履歴句ペアに存在する前記翻訳仮説のスコアを増加させる。
本発明の1実施形態に係る機械翻訳方法のフローチャートである。 本発明の他の実施形態に係る機械翻訳方法のフローチャートである。 本発明の1実施形態に係る機械翻訳プロセスの例を示す模式図である。 従来方法に係る機械翻訳プロセスの例を示す模式図である。 本発明の1実施形態に係る機械翻訳装置のブロック図である 本発明の他の実施形態に係る機械翻訳装置のブロック図である。
以下、図面を参照しながら、発明を実施するための実施形態について説明する。
<機械翻訳方法>
図1は本発明の1実施形態に係る、機械翻訳方法のフローチャートである。図1に示すように、先ずステップS101において、第1言語文を入力する。
本実施形態において、第1言語文は翻訳すべき文章である。この第1言語には制限がなく、英語、中国語、ドイツ語、日本語等、いずれの言語でもよい。
次にステップS105において、第1言語文がセグメント(検切り)されて、複数句が得られる。文のセグメント方法は当業者に周知のいかなる方法でもよい。これについて本実施形態は制限しない。
次にステップS110において、前記複数句の夫々に対応した第2言語の翻訳オプション(翻訳候補句)TOsについて、翻訳モデル10を探索する。
翻訳モデル10には、第1言語句と第2言語句を互いに並べた2カ国語ペアが存在する。ステップS110において、第1言語の各句に対応した第2言語の各句のTOsを、翻訳モデル10から探索する。
通常、各句に対応して複数のTOsが存在する。ここではT個の翻訳オプションが存在すると仮定する。本実施形態においては、計算の複雑さを軽減するため、ステップS115において、高確率を有する上位N個の翻訳オプションをデコード(訳文生成)用に選択する。ここでNは1以上の整数である。つまり、より高い確率(又は、より低いコスト)を有する上位N個の翻訳オプションが、以降のデコード(訳文生成)用に選択される。
次にステップS120において、前記複数句の上位N個の翻訳オプションを組み合わせて複数の翻訳仮説(THs)を生成する。THsを生成するためのTOsの組合せ方法は、当業者に周知の方法でよく、本実施形態はこれを制限しない。
次にS125において、前記複数の翻訳仮説について、ユーザ履歴句ペア20を探索する。
本実施形態においては、ユーザ2カ国語履歴文書に基づいてユーザ履歴句ペアを得る。先ず、MTのツールキットを用いた2カ国語履歴文書に基づいて、単語単位で揃えたコーパスを得る。そして単語対応付けルールを用いて、ユーザ履歴句ペアを得る。通常、句ペアを得るときには最大長をセットする。しかしながら本実施形態においては、ユーザ履歴句ペアについて最大長をセットしないことが望ましい。最大長をセットしない理由としては、以後のステップにおいて、翻訳仮説にボーナス(割増し点)を与えるためである。翻訳仮説は多くのTOsから構成される。各TOsの最大長は制限されるが、THの最大長は制限されない。
次にステップS130において、ユーザ履歴句ペア20に存在するTHのスコアが増加される。つまり、ユーザ履歴句ペア20に存在するTHのスコアにボーナスが与えられる。
本実施形態においては、THにボーナスを与える方法は、ユーザ履歴句ペア20内のTHの確率を単純に加算する方法、又はTHの長さを考慮してボーナスを与える方法である。ここで、THの長さが長いほどTHのスコアをより増加させる(即ちボーナスをより大きくする)のが望ましい。
この理由として、THをユーザ履歴句ペア20とマッチングさせる時、マッチング対象は文・句・単語であり、THが長いほどマッチング(一致)する確率が低くなる。従ってマッチング長が長いほどTHの信用性が高く、ボーナスがより大きくなるのである。
詳しくは、以下の式(1)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さである。
更に、ユーザ履歴句ペア20内のTHの確率は、式(1)に基づいて考慮できる。つまり、ユーザ履歴句ペア20内の翻訳仮説の長さやTHのスコアに基づいて、THのスコアが増加される。
詳しくは、以下の式(2)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さ、Score_in_UHP(TH)はユーザ履歴句ペア20内の翻訳仮説のスコアである。
本実施形態の機械翻訳方法によれば、機械翻訳の品質が効率的に向上する。又、ユーザ履歴句ペアに存在する翻訳仮説のスコアを増加させることにより、翻訳結果がユーザの習慣により適したものとなる。つまりユーザ分野適用が実現されると同時に、MTモデルの変更無しで機械翻訳の品質が効果的に向上する。
本発明の他の実施形態に係る機械翻訳方法のフローチャートである。
図2に示す様に、先ずステップS201において、第1言語文を入力する。
本実施形態においては、第1言語文は上記実施形態のそれと同じであり、詳細な説明は省略する。
次にステップS205において、第1言語文がセグメント(検切り)されて、複数句が得られる。文のセグメント方法は当業者に周知のいかなる方法でもよい。これについて本実施形態は制限しない。
次にステップS210において、前記複数句の夫々に対応した第2言語の翻訳オプション(翻訳候補句)TOsについて、翻訳モデル10を探索する。
翻訳モデル10には、第1言語句と第2言語句を互いに並べた2カ国語ペアが存在する。ステップS210において、第1言語の各句に対応した第2言語の各句のTOsについて、翻訳モデル10を探索する。
通常、各句に対応して複数のTOsが存在する。ここではT個の翻訳オプションが存在すると仮定する。本実施形態においては、計算の複雑さを軽減するため、ステップS215において、高確率を有する上位N個の翻訳オプションをデコード(訳文生成)用に選択する。ここでNは1以上の整数である。つまり、より高い確率(又は、より低いコスト)を有する上位N個の翻訳オプションが、以降のデコード(訳文生成)用に選択される。
次にステップS220において、上位N個の翻訳オプションとは異なるM個の翻訳オプションについて、ユーザ履歴句ペア20を探索する。ここでMは1以上の整数である。
本実施形態においては、ユーザ履歴句ペア20は上記実施形態のそれと同じであり、詳細な説明を省略する。
ステップS215において、T個のTOsから(高確率を有する)上位N個のTOsを選択する。ステップS220において、選択されなかった(T-N)個のTOsと、ユーザ履歴句ペア20との間で、交差(共通句)を求めることが望ましい。ここではM個の共通句が得られたと仮定する。M個のTOsとN個のTOsが上記のように選択され、最終のデコードプロセス(訳文生成)において共に使用される。
本実施形態の機械翻訳方法においては、翻訳モデル内では低い確率を有するがUHD(ユーザ履歴文書)とは関連性の高いTOsが、最終のデコーディングプロセス(訳文生成)で使用できるように選択される。従ってより良い翻訳が得られる確率が向上する。入力文用のUHDに存在する句は少数であるため、デコーディングの複雑さは影響しない。
つまり本実施形態の機械翻訳方法においては、機械翻訳の品質が効果的に向上する。又、低確率(デコーディングプロセスで使用する機会の無い)を有するがユーザと関連性の高い翻訳オプションをデコーディングプロセスで使用することにより、翻訳結果がユーザの習慣により適したものとなる。ユーザ分野適用を実用化すると同時に、MTモデルの変更無しで機械翻訳の品質が効果的に向上する。
更に、図2に示す機械翻訳方法と、図1に示す機械翻訳方法を組み合わせることも可能である。つまり図2に示す機械翻訳方法のステップS220の後で、図1に示す機械翻訳方法のステップS120,S125,s130を行なうことも可能である。
特にステップS220の後で、複数句から、ステップS215で選択された上位N個のTOsと、ステップS220で選択されたM個のTOs、つまり(N+M)個のTOsを組み合わせて複数のTHsを生成することができる。
次に、前記複数のTHsについて、ユーザ履歴句ペア20を探索する。
次に、ユーザ履歴句ペア20に存在するTHのスコアを増加させる。つまり、ユーザ履歴句ペア20に存在するTHにボーナスを与える(加点)。
本実施形態においては、THにボーナスを与える方法は、ユーザ履歴句ペア20内のTHの確率を単純に加える方法、THの長さを考慮してボーナスを与える方法でよい。ここで、THの長さが長いほどTHのスコアを増加させる、つまりボーナスを大きくすることが望ましい。
この理由として、THをユーザ履歴句ペア20とマッチングさせる時、マッチング対象は文・句・単語であり、THが長いほどマッチング(一致)する確率が低くなる。従ってマッチング長が長いほどTHの信用性が高く、ボーナスがより大きくなるのである。
詳しくは、以下の式(1)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さである。
更に、ユーザ履歴句ペア20内のTHの確率は、式(1)に基づいて考慮できる。つまり、ユーザ履歴句ペア20内の翻訳仮説の長さやTHのスコアに基づいて、THのスコアが増加される。
詳しくは、以下の式(2)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さ、Score_in_UHP(TH)はユーザ履歴句ペア20内の翻訳仮説のスコアである。
本実施形態の機械翻訳方法によれば、機械翻訳の品質が効率的に向上する。又、ユーザ履歴句ペアに存在する翻訳仮説のスコアを増加させることにより、翻訳結果がユーザの習慣により適したものとなる。つまりユーザ分野適用が実現されると同時に、MTモデルの変更無しで機械翻訳の品質が効果的に向上する。
次に、本機械翻訳方法の翻訳処理の例について図3を参照して説明する。図3は本実施形態に係る機械翻訳処理の例の模式図である。
図3に示す様に、翻訳すべき文30はドイツ語文「er geht ja nicht nach hause」である。
ステップS205において、ドイツ語文が複数句40にセグメントされる。
ステップS210において、セグメントされた各句に対応するTOs(翻訳候補句)について、翻訳モデル10を探索する。ステップS215において、各句に対して、高確率を有する上位4個のTOsが選択される。これは図3の参照番号50で示される。「er」を例にとると、選択されたTOsは「.he」「it」「,it」「,he」である。
次にステップS220において、(翻訳モデル10内で)選択されなかったTOsと、ユーザ履歴句ペア20との間で交差(共通句)が得られる。句「er」「geht」「ja nicht」については、これらの句に対応するTOs「he」「go」「does not」、つまりM個(各句に1個ずつで計3個)のTOsが得られる。
次にステップS120において、各句について、上位4個のTOsとM個のTOsを組み合わせて、複数のTHs(翻訳仮説)60が得られる。
次にステップS125において、複数のTHs(翻訳仮説)60とユーザ履歴句ペア20をマッチングして、ユーザ履歴句ペア20に存在する2個のTHs「he does not 0.22」「go home 0.02」を得る。ユーザ履歴句ペア20内の夫々の確率は「0.42」「0.29」である。
次に、2個のTHsにボーナスが与えられる。ここではユーザ履歴句20内の同じTHsの確率を単純に加算することにより、ボーナス付きのTHs「he does not 0.64」「go home 0.31」が得られる。これは図3の参照番号70で示される。
次に、これら複数のTHsを組み合わせて翻訳候補80を生成する。
最後に、最高のスコアを有する翻訳候補「he does not go home 0.015」が最終翻訳結果として選択される。
一方、従来方法の翻訳処理の例について図4を参照して説明する。図4は従来の機械翻訳処理の例の模式図である。
図4に示す様に、翻訳モデル10を用いてTOs(翻訳候補句)を得た後、他のTOsがユーザ履歴句ペアを用いて追加されない。更に、THs(翻訳仮説)が得られた後、ユーザ翻訳句ペアを用いてボーナスがTHsに与えられない。最終的に得られる翻訳結果は「.he do not go home 0.0059」である。
以上より明らかな様に、図4の従来方法と比較して、本実施形態の機械翻訳方法は、デコード(訳文生成)用のユーザ履歴文書と高い関連性を有するTOs(翻訳候補句)を選択し、更には、ユーザ履歴句ペアを用いてTHs(翻訳仮説)にボーナスを与えることにより、機械翻訳結果の品質が効果的に向上する。従って、より高品質でユーザ習慣により適した翻訳結果が得られる。
<機械翻訳装置>
図5は同じ発明概念下での、本発明の他の実施形態に係る、機械翻訳装置500のブロック図である。次に、図を参照して本実施形態を説明する。前記実施形態と同じ部分については説明を省略する。
本実施形態の機械翻訳装置500は、入力部501、セグメンテーション部505、翻訳オプション探索部510、選択部515、組み合せ部520、翻訳仮説探索部525、増加部530を含む。機械翻訳装置500はコンピュータ装置として実現できる。コンピュータ装置500はメモリ(図5に示していない)からプログラムを読み出し、メモリ内で該プログラムを展開し実行する。この時、入力部501、セグメンテーション部505、翻訳オプション探索部510、選択部515、組み合せ部520、翻訳仮説探索部525、増加部530の各機能が回路機構として実現できるように実行する。
図5に示す様に、第1言語文が入力部501に入力される。
本実施形態においては、第1言語文が翻訳すべき文章である。この第1言語には制限がなく、英語、中国語、ドイツ語、日本語等、いずれの言語でもよい。
第1言語文がセグメンテーション部505でセグメント(検切り)されて、複数句が得られる。文のセグメント方法は当業者に周知のいかなる方法でもよい。これについて本実施形態は制限しない。
前記複数句の夫々に対応した第2言語の翻訳オプション(翻訳候補句)TOsについて、翻訳オプション探索部510が翻訳モデル10を探索する。
翻訳モデル10には、第1言語句と第2言語句を互いに並べた2カ国語ペアが存在する。第1言語の各句に対応した第2言語の各句のTOsについて、翻訳モデル10が翻訳オプション探索部510によって探索される。
通常、各句(第1言語)に対応して複数のTOs(第2言語)が存在する。ここではT個の翻訳オプション(翻訳候補句)TOsが存在すると仮定する。本実施形態においては、計算の複雑さを軽減するため、選択部515によって、高確率を有する上位N個の翻訳オプションを、以降のデコード(訳文生成)用に選択する。ここでNは1以上の整数である。つまり、より高い確率(又は、より低いコスト)を有する上位N個の翻訳オプションが、以降のデコード(訳文生成)用に選択される。
組み合せ部520によって、前記複数句の夫々の、上位N個の翻訳オプションを組み合わせて複数の翻訳仮説(THs)を生成する。THsを生成するためのTOsの組み合せ方法は、当業者に周知の方法でよく、本実施形態はこれを制限しない。
翻訳仮説探索部525は、前記複数の翻訳仮説(THs)について、ユーザ履歴句ペア20を探索する。
本実施形態においては、ユーザ2カ国語履歴文書に基づいてユーザ履歴句ペアを得る。先ず、MTのツールキットを用いた2カ国語履歴文書に基づいて、単語単位で揃えたコーパスを得る。そして単語対応付けルールを用いて、ユーザ履歴句ペアを得る。通常、句ペアを得るときには最大長をセットする。しかしながら本実施形態においては、ユーザ履歴句ペアについて最大長をセットしないことが望ましい。最大長をセットしない理由としては、以後のステップにおいて翻訳仮説にボーナス(割増し点)を与えるためである。翻訳仮説は多くのTOsから構成される。各TOsの最大長は制限されるが、THの最大長は制限されない。
増加部530によって、ユーザ履歴句ペア20に存在するTHのスコアが増加される。つまり、ユーザ履歴句ペア20に存在するTHのスコアにボーナスが与えられる(加点)。
本実施形態においては、THにボーナスを与える方法は、ユーザ履歴句ペア20内のTHの確率を単純に加算する方法、又はTHの長さを考慮してボーナスを与える方法である。ここで、THの長さが長いほどTHのスコアを増加させる(即ちボーナスをより大きくする)のが望ましい。
この理由として、THをユーザ履歴句ペア20とマッチングさせる時、マッチング対象は文・句・単語であり、THが長いほどマッチング(一致)する確率が低くなる。従ってマッチング長が長いほどTHの信用性が高く、ボーナスがより大きくなるのである。
詳しくは、以下の式(1)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さである。
更に、ユーザ履歴句ペア20内のTHの確率は、式(1)に基づいて考慮できる。つまり、ユーザ履歴句ペア20内の翻訳仮説の長さやTHのスコアに基づいて、THのスコアが増加される。
詳しくは、以下の式(2)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さ、Score_in_UHP(TH)はユーザ履歴句ペア20内の翻訳仮説のスコアである。
本実施形態の機械翻訳装置500によれば、機械翻訳の品質が効率的に向上する。又、ユーザ履歴句ペアに存在する翻訳仮説のスコアを増加させることにより、翻訳結果がユーザの習慣により適したものとなる。つまりユーザ分野適用が実現されると同時に、MTモデルの変更無しで機械翻訳の品質が効果的に向上する。
図6は本発明の他の実施形態に係る、機械翻訳装置600のブロック図である。
本実施形態の機械翻訳装置600は、入力部601、セグメンテーション部605、第1翻訳オプション探索部610、選択部615、第2翻訳オプション探索部620を含む。機械翻訳装置600はコンピュータ装置として実現できる。コンピュータ装置600はメモリ(図6に示していない)からプログラムを読み出し、メモリ内で該プログラムを展開し実行する。この時、入力部601、セグメンテーション部605、第1翻訳オプション探索部610、選択部615、第2翻訳オプション探索部620の各機能が回路機構として実現できるように実行する。
図6に示す様に、第1言語文が入力部601に入力される。
本実施形態においては、第1言語文は上記実施形態のそれと同じであり、詳細な説明は省略する。
セグメンテーション部605によって、第1言語文がセグメント(検切り)されて、複数句が得られる。文のセグメント方法は当業者に周知のいかなる方法でもよい。これについて本実施形態は制限しない。
前記複数句の夫々に対応した第2言語の翻訳オプション(翻訳候補句)TOsについて、第1翻訳オプション探索部610が翻訳モデル10を探索する。
翻訳モデル10には、第1言語句と第2言語句を互いに並べた2カ国語ペアが存在する。第1翻訳オプション探索部610によって、第1言語の各句に対応した第2言語の各句のTOsについて、翻訳モデル10が探索される。
通常、第1言語の各句に対応して複数のTOs(第2言語)が存在する。ここではT個の翻訳オプション(翻訳候補句)が存在すると仮定する。本実施形態においては、計算の複雑さを軽減するため、選択部615によって、高確率を有する上位N個の翻訳オプションをデコード(訳文生成)用に選択する。ここでNは1以上の整数である。つまり、より高い確率(又は、より低いコスト)を有する上位N個の翻訳オプションが、以降のデコード(訳文生成)用に選択される。
第2翻訳オプション探索部620によって、上位N個の翻訳オプションとは異なるM個の翻訳オプションについて、ユーザ履歴句ペア20を探索する。ここでMは1以上の整数である。
本実施形態においては、ユーザ履歴句ペア20は上記実施形態のそれと同じであり、詳細な説明を省略する。
選択部615によって、T個のTOsから(高確率を有する)上位N個のTOsを選択する。第2翻訳オプション探索部620は、選択されなかった(T-N)個のTOsと、ユーザ履歴句ペア20との間で、交差(共通句)を求めることが望ましい。ここではM個の共通句が得られたと仮定する。M個のTOsとN個のTOsが上記のように選択され、最終のデコーディングプロセス(訳文生成)において共に使用される。
本実施形態の機械翻訳装置600においては、翻訳モデル内では低い確率を有するがUHD(ユーザ履歴文書)とは関連性の高いTOs(翻訳候補句)が、最終のデコーディング(訳文生成)プロセスで使用できるように選択される。従ってより良い翻訳が得られる確率が向上する。ここで、入力文用のUHDに存在する句は少数であるため、デコーディングの複雑さは影響しない。
つまり本実施形態の機械翻訳装置600によれば、機械翻訳の品質が効果的に向上する。又、低確率(デコーディングプロセスで使用する機会の無い)を有するがユーザとは関連性の高い翻訳オプションをデコーディングプロセスで使用することにより、翻訳結果がユーザの習慣により適したものとなる。ユーザ分野適用を実用化すると同時に、MTモデルの変更無しで機械翻訳の品質が効果的に向上する。
更に、図5に示す機械翻訳装置と、図6に示す機械翻訳装置を組み合わせることも可能である。つまり図6に示す機械翻訳装置が、図5に示す機械翻訳装置の組み合せ部520、翻訳仮説探索部525、増加部530を備えてもよい。
特に、複数句から、選択部615で選択された上位N個のTOsと、第2翻訳オプション探索部620で選択されたM個のTOs、つまり(N+M)個のTOsを組み合わせて複数のTHs(翻訳仮説)を生成することができる。
翻訳仮説探索部525によって、前記複数のTHsについて、ユーザ履歴句ペア20を探索する。
増加部530によって、ユーザ履歴句ペア20に存在するTHのスコアが増加される。つまり、ユーザ履歴句ペア20に存在するTHにボーナスが与えられる。
本実施形態においては、THにボーナスを与える方法は、ユーザ履歴句ペア20内のTHの確率を単純に加える方法、THの長さを考慮してボーナスを与える方法でよい。ここで、THの長さが長いほどTHのスコアを増加させる、つまりボーナスを大きくすることが望ましい。
この理由として、THをユーザ履歴句ペア20とマッチングさせる時、マッチング対象は文・句・単語であり、THが長いほどマッチング(一致)する確率が低くなる。従ってマッチング長が長いほどTHの信用性が高く、ボーナスがより大きくなるのである。
詳しくは、以下の式(1)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さである。
更に、ユーザ履歴句ペア20内のTHの確率は、式(1)に基づいて考慮できる。つまり、ユーザ履歴句ペア20内の翻訳仮説の長さやTHのスコアに基づいて、THのスコアが増加される。
詳しくは、以下の式(2)に基づいてボーナスが与えられるのが望ましい。
ここで、Score(TH)は翻訳仮説を増加した後のスコア、Score_before(TH)は翻訳仮説を増加する前のスコア、Length(TH)は翻訳仮説の長さ、Score_in_UHP(TH)はユーザ履歴句ペア20内の翻訳仮説のスコアである。
本実施形態の機械翻訳装置によれば、機械翻訳の品質が効率的に向上する。又、ユーザ履歴句ペアに存在する翻訳仮説のスコアを増加させることにより、翻訳結果がユーザの習慣により適したものとなる。つまりユーザ分野適用が実現されると同時に、MTモデルの変更無しで機械翻訳の品質が効果的に向上する。
本機械翻訳装置の翻訳処理の例について図3を参照して説明する。図3は本実施形態に係る機械翻訳装置の例の模式図である。
図3に示す様に、翻訳すべき文30はドイツ語文「er geht ja nicht nach hause」である。
セグメンテーション部605によって、ドイツ語文が複数句40にセグメントされる。
セグメントされた各句に対応するTOsについて、第1翻訳オプション探索部610が翻訳モデル10を探索する。選択部615によって、各句に対して、高確率を有する上位4個のTOsが選択される。これは図3の参照番号50で示される。「er」を例にとると、選択されたTOsは「.he」「it」「,it」「,he」である。
第2翻訳オプション探索部620によって、(翻訳モデル10内で)選択されなかったTOsと、ユーザ履歴句ペア20との間で交差(共通句)が得られる。句「er」「geht」「ja nicht」については、これらの句に対応するTOs「he」「go」「does not」、つまりM個(各句に1個ずつで計3個)のTOsが得られる。
組み合せ部520によって、各句について、上位4個のTOsとM個のTOsを組み合わせて、複数のTHs(翻訳仮説)60が得られる。
翻訳仮説探索部525によって、複数のTHs(翻訳仮説)60とユーザ履歴句ペア20をマッチングして、ユーザ履歴句ペア20に存在する2個のTHs「he does not 0.22」「go home 0.02」が得られる。ユーザ履歴句ペア20内の夫々の確率は「0.42」「0.29」である。
増加部530によって、2個のTHsにボーナスが与えられる。ここではユーザ履歴句20内の同じTHsの確率を単純に加算することにより、ボーナス付きのTHs「he does not 0.64」「go home 0.31」が得られる。これは図3の参照番号70で示される。
次に、これら複数のTHsを組み合わせて翻訳候補80を生成する。
最後に、最高のスコアを有する翻訳候補「he does not go home 0.015」が最終翻訳結果として選択される。
一方、従来装置の翻訳処理の例について図4を参照して説明する。図4は従来の機械翻訳処理の例の模式図である。
図4に示す様に、翻訳モデル10を用いてTOs(翻訳候補句)を得た後、他のTOsがユーザ翻訳句ペアを用いて追加されない。更には、THs(翻訳仮説)が得られた後、ユーザ翻訳句ペアを用いてボーナスがTHsに与えられない。最終的に得られる翻訳結果は「.he do not go home 0.0059」である。
上記より明らかな様に、図4の従来方法と比較して、本実施形態の機械翻訳装置は、デコード(訳文生成)用のユーザ履歴文書と高い関連性を有するTOs(翻訳候補句)を選択し、ユーザ履歴句ペアを用いてTHs(翻訳仮説)にボーナスを与えることにより、機械翻訳の品質が効果的に向上する。従って、より高品質でユーザ習慣により適した翻訳結果が得られる。
本発明に係る機械翻訳装置及び機械翻訳方法は、各実施形態として詳細に説明したが、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、様々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10・・・翻訳モデル
20・・・ユーザ履歴句ペア
500、600・・・機械翻訳装置
501、601・・・入力部
505、605・・・セグメンテーション部
510・・・翻訳オプション探索部
515、615・・・選択部
520・・・組み合せ部
525・・・翻訳仮説探索部
530・・・増加部
610・・・第1翻訳オプション探索部
620・・・第2翻訳オプション探索部

Claims (14)

  1. 第1言語文を入力するための入力部と、
    前記第1言語文をセグメントして複数句を生成するセグメンテーション部と、
    前記複数句の夫々に対応した第2言語の翻訳オプションについて、翻訳モデルを探索する翻訳オプション探索部と、
    前記複数句の夫々に対して、前記翻訳モデルから、第2言語文生成用の高確率を有する上位N個(Nは1以上の整数)の翻訳オプションを選択する選択部と、
    前記複数句の夫々に対して、前記上位N個の翻訳オプションを組み合わせることにより、複数の翻訳仮説を生成する組み合せ部と、
    前記翻訳仮説についてユーザ履歴句ペアを探索する翻訳仮説探索部と、
    前記ユーザ履歴句ペアに存在する前記翻訳仮説のスコアを増加させる増加部と、
    を有することを特徴とする機械翻訳装置。
  2. 前記増加部は、前記翻訳仮説の長さが長いほど、前記翻訳仮説のスコアをより増加させるものである、
    請求項1に記載の機械翻訳装置。
  3. 前記増加部は、下記の式(1)に基づいて前記翻訳仮説のスコアを増加させるものである、
    Score(TH):前記翻訳仮説を増加させた後のスコア
    Score_before(TH):前記翻訳仮説を増加させる前のスコア
    Length(TH):前記翻訳仮説の長さ
    請求項2に記載の機械翻訳装置。
  4. 前記増加部は、前記翻訳仮説の長さと、前記ユーザ履歴句ペアに存在する翻訳仮説のスコアに基づいて、前記翻訳仮説のスコアを増加させるものである、
    請求項1に記載の機械翻訳装置。
  5. 前記増加部は、下記の式(2)に基づいて前記翻訳仮説のスコアを増加させるものである、
    Score(TH):前記翻訳仮説の増加後のスコア
    Score_before(TH):前記翻訳仮説の増加前のスコア
    Length(TH):前記翻訳仮説の長さ
    Score_in_UHP(TH):前記ユーザ履歴句ペアに存在する翻訳仮説のスコア
    請求項4に記載の機械翻訳装置。
  6. 第1言語文を入力するための入力部と、
    前記第1言語文をセグメントして複数句を生成するセグメンテーション部と、
    前記複数句の夫々に対応した第2言語の翻訳オプションについて、翻訳モデルを探索する第1翻訳オプション探索部と、
    前記複数句の夫々に対して、前記翻訳モデルから、第2言語文生成用の高確率を有する上位N個(Nは1以上の整数)の翻訳オプションを選択する選択部と、
    前記上位N個の翻訳オプションとは異なるM個(Mは1以上の整数)の翻訳オプションをユーザ履歴句ペアから探索する第2翻訳オプション探索部と、
    を有することを特徴とする音声翻訳装置。
  7. 前記複数句の夫々に対して、上位N個の翻訳オプションとM個の翻訳オプションを組み合わせることにより、複数の翻訳仮説を生成する組み合せ部と、
    前記翻訳仮説について前記ユーザ履歴句ペアを探索する翻訳仮説探索部と、
    前記ユーザ履歴句ペアに存在する前記翻訳仮説のスコアを増加させる増加部と、
    を更に備える請求項6に記載の機械翻訳装置。
  8. 前記第2翻訳オプション探索部は、前記ユーザ履歴句ペアと、前記翻訳モデルから選択されなかった翻訳オプションとの間の共通句を求めるものである、
    請求項6に記載の機械翻訳装置。
  9. 前記増加部は、前記翻訳仮説の長さが長いほど、前記翻訳仮説のスコアをより増加させるものである、
    請求項7に記載の機械翻訳装置。
  10. 前記増加部は、下記の式(1)に基づいて前記翻訳仮説のスコアを増加させるものである、
    Score(TH):前記翻訳仮説の増加後のスコア
    Score_before(TH):前記翻訳仮説の増加前のスコア
    Length(TH):前記翻訳仮説の長さ
    請求項9に記載の機械翻訳装置。
  11. 前記増加部は、前記翻訳仮説の長さと、前記ユーザ履歴句ペアに存在する翻訳仮説のスコアに基づいて、前記翻訳仮説のスコアを増加させるものである、
    請求項7に記載の機械翻訳装置。
  12. 前記増加部は、下記の式(2)に基づいて前記翻訳仮説のスコアを増加させるものである、
    Score(TH):前記翻訳仮説の増加後のスコア
    Score_before(TH):前記翻訳仮説の増加前のスコア
    Length(TH):前記翻訳仮説の長さ
    Score_in_UHP(TH):前記ユーザ履歴句ペアに存在する翻訳仮説のスコア
    請求項11に記載の機械翻訳装置。
  13. 第1言語文を入力するステップと、
    前記第1言語文をセグメントして複数句を生成するステップと、
    前記複数句の夫々に対応した第2言語の翻訳オプションについて、翻訳モデルを探索するステップと、
    前記複数句の夫々に対して、前記翻訳モデルから、第2言語文生成用の高確率を有する上位N個(Nは1以上の整数)の翻訳オプションを選択するステップと、
    前記複数句の夫々に対して、前記上位N個の翻訳オプションを組み合わせることにより、複数の翻訳仮説を生成するステップと、
    前記翻訳仮説についてユーザ履歴句ペアを探索するステップと、
    前記ユーザ履歴句ペアに存在する前記翻訳仮説のスコアを増加させるステップと、
    を備えたことを特徴とする機械翻訳方法。
  14. 第1言語文を入力するステップと、
    前記第1言語文をセグメントして複数句を生成するステップと、
    前記複数句の夫々に対応した第2言語の翻訳オプションについて、翻訳モデルを探索するステップと、
    前記複数句の夫々に対して、前記翻訳モデルから、第2言語文生成用の高確率を有する上位N個(Nは1以上の整数)の翻訳オプションを選択するステップと、
    前記上位N個の翻訳オプションとは異なるM個(Mは1以上の整数)の翻訳オプションをユーザ履歴句ペアから探索するステップと、
    を備えたことを特徴とする機械翻訳方法。
JP2017165926A 2016-09-13 2017-08-30 機械翻訳装置及び機械翻訳方法 Expired - Fee Related JP6523388B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610819758.7A CN107818086B (zh) 2016-09-13 2016-09-13 机器翻译方法和装置
CN201610819758.7 2016-09-13

Publications (2)

Publication Number Publication Date
JP2018045686A true JP2018045686A (ja) 2018-03-22
JP6523388B2 JP6523388B2 (ja) 2019-05-29

Family

ID=61560046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017165926A Expired - Fee Related JP6523388B2 (ja) 2016-09-13 2017-08-30 機械翻訳装置及び機械翻訳方法

Country Status (3)

Country Link
US (1) US10496758B2 (ja)
JP (1) JP6523388B2 (ja)
CN (1) CN107818086B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110489761B (zh) * 2018-05-15 2021-02-02 科大讯飞股份有限公司 一种篇章级文本翻译方法及装置
CN109327614B (zh) * 2018-10-17 2021-01-26 永德利硅橡胶科技(深圳)有限公司 全球同声传译手机及方法
CN109088995B (zh) * 2018-10-17 2020-11-13 永德利硅橡胶科技(深圳)有限公司 支持全球语言翻译的方法及手机
CN114139560B (zh) * 2021-12-03 2022-12-09 山东诗语信息科技有限公司 基于人工智能翻译系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004446A (ja) * 2005-06-23 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 機械翻訳装置、その方法およびプログラム
JP2007052307A (ja) * 2005-08-19 2007-03-01 Advanced Telecommunication Research Institute International 音声認識結果の検査装置及びコンピュータプログラム
JP2007226729A (ja) * 2006-02-27 2007-09-06 Fujitsu Ltd 訳語情報出力処理プログラム,処理方法および処理装置
US20090281789A1 (en) * 2008-04-15 2009-11-12 Mobile Technologies, Llc System and methods for maintaining speech-to-speech translation in the field
US20090326912A1 (en) * 2006-08-18 2009-12-31 Nicola Ueffing Means and a method for training a statistical machine translation system
JP2010033418A (ja) * 2008-07-30 2010-02-12 Sharp Corp 携帯型翻訳装置およびそれを用いた翻訳文の出力方法
JP2011524991A (ja) * 2008-04-15 2011-09-08 モバイル テクノロジーズ,エルエルシー 現場にて音声−音声翻訳をメンテナンスするシステム及び方法
US20140006003A1 (en) * 2005-06-17 2014-01-02 Radu Soricut Trust scoring for language translation systems

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2480398C (en) * 2002-03-27 2011-06-14 University Of Southern California Phrase-based joint probability model for statistical machine translation
US7353165B2 (en) * 2002-06-28 2008-04-01 Microsoft Corporation Example based machine translation system
US7249012B2 (en) * 2002-11-20 2007-07-24 Microsoft Corporation Statistical method and apparatus for learning translation relationships among phrases
US7552053B2 (en) * 2005-08-22 2009-06-23 International Business Machines Corporation Techniques for aiding speech-to-speech translation
US8209163B2 (en) * 2006-06-02 2012-06-26 Microsoft Corporation Grammatical element generation in machine translation
JP5082374B2 (ja) 2006-10-19 2012-11-28 富士通株式会社 フレーズアラインメントプログラム、翻訳プログラム、フレーズアラインメント装置およびフレーズアラインメント方法
CN101271451A (zh) * 2007-03-20 2008-09-24 株式会社东芝 计算机辅助翻译的方法和装置
JP5100445B2 (ja) * 2008-02-28 2012-12-19 株式会社東芝 機械翻訳する装置および方法
KR101762866B1 (ko) * 2010-11-05 2017-08-16 에스케이플래닛 주식회사 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법
US9323746B2 (en) * 2011-12-06 2016-04-26 At&T Intellectual Property I, L.P. System and method for collaborative language translation
JP2014078132A (ja) * 2012-10-10 2014-05-01 Toshiba Corp 機械翻訳装置、方法およびプログラム
US10025778B2 (en) * 2013-06-09 2018-07-17 Microsoft Technology Licensing, Llc Training markov random field-based translation models using gradient ascent
JP2015060095A (ja) * 2013-09-19 2015-03-30 株式会社東芝 音声翻訳装置、音声翻訳方法およびプログラム
US20150347397A1 (en) * 2014-06-03 2015-12-03 Xerox Corporation Methods and systems for enriching statistical machine translation models
CN105068998B (zh) * 2015-07-29 2017-12-15 百度在线网络技术(北京)有限公司 基于神经网络模型的翻译方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140006003A1 (en) * 2005-06-17 2014-01-02 Radu Soricut Trust scoring for language translation systems
JP2007004446A (ja) * 2005-06-23 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 機械翻訳装置、その方法およびプログラム
JP2007052307A (ja) * 2005-08-19 2007-03-01 Advanced Telecommunication Research Institute International 音声認識結果の検査装置及びコンピュータプログラム
JP2007226729A (ja) * 2006-02-27 2007-09-06 Fujitsu Ltd 訳語情報出力処理プログラム,処理方法および処理装置
US20090326912A1 (en) * 2006-08-18 2009-12-31 Nicola Ueffing Means and a method for training a statistical machine translation system
US20090281789A1 (en) * 2008-04-15 2009-11-12 Mobile Technologies, Llc System and methods for maintaining speech-to-speech translation in the field
JP2011524991A (ja) * 2008-04-15 2011-09-08 モバイル テクノロジーズ,エルエルシー 現場にて音声−音声翻訳をメンテナンスするシステム及び方法
JP2010033418A (ja) * 2008-07-30 2010-02-12 Sharp Corp 携帯型翻訳装置およびそれを用いた翻訳文の出力方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
安田隆浩 外3名: "Khafra:語順並べ替えモデルに対応した動的計画法に基づくSMTデコーダ", 言語処理学会第16回年次大会発表論文集, JPN6018034304, 8 March 2010 (2010-03-08), JP, pages 625 - 628, ISSN: 0003871193 *
青木 優,山本 和英: "個人適応による英日翻訳での訳語候補の順位付け", 言語処理学会第12回年次大会発表論文集, JPN6018034306, 13 March 2006 (2006-03-13), JP, pages 260 - 263, ISSN: 0003871194 *

Also Published As

Publication number Publication date
US20180075022A1 (en) 2018-03-15
JP6523388B2 (ja) 2019-05-29
CN107818086B (zh) 2021-08-10
CN107818086A (zh) 2018-03-20
US10496758B2 (en) 2019-12-03

Similar Documents

Publication Publication Date Title
CN107870901B (zh) 从翻译源原文生成相似文的方法、记录介质、装置以及系统
Hagen et al. Webis: An ensemble for twitter sentiment detection
US10679014B2 (en) Method for providing translation information, non-transitory computer-readable recording medium, and translation information providing apparatus
US20140163951A1 (en) Hybrid adaptation of named entity recognition
US20160321239A1 (en) System and method for inputting text into electronic devices
US20130144592A1 (en) Automatic Spelling Correction for Machine Translation
CN110678868B (zh) 翻译支持系统、装置和方法以及计算机可读介质
JP6523388B2 (ja) 機械翻訳装置及び機械翻訳方法
US10853569B2 (en) Construction of a lexicon for a selected context
JP2016532916A (ja) 単語訳取得方法
JP6817556B2 (ja) 類似文生成方法、類似文生成プログラム、類似文生成装置及び類似文生成システム
CN107861937B (zh) 对译语料库的更新方法、更新装置以及记录介质
US11227116B2 (en) Translation device, translation method, and program
Tran et al. A Character Level Based and Word Level Based Approach for Chinese‐Vietnamese Machine Translation
US10055404B2 (en) Translation apparatus
JP2014194668A (ja) 翻訳支援装置、翻訳支援システムおよび翻訳支援プログラム
Finch et al. Transliteration using a phrase-based statistical machine translation system to re-score the output of a joint multigram model
Das et al. A study of attention-based neural machine translation model on Indian languages
Singh et al. Urdu to Punjabi machine translation: an incremental training approach
JP6478382B2 (ja) 翻訳装置
CN112541062A (zh) 平行语料对齐方法、装置、存储介质及电子设备
Liu et al. A hybrid ranking approach to Chinese spelling check
JPWO2020003928A1 (ja) エンティティ特定システム
JP2016189154A (ja) 翻訳方法、装置、及びプログラム
Tran et al. Handling organization name unknown word in Chinese-Vietnamese machine translation.

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190425

R151 Written notification of patent or utility model registration

Ref document number: 6523388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees