JP2019008742A - 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム - Google Patents
学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム Download PDFInfo
- Publication number
- JP2019008742A JP2019008742A JP2017126710A JP2017126710A JP2019008742A JP 2019008742 A JP2019008742 A JP 2019008742A JP 2017126710 A JP2017126710 A JP 2017126710A JP 2017126710 A JP2017126710 A JP 2017126710A JP 2019008742 A JP2019008742 A JP 2019008742A
- Authority
- JP
- Japan
- Prior art keywords
- information
- output
- learning
- input
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
〔1−1.情報提供装置の一例〕
まず、図1を用いて、生成装置および学習装置の一例である情報提供装置が実行する学習処理および生成処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。図1では、情報提供装置10は、インターネット等の所定のネットワークN(例えば、図2参照)を介して、所定のクライアントが使用するデータサーバ50および端末装置100と通信可能である。
ここで、データサーバ50は、配信対象となる配信コンテンツが複数存在する場合には、各配信コンテンツを全て配信するのではなく、各配信コンテンツの要約となる要約コンテンツを端末装置100へと配信し、配信した要約コンテンツのうち利用者が選択した要約コンテンツと対応する配信コンテンツを配信する場合がある。しかしながら、配信コンテンツごとに、人手で要約コンテンツを生成するのは、手間がかかる。
そこで、情報提供装置10は、以下の学習処理を実行することで、配信コンテンツから要約コンテンツを生成するための処理モデルの学習を行う。まず、情報提供装置10は、処理モデルの学習に用いるデータ、すなわち、学習データとして、それぞれ異なる種別の情報を取得する。また、情報提供装置10は、入力情報から入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含む処理モデルを生成する。そして、情報提供装置10は、複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、処理モデルの学習を行う。
以下、情報提供装置10が実行する学習処理の一例について説明する。まず、情報提供装置10は、要約の生成対象となる配信コンテンツに含まれる情報の種別ごとに、その情報の要約を生成するためのモデルである部分モデルを準備する。例えば、情報提供装置10は、配信コンテンツに画像と本文とが含まれる場合は、画像の要約を生成するための第1部分モデルと、本文の要約を生成するための第2部分モデルとを準備する。
続いて、情報提供装置10は、第1部分モデルに含まれるエンコーダーを第1エンコーダーとし、第1部分モデルに含まれるデコーダーを第1デコーダーとして抽出する。また、情報提供装置10は、第2部分モデルに含まれるエンコーダーを第2エンコーダーとし、第2部分モデルに含まれるデコーダーを第2デコーダーとして抽出する。
次に、上述した学習処理によって学習が行われた処理モデルを用いて、要約コンテンツを生成する生成処理の一例について説明する。まず、情報提供装置10は、要約コンテンツの生成対象となる配信コンテンツを取得する。そして、情報提供装置10は、要約コンテンツに含まれる画像と本文とを処理モデルに入力し、処理モデルが生成した要約画像および要約本文を取得する。その後、情報提供装置10は、要約画像および要約本文を用いて、要約コンテンツを生成し、生成した要約コンテンツを端末装置100へと配信する。
ここで、情報提供装置10は、処理モデルに含まれる第1エンコーダーや第2エンコーダーに配信コンテンツの情報を直接入力するのではなく、各種の情報が有する特徴を示す中間表現を入力してもよい。例えば、情報提供装置10は、入力情報の種別に応じた構造を有し、入力された情報が有する特徴を示す中間表現を生成する複数の中間モデルと、各中間モデルが生成した中間表現から特徴情報を生成する複数のエンコーダーを用いてもよい。
次に、図1を用いて、情報提供装置10が実行する学習処理および生成処理の流れの一例について説明する。まず、情報提供装置10は、学習処理を実行する。具体的には、情報提供装置10は、それぞれ異なる種別の情報の特徴を学習したエンコーダーおよびデコーダーの組を学習する(ステップS1)。
上述した説明では、情報提供装置10は、配信コンテンツに含まれる画像の要約である要約画像と、配信コンテンツに含まれる本文の要約である要約本文とを生成する処理モデルM1の学習を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、要約以外にも、入力される情報(以下、「入力情報」と記載する。)に対応する情報(以下、「出力情報」と記載する。)を出力するのであれば、入力情報と任意の関係性を有する出力情報を生成する処理モデルM1の生成を行ってよい。また、情報提供装置10は、任意の種別の入力情報から任意の情報の出力情報を生成してよい。すなわち、情報提供装置10は、それぞれ異なる種別の入力情報であって、共通するトピックを含む複数の入力情報から、そのトピックを保持した複数の出力情報を出力するのであれば、任意の種別の情報に対して任意の処理を実行する処理モデルM1の生成を行ってよい。
ここで、合成モデルSM1は、各エンコーダーEが出力した特徴情報を合成した合成情報を生成するのであれば、任意の合成手法で合成された合成情報を生成してよい。例えば、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報の末尾に第2エンコーダーE2が出力した特徴情報を結合してもよく、第2エンコーダーE2が出力した特徴情報の末尾に第1エンコーダーE1が出力した特徴情報を結合してもよい。また、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報と第2エンコーダーE2が出力した特徴情報とのテンソル積を合成情報としてもよい。
また、情報提供装置10は、任意の形状の要約画像を生成するように、処理モデルM1の学習を行ってよい。例えば、情報提供装置10は、利用者の属性や画像の属性、本文の内容等に応じて、四角形、三角形、丸型等の任意の形状の要約画像を生成するように、処理モデルM1の学習を行ってもよい。また、情報提供装置10は、配信コンテンツに複数の画像が含まれる場合、各画像のうち注目度が高い領域や本文との関係性が高い範囲をそれぞれ抽出し、抽出した範囲をパッチワークのように合成した画像を要約画像として生成するように、処理モデルM1の学習を行ってもよい。
以下、上記した学習処理を実現する情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
次に、図5を用いて、情報提供装置10が学習させる処理モデルの一例について説明する。図5は、実施形態に係る情報提供装置が学習させる処理モデルの構造の一例を説明する図である。例えば、図5に示す例では、配信コンテンツには、画像、タイトル、第1本文等、各種の情報が含まれているものとする。このような場合、情報提供装置10は、配信コンテンツに含まれる情報の種別ごとに独立して特徴情報を生成する処理モデルM1を生成する。
次に、図6、図7を用いて、情報提供装置10が実行する学習処理および生成処理の手順の一例について説明する。図6は、実施形態に係る情報提供装置が実行する学習処理の流れの一例を示すフローチャートである。図7は、実施形態に係る情報提供装置が実行する生成処理の流れの一例を示すフローチャートである。
上記では、情報提供装置10による学習処理および生成処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する学習処理および生成処理のバリエーションについて説明する。
情報提供装置10は、任意の数の端末装置100と通信可能に接続されていてもよく、任意の数のデータサーバ50と通信可能に接続されていてもよい。また、情報提供装置10は、端末装置100と情報のやり取りを行うフロントエンドサーバと、各種の処理を実行するバックエンドサーバとにより実現されてもよい。このような場合、フロントエンドサーバには、図2に示す提供部45が配置され、バックエンドサーバには、図2に示す学習データ取得部41、学習部42、出力情報取得部43、および生成部44が含まれることとなる。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述した実施形態に係る情報提供装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、情報提供装置10は、学習データとして、それぞれ異なる種別の情報の組を取得する。そして、情報提供装置10は、学習データを入力情報とした際に、その学習データと対応する出力情報を出力するように、それぞれ異なる種別の入力情報からその入力情報が有する特徴を示す特徴情報を生成する複数のエンコーダーEと、その複数のエンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSM1と、合成モデルSM1が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数のデコーダーDとを含む処理モデルM1の学習を行う。
20 通信部
30 記憶部
31 学習データデータベース
32 モデルデータベース
40 制御部
41 学習データ取得部
42 学習部
43 出力情報取得部
44 生成部
45 提供部
50 データサーバ
100 端末装置
Claims (17)
- それぞれ異なる種別の複数の入力情報を取得する取得部と、
前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習部と
を有することを特徴とする学習装置。 - 前記学習部は、前記複数の復号器として、前記合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器であって、それぞれ異なる符号化器に入力される入力情報と同じ種別の出力情報を出力する前記複数の復号器を学習する
ことを特徴とする請求項1に記載の学習装置。 - 前記学習部は、それぞれ異なる種別の情報が有する特徴を学習した前記複数の符号化器と、それぞれ異なる符号化器と同じ種別の情報が有する特徴を学習した前記複数の復号器とを学習する
ことを特徴とする請求項1または2に記載の学習装置。 - 前記学習部は、少なくとも、画像が有する特徴を示す特徴情報を生成する第1符号化器と、テキストが有する特徴を示す特徴情報を生成する第2符号化器と、第1符号化器および第2符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、当該合成情報から前記画像に対応する出力情報を生成する第1復号器と、当該合成情報から前記テキストに対応する出力情報を生成する第2復号器とを学習する
ことを特徴とする請求項1〜3のうちいずれか1つに記載の学習装置。 - 前記学習部は、前記出力情報の出力態様に応じた合成態様で、各符号化器が生成した特徴情報を合成した合成情報を生成する合成器を学習する
ことを特徴とする請求項1〜4のうちいずれか1つに記載の学習装置。 - 前記学習部は、前記出力情報の出力先となる利用者の属性に応じた合成態様で、各符号化器が生成した特徴情報を合成した合成情報を生成する合成器を学習する
ことを特徴とする請求項5に記載の学習装置。 - 前記学習部は、各符号化器が生成した特徴情報を線形結合した結合情報から、前記出力情報の出力態様に応じた合成情報を生成する合成器を学習する
ことを特徴とする請求項5または6に記載の学習装置。 - 前記学習部は、入力情報の種別に応じた構造を有し、入力された情報が有する特徴を示す中間表現を生成する複数のモデルと、各モデルが生成した中間表現から前記特徴情報を生成する前記複数の符号化器を学習する
ことを特徴とする請求項1〜7のうちいずれか1つに記載の学習装置。 - 前記学習部は、テキストである入力情報の中間表現を生成するモデルとして、再帰型ニューラルネットワークであるモデルを学習し、画像である入力情報の中間表現を生成するモデルとして、畳み込みニューラルネットワークであるモデルを学習する
ことを特徴とする請求項8に記載の学習装置。 - 前記学習部は、符号化器と復号器との組であって、それぞれ異なる種別の情報が有する特徴を学習した複数の組に含まれる複数の符号化器と複数の復号器との学習を行う
ことを特徴とする請求項1〜9のうちいずれか1つに記載の学習装置。 - 前記学習部は、所定のコンテンツに含まれる複数の入力情報から、関連する内容の出力情報を出力するように、前記符号化器、前記合成器、および前記符号化器の少なくともいずれか一つの学習を行う
ことを特徴とする請求項1〜10のうちいずれか1つに記載の学習装置。 - それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する取得部と、
前記取得部が取得した複数の出力情報から、前記所定のコンテンツに対応する対応コンテンツを生成する生成部と
を有することを特徴とする生成装置。 - 学習装置が実行する学習方法であって、
それぞれ異なる種別の複数の入力情報を取得する取得工程と、
前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習工程と
を含むことを特徴とする学習方法。 - 生成装置が実行する生成方法であって、
それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する取得工程と、
前記取得された複数の出力情報から、前記所定のコンテンツに対応する対応コンテンツを生成する生成工程と
を含むことを特徴とする生成方法。 - それぞれ異なる種別の複数の入力情報を取得する取得手順と、
前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習手順と
をコンピュータに実行させるための学習プログラム。 - それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する取得手順と、
前記取得された複数の出力情報から、前記所定のコンテンツに対応する対応コンテンツを生成する生成手順と
をコンピュータに実行させるための生成プログラム。 - それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、
前記複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、
前記合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器と
を含むことを特徴とするモデル。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017126710A JP6355800B1 (ja) | 2017-06-28 | 2017-06-28 | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム |
| US15/996,968 US20190005399A1 (en) | 2017-06-28 | 2018-06-04 | Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017126710A JP6355800B1 (ja) | 2017-06-28 | 2017-06-28 | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6355800B1 JP6355800B1 (ja) | 2018-07-11 |
| JP2019008742A true JP2019008742A (ja) | 2019-01-17 |
Family
ID=62843776
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017126710A Active JP6355800B1 (ja) | 2017-06-28 | 2017-06-28 | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20190005399A1 (ja) |
| JP (1) | JP6355800B1 (ja) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020262316A1 (ja) * | 2019-06-25 | 2020-12-30 | 日本電信電話株式会社 | データ分析システム、データ分析方法及びプログラム |
| WO2021020198A1 (ja) * | 2019-07-26 | 2021-02-04 | 富士フイルム株式会社 | 情報処理装置、プログラム、学習済みモデル、診断支援装置、学習装置及び予測モデルの生成方法 |
| JP2021099791A (ja) * | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
| US11101583B2 (en) | 2018-03-14 | 2021-08-24 | Omron Corporation | Terminal block displaying connection state |
| JP2022144345A (ja) * | 2021-03-18 | 2022-10-03 | ヤフー株式会社 | 生成装置、生成方法および生成プログラム |
| JP2022549352A (ja) * | 2019-09-27 | 2022-11-24 | グーグル エルエルシー | 構造化埋め込みを生成するようにニューラルネットワークをトレーニングすること |
| US11604964B2 (en) | 2018-12-18 | 2023-03-14 | Samsung Electronics Co., Ltd. | Recognizer, object recognition method, learning apparatus, and learning method for domain adaptation |
| WO2023166746A1 (ja) * | 2022-03-04 | 2023-09-07 | 日本電信電話株式会社 | 要約生成装置、要約モデル学習装置、要約生成方法、要約モデル学習方法、及びプログラム |
| JP2024526666A (ja) * | 2021-07-12 | 2024-07-19 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 認知集約およびオーサリング方法、システム |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7187865B2 (ja) * | 2018-07-25 | 2022-12-13 | 富士フイルムビジネスイノベーション株式会社 | コンテンツ評価装置 |
| WO2020080239A1 (ja) * | 2018-10-19 | 2020-04-23 | ソニー株式会社 | 情報処理方法、情報処理装置及び情報処理プログラム |
| WO2020218172A1 (ja) | 2019-04-23 | 2020-10-29 | 株式会社ソシオネクスト | 推論モデルの生成方法および推論モデル |
| WO2020255301A1 (ja) * | 2019-06-19 | 2020-12-24 | 日本電信電話株式会社 | 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム |
| US11856276B2 (en) * | 2019-09-13 | 2023-12-26 | Oracle International Corporation | Scalable architecture for automatic generation of content distribution images |
| US12088565B2 (en) * | 2019-12-13 | 2024-09-10 | Triplelind Holdings, Inc. | Systems and methods for privacy preserving training and inference of decentralized recommendation systems from decentralized data |
| US11973743B2 (en) | 2019-12-13 | 2024-04-30 | TripleBlind, Inc. | Systems and methods for providing a systemic error in artificial intelligence algorithms |
| US12026219B2 (en) | 2019-12-13 | 2024-07-02 | TripleBlind, Inc. | Systems and methods for efficient computations on split data and split algorithms |
| US11431688B2 (en) | 2019-12-13 | 2022-08-30 | TripleBlind, Inc. | Systems and methods for providing a modified loss function in federated-split learning |
| US12149510B1 (en) * | 2019-12-13 | 2024-11-19 | Tripleblind Holdings, Inc. | Systems and methods for providing a private multi-modal artificial intelligence platform |
| KR20210089347A (ko) * | 2020-01-08 | 2021-07-16 | 엘지전자 주식회사 | 음성 인식 장치 및 음성데이터를 학습하는 방법 |
| CN111444367B (zh) * | 2020-03-24 | 2022-10-14 | 哈尔滨工程大学 | 一种基于全局与局部注意力机制的图像标题生成方法 |
| KR102421488B1 (ko) * | 2020-04-08 | 2022-07-15 | 엘지전자 주식회사 | 복수개의 출력 레이어를 이용한 인공 지능 장치 및 방법 |
| US20220051092A1 (en) * | 2020-08-14 | 2022-02-17 | Capital One Services, Llc | System and methods for translating error messages |
| WO2022109215A1 (en) | 2020-11-20 | 2022-05-27 | TripleBlind, Inc. | Systems and methods for providing a blind de-identification of privacy data |
| US11625377B1 (en) | 2022-02-03 | 2023-04-11 | TripleBlind, Inc. | Systems and methods for enabling two parties to find an intersection between private data sets without learning anything other than the intersection of the datasets |
| US12288157B2 (en) | 2022-02-03 | 2025-04-29 | Selfiee Corporation | Systems and methods for quantifying data leakage from a split layer |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0296467A (ja) * | 1988-09-30 | 1990-04-09 | Nec Corp | 文書蓄積装置 |
| JP2005309427A (ja) * | 2000-12-12 | 2005-11-04 | Nec Corp | オーディオビジュアルサマリ作成方法および装置 |
| JP2012038240A (ja) * | 2010-08-11 | 2012-02-23 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
| US20170132526A1 (en) * | 2015-11-11 | 2017-05-11 | Adobe Systems Incorporated | Structured Knowledge Modeling and Extraction from Images |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10762283B2 (en) * | 2015-11-20 | 2020-09-01 | Adobe Inc. | Multimedia document summarization |
-
2017
- 2017-06-28 JP JP2017126710A patent/JP6355800B1/ja active Active
-
2018
- 2018-06-04 US US15/996,968 patent/US20190005399A1/en not_active Abandoned
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0296467A (ja) * | 1988-09-30 | 1990-04-09 | Nec Corp | 文書蓄積装置 |
| JP2005309427A (ja) * | 2000-12-12 | 2005-11-04 | Nec Corp | オーディオビジュアルサマリ作成方法および装置 |
| JP2012038240A (ja) * | 2010-08-11 | 2012-02-23 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
| US20170132526A1 (en) * | 2015-11-11 | 2017-05-11 | Adobe Systems Incorporated | Structured Knowledge Modeling and Extraction from Images |
Non-Patent Citations (1)
| Title |
|---|
| 張 よう、外6名: "ニュース文と画像内容の一致性を考慮した複数ニュース映像の要約", 電子情報通信学会技術研究報告, vol. 115, no. 495, JPN6017050548, 29 February 2016 (2016-02-29), JP, pages 67 - 72, ISSN: 0003714591 * |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11101583B2 (en) | 2018-03-14 | 2021-08-24 | Omron Corporation | Terminal block displaying connection state |
| US11604964B2 (en) | 2018-12-18 | 2023-03-14 | Samsung Electronics Co., Ltd. | Recognizer, object recognition method, learning apparatus, and learning method for domain adaptation |
| JP2021005170A (ja) * | 2019-06-25 | 2021-01-14 | 日本電信電話株式会社 | データ分析システム、データ分析方法及びプログラム |
| WO2020262316A1 (ja) * | 2019-06-25 | 2020-12-30 | 日本電信電話株式会社 | データ分析システム、データ分析方法及びプログラム |
| US20220358352A1 (en) * | 2019-06-25 | 2022-11-10 | Nippon Telegraph And Telephone Corporation | Data analysis system, data analysis method, and program |
| JP7275903B2 (ja) | 2019-06-25 | 2023-05-18 | 日本電信電話株式会社 | データ分析システム、データ分析方法及びプログラム |
| WO2021020198A1 (ja) * | 2019-07-26 | 2021-02-04 | 富士フイルム株式会社 | 情報処理装置、プログラム、学習済みモデル、診断支援装置、学習装置及び予測モデルの生成方法 |
| JPWO2021020198A1 (ja) * | 2019-07-26 | 2021-02-04 | ||
| US12169932B2 (en) | 2019-07-26 | 2024-12-17 | Fujifilm Corporation | Information processing device, program, trained model, diagnostic support device, learning device, and prediction model generation method |
| JP7383802B2 (ja) | 2019-09-27 | 2023-11-20 | グーグル エルエルシー | 構造化埋め込みを生成するようにニューラルネットワークをトレーニングすること |
| JP2022549352A (ja) * | 2019-09-27 | 2022-11-24 | グーグル エルエルシー | 構造化埋め込みを生成するようにニューラルネットワークをトレーニングすること |
| JP2021099791A (ja) * | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
| JP2022144345A (ja) * | 2021-03-18 | 2022-10-03 | ヤフー株式会社 | 生成装置、生成方法および生成プログラム |
| JP2024526666A (ja) * | 2021-07-12 | 2024-07-19 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 認知集約およびオーサリング方法、システム |
| JPWO2023166746A1 (ja) * | 2022-03-04 | 2023-09-07 | ||
| WO2023166746A1 (ja) * | 2022-03-04 | 2023-09-07 | 日本電信電話株式会社 | 要約生成装置、要約モデル学習装置、要約生成方法、要約モデル学習方法、及びプログラム |
| JP7683810B2 (ja) | 2022-03-04 | 2025-05-27 | 日本電信電話株式会社 | 要約生成装置、要約モデル学習装置、要約生成方法、要約モデル学習方法、及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6355800B1 (ja) | 2018-07-11 |
| US20190005399A1 (en) | 2019-01-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6355800B1 (ja) | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム | |
| US12050978B2 (en) | Webinterface generation and testing using artificial neural networks | |
| JP6523498B1 (ja) | 学習装置、学習方法および学習プログラム | |
| CN110688528B (zh) | 生成视频的分类信息的方法、装置、电子设备和介质 | |
| CN113569129B (zh) | 点击率预测模型处理方法、内容推荐方法、装置及设备 | |
| CN111279349A (zh) | 解析电子对话用于在替代界面中呈现 | |
| US20190057533A1 (en) | Real-Time Lip Synchronization Animation | |
| JP7337172B2 (ja) | 音声パケット推薦方法、装置、電子機器およびプログラム | |
| JP6151404B1 (ja) | 学習装置、学習方法および学習プログラム | |
| CN111625645B (zh) | 文本生成模型的训练方法、装置和电子设备 | |
| WO2022052744A1 (zh) | 会话信息处理方法、装置、计算机可读存储介质及设备 | |
| JP2021179979A (ja) | ショッピング検索のための商品属性抽出方法 | |
| US20240249712A1 (en) | Method for training voice conversion model, electronic device, and storage medium | |
| JP6975610B2 (ja) | 学習装置および学習方法 | |
| US10581772B2 (en) | Information processing method, information processing apparatus, and recording medium having program recorded thereon | |
| US20190080354A1 (en) | Location prediction based on tag data | |
| CN119205988A (zh) | 图像生成方法、装置、电子设备及介质 | |
| CN116703454A (zh) | 目标推荐方法及装置 | |
| JP2017199383A (ja) | モデル | |
| JP6979899B2 (ja) | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム | |
| CN113282770A (zh) | 一种多媒体推荐系统及方法 | |
| JP2019021218A (ja) | 学習装置、プログラムパラメータ、学習方法およびモデル | |
| CN111784377B (zh) | 用于生成信息的方法和装置 | |
| CN113742593B (zh) | 用于推送信息的方法和装置 | |
| CN112287173A (zh) | 用于生成信息的方法和装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6355800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |