TOP特許意匠商標
特許ウォッチ Twitter
10個以上の画像は省略されています。
公開番号2024157045
公報種別公開特許公報(A)
公開日2024-11-06
出願番号2024140933,2023521998
出願日2024-08-22,2021-05-17
発明の名称ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム
出願人日本電信電話株式会社
代理人個人,個人,個人
主分類G06N 3/088 20230101AFI20241029BHJP(計算;計数)
要約【課題】入力情報が存在しない場合であっても入力情報が存在しないことを損失として扱わない損失関数を用いてエンコーダとデコーダを含むニューラルネットワークを学習する技術を提供する。
【解決手段】入力ベクトルを潜在変数ベクトルに変換するエンコーダと潜在変数ベクトルを出力ベクトルに変換するデコーダとを含むニューラルネットワークを入力ベクトルと出力ベクトルとが略同一になるように学習するニューラルネットワーク学習装置であって、エンコーダは入力情報を正情報ビットと負情報ビットとで表す入力ベクトルを入力とするものであり、パラメータ更新処理は入力情報が存在しない場合には略0である損失の学習用の入力情報群のすべての入力情報についての和を含む損失関数の値が小さくなるように行われる。
【選択図】図2
特許請求の範囲【請求項1】
入力ベクトルを潜在変数を要素とする潜在変数ベクトルに変換するエンコーダと潜在変数ベクトルを出力ベクトルに変換するデコーダとを含むニューラルネットワークを入力ベクトルと出力ベクトルとが略同一になるように学習するニューラルネットワーク学習装置であって、
前記ニューラルネットワークに含まれるパラメータを更新するパラメータ更新処理を繰り返すことにより学習を行う学習部を含み、
前記エンコーダは、
所定の入力情報群に含まれる各入力情報が、正の情報に該当する、負の情報に該当する、情報が存在しない、の3通りのいずれかであるときに、
各入力情報を、
当該入力情報が正の情報に該当する場合に1であり、情報が存在しない場合または当該入力情報が負の情報に該当する場合に0である正情報ビットと、
当該入力情報が負の情報に該当する場合に1であり、情報が存在しない場合または当該入力情報が正の情報に該当する場合に0である負情報ビットと、
で表す入力ベクトルを入力とするものであり、
前記エンコーダは、複数個の層により構成されたものであり、
前記入力ベクトルを入力とする層は、前記入力ベクトルから複数個の出力値を得るものであり、
前記各出力値は、前記入力ベクトルに含まれる正情報ビットの値のそれぞれに重みパラメータを与えたものと、前記入力ベクトルに含まれる負情報ビットの値のそれぞれに重みパラメータを与えたものと、をすべて加算したものであり、
前記パラメータ更新処理は、
前記入力情報が正の情報に該当する場合には、前記デコーダにより得られた入力情報が正の情報に該当する確率が小さいほど大きな値であり、前記入力情報が負の情報に該当する場合には、前記デコーダにより得られた入力情報が負の情報に該当する確率が小さいほど大きな値であり、前記入力情報が存在しない場合には、略0である、損失の学習用の入力情報群のすべての入力情報についての和、を含む損失関数の値が小さくなるように行われる
ニューラルネットワーク学習装置。
続きを表示(約 1,000 文字)【請求項2】
ニューラルネットワーク学習装置が、入力ベクトルを潜在変数を要素とする潜在変数ベクトルに変換するエンコーダと潜在変数ベクトルを出力ベクトルに変換するデコーダとを含むニューラルネットワークを入力ベクトルと出力ベクトルとが略同一になるように学習するニューラルネットワーク学習方法であって、
前記ニューラルネットワーク学習装置が、前記ニューラルネットワークに含まれるパラメータを更新するパラメータ更新処理を繰り返すことにより学習を行う学習ステップ含み、
前記エンコーダは、
所定の入力情報群に含まれる各入力情報が、正の情報に該当する、負の情報に該当する、情報が存在しない、の3通りのいずれかであるときに、
各入力情報を、
当該入力情報が正の情報に該当する場合に1であり、情報が存在しない場合または当該入力情報が負の情報に該当する場合に0である正情報ビットと、
当該入力情報が負の情報に該当する場合に1であり、情報が存在しない場合または当該入力情報が正の情報に該当する場合に0である負情報ビットと、
で表す入力ベクトルを入力とするものであり、
前記エンコーダは、複数個の層により構成されたものであり、
前記入力ベクトルを入力とする層は、前記入力ベクトルから複数個の出力値を得るものであり、
前記各出力値は、前記入力ベクトルに含まれる正情報ビットの値のそれぞれに重みパラメータを与えたものと、前記入力ベクトルに含まれる負情報ビットの値のそれぞれに重みパラメータを与えたものと、をすべて加算したものであり、
前記パラメータ更新処理は、
前記入力情報が正の情報に該当する場合には、前記デコーダにより得られた入力情報が正の情報に該当する確率が小さいほど大きな値であり、前記入力情報が負の情報に該当する場合には、前記デコーダにより得られた入力情報が負の情報に該当する確率が小さいほど大きな値であり、前記入力情報が存在しない場合には、略0である、損失の学習用の入力情報群のすべての入力情報についての和、を含む損失関数の値が小さくなるように行われる
ニューラルネットワーク学習方法。
【請求項3】
請求項1に記載のニューラルネットワーク学習装置としてコンピュータを機能させるためのプログラム。

発明の詳細な説明【技術分野】
【0001】
本発明は、ニューラルネットワークを学習する技術に関する。
続きを表示(約 2,900 文字)【背景技術】
【0002】
大量の高次元データを分析する手法として様々な方法が提案されている。例えば、非特許文献1の非負値行列因子分解(Non-negative Matrix Factorization: NMF)や非特許文献2の無限関係モデル(Infinite Relational Model: IRM)を用いる方法がある。これらの方法を用いると、データの特徴的な性質を見出したり、共通の性質を持つデータをクラスタとしてまとめたりすることが可能となる。
【先行技術文献】
【非特許文献】
【0003】
Lee, D. D. and Seung, H. S., “Learning the parts of objects by non-negative matrix factorization,” Nature, 401, pp.788-791, 1999.
Kemp, C., Tenenbaum, J. B., Griffiths, T. L., Yamada, T. and Ueda, N., “Learning systems of concepts with an infinite relational model,” AAAI06(Proceedings of the 21st national conference on Artificial intelligence, pp.381-388, 2006.
【発明の概要】
【発明が解決しようとする課題】
【0004】
NMFやIRMを用いる分析方法には、データアナリストが有するような高度な分析技術が必要になることが多い。しかし、データアナリストは分析対象となる高次元データ(以下、分析対象データという)そのものについては詳しくないことも多いため、このような場合、分析対象データの専門家との協調作業が必要になるが、この作業がうまく進まないこともある。そこで、データアナリストを必要とすることなく、分析対象データの専門家のみで分析することができる手法が必要となってくる。
【0005】
参考非特許文献1の変分オートエンコーダ(Variational AutoEncoder: VAE)のようにエンコーダとデコーダを含むニューラルネットワークを用いて分析することを考える。ここで、エンコーダとは、入力ベクトルを潜在変数ベクトルに変換するニューラルネットワーク、デコーダとは、潜在変数ベクトルを出力ベクトルに変換するニューラルネットワークである。また、潜在変数ベクトルは、入力ベクトルや出力ベクトルよりも低次元のベクトルであり、潜在変数を要素とするベクトルである。入力ベクトルと出力ベクトルとが略同一になるように学習したエンコーダを用いて高次元の分析対象データを変換すると、低次元の2次データに圧縮することができるが、分析対象データと2次データの関係が不明であるため、このままでは分析作業に適用することはできない。ここで、略同一になるように学習するとは、理想的には、完全同一になるように学習するのが好ましいが、現実的には、学習時間の制約などによりほぼ同一になるように学習せざるを得ないため、所定の条件を満たした場合に同一であるとみなして処理を終了する形で学習することをいう。
【0006】
(参考非特許文献1:Kingma, D. P. and Welling, M., “Auto-encoding variational bayes,” arXiv preprint arXiv:1312.6114, 2013.)
また、入力情報を表す入力ベクトルの一部に欠損があり、情報が存在しない場合もある。この場合、入力情報が存在しないことを適切に扱えるようにしない限り、分析作業に適用することはできない。
【0007】
そこで本発明では、入力情報が存在しない場合であっても入力情報が存在しないことを損失として扱わない損失関数を用いてエンコーダとデコーダを含むニューラルネットワークを学習する技術を提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明の一形態は、入力ベクトルを潜在変数を要素とする潜在変数ベクトルに変換するエンコーダと潜在変数ベクトルを出力ベクトルに変換するデコーダとを含むニューラルネットワークを入力ベクトルと出力ベクトルとが略同一になるように学習するニューラルネットワーク学習装置であって、前記ニューラルネットワークに含まれるパラメータを更新するパラメータ更新処理を繰り返すことにより学習を行う学習部を含み、前記エンコーダは、所定の入力情報群に含まれる各入力情報が、正の情報に該当する、負の情報に該当する、情報が存在しない、の3通りのいずれかであるときに、各入力情報を、当該入力情報が正の情報に該当する場合に1であり、情報が存在しない場合または当該入力情報が負の情報に該当する場合に0である正情報ビットと、当該入力情報が負の情報に該当する場合に1であり、情報が存在しない場合または当該入力情報が正の情報に該当する場合に0である負情報ビットと、で表す入力ベクトルを入力とするものであり、前記エンコーダは、複数個の層により構成されたものであり、前記入力ベクトルを入力とする層は、前記入力ベクトルから複数個の出力値を得るものであり、前記各出力値は、前記入力ベクトルに含まれる正情報ビットの値のそれぞれに重みパラメータを与えたものと、前記入力ベクトルに含まれる負情報ビットの値のそれぞれに重みパラメータを与えたものと、をすべて加算したものであり、前記パラメータ更新処理は、前記入力情報が正の情報に該当する場合には、前記デコーダにより得られた入力情報が正の情報に該当する確率が小さいほど大きな値であり、前記入力情報が負の情報に該当する場合には、前記デコーダにより得られた入力情報が負の情報に該当する確率が小さいほど大きな値であり、前記入力情報が存在しない場合には、略0である、損失の学習用の入力情報群のすべての入力情報についての和、を含む損失関数の値が小さくなるように行われる。
【発明の効果】
【0009】
本発明によれば、入力情報が存在しない場合であっても入力情報が存在しないことを損失として扱わない損失関数を用いてエンコーダとデコーダを含むニューラルネットワークを学習することが可能となる。
【図面の簡単な説明】
【0010】
分析対象データの一例を示す図である。
ニューラルネットワーク学習装置100の構成を示すブロック図である。
ニューラルネットワーク学習装置100の動作を示すフローチャートである。
本発明の実施形態における各装置を実現するコンピュータの機能構成の一例を示す図である。
【発明を実施するための形態】
(【0011】以降は省略されています)

この特許をJ-PlatPatで参照する
Flag Counter

関連特許

個人
プログラム
27日前
株式会社理研
演算装置
1か月前
個人
情報検索システム
7日前
個人
日本語入力支援システム
1か月前
個人
確率場データ同化演算手法
19日前
個人
AI旅行最適化プラグイン
1か月前
キヤノン株式会社
電子機器
6日前
キヤノン株式会社
電子機器
6日前
個人
納骨堂システム
26日前
シャープ株式会社
電子機器
20日前
個人
案件管理装置および端末装置
1か月前
個人
技術実行管理システム
21日前
キヤノン株式会社
電子機器
6日前
個人
不動産情報提供システム
16日前
株式会社発明屋
電池指向の構造設計
1か月前
株式会社イノベイト
広告装置
9日前
キヤノン株式会社
情報処理装置
1か月前
トヨタ自動車株式会社
管理装置
1か月前
富士通株式会社
プロセッサ
1か月前
合同会社IPマネジメント
内部不正対策
14日前
個人
ネイルスキルテストシステム
20日前
トヨタ自動車株式会社
電気自動車
1か月前
個人
ダブルオークションシステム
1か月前
株式会社イズミ
総合代行システム
1か月前
トヨタ自動車株式会社
管理システム
1日前
富士通株式会社
予測
1か月前
合同会社IPマネジメント
料金収受システム
1か月前
株式会社SUBARU
車両用操作装置
1か月前
TDK株式会社
等価回路
1日前
西松建設株式会社
計測システム
5日前
株式会社TIMEWELL
情報処理システム
27日前
ローム株式会社
半導体集積回路
1か月前
トヨタ自動車株式会社
電池評価システム
26日前
キヤノン株式会社
ワークフロー制御装置
26日前
個人
株式投資コンペティションシステム
1か月前
個人
収納装置および収納システム
1か月前
続きを見る