TOP特許意匠商標
特許ウォッチ Twitter
10個以上の画像は省略されています。
公開番号2024160818
公報種別公開特許公報(A)
公開日2024-11-15
出願番号2023076220
出願日2023-05-02
発明の名称情報処理装置、分散学習システム、学習方法、及びプログラム
出願人日本電信電話株式会社
代理人弁理士法人ITOH,個人,個人,個人
主分類G06N 3/098 20230101AFI20241108BHJP(計算;計数)
要約【課題】分散学習において通信コストを下げることを可能とする技術を提供する。
【解決手段】複数のノードにおけるノード間での情報交換によりモデルの学習を行う分散学習システムにおいて、前記複数のノードの中のあるノードとして使用される情報処理装置であって、圧縮演算子を用いて圧縮した双対変数である圧縮双対変数を隣接ノードから受信する受信部と、前記圧縮双対変数を用いて、前記モデルのモデルパラメータを更新する更新部とを備える。
【選択図】図3
特許請求の範囲【請求項1】
複数のノードにおけるノード間での情報交換によりモデルの学習を行う分散学習システムにおいて、前記複数のノードの中のあるノードとして使用される情報処理装置であって、
圧縮演算子を用いて圧縮した双対変数である圧縮双対変数を隣接ノードから受信する受信部と、
前記圧縮双対変数を用いて、前記モデルのモデルパラメータを更新する更新部と
を備える情報処理装置。
続きを表示(約 800 文字)【請求項2】
前記更新部は、前記圧縮演算子を用いて、前記隣接ノードへ送るべき双対変数を圧縮し、
前記更新部により圧縮された双対変数を前記隣接ノードへ送信する送信部
を更に備える請求項1に記載の情報処理装置。
【請求項3】
前記圧縮演算子は、圧縮対象の双対変数を表すベクトルと、各要素がある確率で1となるスパースベクトルとのアダマール積をとる演算子である
請求項1に記載の情報処理装置。
【請求項4】
前記圧縮演算子をcompとし、x及びyをそれぞれベクトルとし、τとωをそれぞれパラメータとしたときに、compは、

ω
||comp(x;ω)-x||

≦(1-τ)||x||


comp(x+y;ω)=comp(x;ω)+comp(y;ω)、及び
comp(-x;ω)=-comp(x;ω)
を満たす
請求項1に記載の情報処理装置。
【請求項5】
請求項1ないし4のうちいずれか1項に記載の情報処理装置を複数台備える分散学習システム。
【請求項6】
複数のノードにおけるノード間での情報交換によりモデルの学習を行う分散学習システムにおいて、前記複数のノードの中のあるノードとして使用される情報処理装置が実行する学習方法であって、
圧縮演算子を用いて圧縮した双対変数である圧縮双対変数を隣接ノードから受信する受信ステップと、
前記圧縮双対変数を用いて、前記モデルのモデルパラメータを更新する更新ステップと
を備える学習方法。
【請求項7】
コンピュータを、請求項1ないし4のうちいずれか1項に記載の情報処理装置における各部として機能させるためのプログラム。

発明の詳細な説明【技術分野】
【0001】
本発明は、分散学習に関連するものである。
続きを表示(約 1,600 文字)【背景技術】
【0002】
近年、ニューラルネットワーク等のモデルは画像処理や自然言語処理など様々な分野で大きな注目を集めている。モデルを学習するためには、通常、大量の学習データを収集する必要がある。
【0003】
しかし、プライバシーの問題等のために、個人情報を含む学習データを単一のサーバ(ノード)上に収集することは困難である。このようなケースを考慮して、任意にネットワーク接続できる複数のノードにデータを分散させて蓄積し、全データを高い認識率で識別できるようなモデル(例えばニューラルネットワークのモデル)の学習を実現することが検討されている(例えば非特許文献1)。上記の学習は分散学習(Decentralized learning)と呼ばれる。
【0004】
分散学習においては、複数のノード間でどのような合意形成をしながら学習をしたらよいかのアルゴリズムを構築することが研究の主題となっている。合意形成に至るまでに、ノード間の通信回数や通信する情報量が少ないほど、分散学習のアルゴリズムとして性能が良いと言える。
【0005】
非特許文献1には、エッジコンセンサス学習(ECL:Edge-consensus learning)と呼ばれる分散学習の技術が開示されている。
【0006】
ECLのメリットは、ノードに蓄積されるデータサブセットの統計的な偏り(heterogeneity)に対してロバストに学習できる点である。これは、ノード間のモデルが一致するという合意形成型の制約下でコスト最小化問題を解いていることに起因する。
【先行技術文献】
【非特許文献】
【0007】
Niwa, K., Harada, N., Zhang, G., and Kleijn, W. B. Edge-consensus learning: Deep learning on P2P networks with nonhomogeneous data. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 668-678, 2020.
【発明の概要】
【発明が解決しようとする課題】
【0008】
非特許文献1に開示されたECLは一次収束のアルゴリズムである。そのため、合意形成に至り、モデルの学習が完了するまでにノード間の通信回数が大きくなる。またECLでは、1回あたりの通信で、モデルのサイズとおおよそ同等のサイズの情報(具体的には双対変数)をノード間で交換する必要があり、通信量が大きい。分散学習における通信コストが計算量や実行時間の大半を占めており、実用的な分散学習のために、この通信コストを下げる必要がある。なお、このような課題はECLに限らずに、他の分散学習においても生じ得る課題である。
【0009】
本発明は上記の点に鑑みてなされたものであり、分散学習において通信コストを下げることを可能とする技術を提供することを目的とする。
【課題を解決するための手段】
【0010】
開示の技術によれば、複数のノードにおけるノード間での情報交換によりモデルの学習を行う分散学習システムにおいて、前記複数のノードの中のあるノードとして使用される情報処理装置であって、
圧縮演算子を用いて圧縮した双対変数である圧縮双対変数を隣接ノードから受信する受信部と、
前記圧縮双対変数を用いて、前記モデルのモデルパラメータを更新する更新部と
を備える情報処理装置が提供される。
【発明の効果】
(【0011】以降は省略されています)

この特許をJ-PlatPatで参照する
Flag Counter

関連特許

日本電信電話株式会社
装置及び変形解析方法
10日前
日本電信電話株式会社
音源信号推定装置、音源信号推定方法、プログラム
11日前
日本電信電話株式会社
情報提示システム、情報提示方法、およびプログラム
17日前
日本電信電話株式会社
折り紙
4日前
日本電信電話株式会社
情報処理装置、分散学習システム、学習方法、及びプログラム
10日前
日本電信電話株式会社
部分グラフ数え上げ方法、部分グラフ数え上げ装置及びプログラム
4日前
日本電信電話株式会社
装置、方法、プログラム
10日前
日本電信電話株式会社
支援装置、支援方法およびプログラム
6日前
日本電信電話株式会社
タスクスケジューラ装置およびプログラム
11日前
日本電信電話株式会社
ラベル付与支援装置、ラベル付与支援方法およびプログラム
10日前
日本電信電話株式会社
空間能動騒音制御装置、空間能動騒音制御方法、制御フィルタ計算装置、制御フィルタ計算方法、及びプログラム
17日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
分析装置、分析方法及び分析プログラム
11日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
分析装置、分析方法及び分析プログラム
11日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
分析装置、分析方法及び分析プログラム
11日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
分析装置、分析方法及び分析プログラム
11日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
分析装置、分析方法及び分析プログラム
11日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
分析装置、分析方法及び分析プログラム
11日前
エヌ・ティ・ティ・コミュニケーションズ株式会社
処理システム、処理方法及び処理プログラム
11日前
個人
認証システム
4日前
個人
マウス用テーブル
1か月前
個人
管理装置
1か月前
個人
鑑定証明システム
4日前
個人
管理装置
1か月前
個人
特徴検討支援システム
1か月前
アズビル株式会社
防爆装置
1か月前
個人
人的価値発掘システム
1か月前
個人
業界地図作成システム
28日前
個人
契約管理サーバ
1か月前
個人
技術マッチングシステム
10日前
株式会社宗建
SNSサーバー
1か月前
キヤノン電子株式会社
情報処理装置
1か月前
株式会社セガフェイブ
遊戯機
1か月前
ミサワホーム株式会社
システム
1か月前
株式会社ネットブリッジ
展示販売装置
5日前
個人
選択操作音声出力システム
1か月前
株式会社ジール
文章の分析装置
1か月前
続きを見る