発明の詳細な説明【技術分野】 【0001】 本発明は、分散学習に関連するものである。 続きを表示(約 1,800 文字)【背景技術】 【0002】 近年、ニューラルネットワーク等のモデルは画像処理や自然言語処理など様々な分野で大きな注目を集めている。モデルを学習するためには、通常、大量の学習データを収集する必要がある。 【0003】 しかし、プライバシーの問題等のために、個人情報を含む学習データを単一のサーバ(ノード)上に収集することは困難である。このようなケースを考慮して、任意にネットワーク接続できる複数のノードにデータを分散させて蓄積し、全データを高い認識率で識別できるようなモデル(例えばニューラルネットワークのモデル)の学習を実現することが検討されている(例えば非特許文献1)。上記の学習は分散学習(Decentralized learning)と呼ばれる。 【0004】 分散学習においては、複数のノード間でどのような合意形成をしながら学習をしたらよいかのアルゴリズムを構築することが研究の主題となっている。合意形成に至るまでに、ノード間の通信回数や通信する情報量が少なく、高速に合意形成に至るような分散学習のアルゴリズムとして性能が良いと言える。 【0005】 非特許文献1には、エッジコンセンサス学習(ECL:Edge-consensus learning)と呼ばれる分散学習の技術が開示されている。 【0006】 ECLのメリットは、ノードに蓄積されるデータサブセットの統計的な偏り(heterogeneity、不均一性)に対してロバストに学習できる点である。これは、ノード間のモデルが一致するという合意形成型の制約下でコスト最小化問題を解いていることに起因する。 【先行技術文献】 【非特許文献】 【0007】 Niwa, K., Harada, N., Zhang, G., and Kleijn, W. B. Edge-consensus learning: Deep learning on P2P networks with nonhomogeneous data. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 668-678, 2020. Martens, J. and Grosse, R. Optimizing neural networks with kronecker-factored approximate curvature. In In-ternational conference on machine learning, pp. 2408-2417. PMLR, 2015 【発明の概要】 【発明が解決しようとする課題】 【0008】 非特許文献1に開示されたECLは一次収束のアルゴリズムである。そのため、合意形成に至り、モデルの学習が完了するまでにノード間の通信回数が大きくなる。またECLでは、1回あたりの通信で、モデルのサイズとおおよそ同等のサイズの情報(具体的には双対変数)をノード間で交換する必要があり、通信量が大きい。分散学習における通信コストが計算量や実行時間の大半を占めており、分散学習の高速化のために、この通信コストを下げる必要がある。なお、このような課題はECLに限らずに、他の分散学習においても生じ得る課題である。 【0009】 本発明は上記の点に鑑みてなされたものであり、分散学習において、高速に合意形成に至ることを可能とする技術を提供することを目的とする。 【課題を解決するための手段】 【0010】 開示の技術によれば、複数のノードにおけるノード間での情報交換によりモデルの学習を行う分散学習システムにおいて、前記複数のノードの中のあるノードとして使用される情報処理装置であって、 正定値行列を用いて表された定常点条件から演算子分割を適用することにより得られた更新ルールに従って更新された変数を、隣接ノードから受信する受信部と、 前記変数を用いて、前記モデルのモデルパラメータを更新する更新部と を備える情報処理装置が提供される。 【発明の効果】 (【0011】以降は省略されています) この特許をJ-PlatPatで参照する