TOP特許意匠商標
特許ウォッチ Twitter
10個以上の画像は省略されています。
公開番号2025044907
公報種別公開特許公報(A)
公開日2025-04-02
出願番号2023152727
出願日2023-09-20
発明の名称学習方法、推論方法、学習装置、推論装置及びプログラム
出願人日本電信電話株式会社,国立大学法人 東京大学
代理人弁理士法人ITOH,個人,個人,個人
主分類G06F 16/33 20250101AFI20250326BHJP(計算;計数)
要約【課題】トークンの重要度についてドメインの違いに応じた値を算出可能とすること。
【解決手段】第1のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算し、或るクエリに対応するテキストを前記集合から検索する場合の正解テキスト及び不正解テキストそれぞれについてベクトル系列を計算し、前記正解テキスト及び前記不正解テキストそれぞれについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算し、前記正解テキスト及び前記不正解テキストそれぞれについて、前記スパースベクトルと前記クエリとのマッチングスコアを計算し、前記正解テキスト及び前記不正解テキストそれぞれのマッチングスコアに基づいて、前記ベクトル系列及び前記スパースベクトルの計算で用いる事前学習済み言語モデルのパラメータを更新する。
【選択図】図2
特許請求の範囲【請求項1】
第1のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算するトークン確率計算手順と、
或るクエリに対応するテキストを前記集合から検索する場合の正解テキスト及び不正解テキストそれぞれについてベクトル系列を計算する言語符号化手順と、
前記正解テキスト及び前記不正解テキストそれぞれについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算するベクトル計算手順と、
前記正解テキスト及び前記不正解テキストそれぞれについて、前記スパースベクトルと前記クエリとのマッチングスコアを計算するマッチング計算手順と、
前記正解テキスト及び前記不正解テキストそれぞれのマッチングスコアに基づいて、前記言語符号化手順及び前記ベクトル計算手順が用いる事前学習済み言語モデルのパラメータを更新するパラメータ更新手順と、
をコンピュータが実行することを特徴とする学習方法。
続きを表示(約 2,600 文字)【請求項2】
前記ベクトル計算手順は、テキストsの前記ベクトル系列のうち前記事前学習済み言語モデルにおいてトークンvに対応するベクトルをH(s)

とし、前記事前学習済み言語モデルのパラメータである前記トークンvの単語埋め込みをe

とし、前記出現確率ベクトルをp

とした場合に、前記スパースベクトルのうちトークンvに対応する成分を、
TIFF
2025044907000006.tif
29
169
に基づいて計算する、
ことを特徴とする請求項1記載の学習方法。
【請求項3】
第2のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算するトークン確率計算手順と、
それぞれの前記テキストについてベクトル系列を計算する言語符号化手順と、
それぞれの前記テキストについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算するベクトル計算手順と、
前記テキストごとの前記スパースベクトルを転置インデックステーブルに保存する転置インデックス生成手順と、
をコンピュータが実行し、
前記言語符号化手順及び前記ベクトル計算手順は、請求項1記載の学習方法によってパラメータが更新された事前学習済み言語モデルを利用する、
ことを特徴とする推論方法。
【請求項4】
入力されたクエリと、前記転置インデックステーブルに保存されたスパースベクトルとのマッチングスコアを計算するマッチング計算手順と、
前記マッチングスコアに基づいて前記スパースベクトルに対応する前記テキストを出力する検索手順と、
をコンピュータが実行することを特徴とする請求項3記載の推論方法。
【請求項5】
第1のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算するように構成されているトークン確率計算部と、
或るクエリに対応するテキストを前記集合から検索する場合の正解テキスト及び不正解テキストそれぞれについてベクトル系列を計算するように構成されている言語符号化部と、
前記正解テキスト及び前記不正解テキストそれぞれについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算するように構成されているベクトル計算部と、
前記正解テキスト及び前記不正解テキストそれぞれについて、前記スパースベクトルと前記クエリとのマッチングスコアを計算するように構成されているマッチング計算部と、
前記正解テキスト及び前記不正解テキストそれぞれのマッチングスコアに基づいて、前記言語符号化部及び前記ベクトル計算部が用いる事前学習済み言語モデルのパラメータを更新するように構成されているパラメータ更新部と、
を有することを特徴とする学習装置。
【請求項6】
第2のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算するように構成されているトークン確率計算部と、
それぞれの前記テキストについてベクトル系列を計算するように構成されている言語符号化部と、
それぞれの前記テキストについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算するように構成されているベクトル計算部と、
前記テキストごとの前記スパースベクトルを転置インデックステーブルに保存するように構成されている転置インデックス生成部と、
を有し、
前記言語符号化部及び前記ベクトル計算部は、請求項5記載の学習装置によってパラメータが更新された事前学習済み言語モデルを利用するように構成されている、
ことを特徴とする推論装置。
【請求項7】
第1のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算するトークン確率計算手順と、
或るクエリに対応するテキストを前記集合から検索する場合の正解テキスト及び不正解テキストそれぞれについてベクトル系列を計算する言語符号化手順と、
前記正解テキスト及び前記不正解テキストそれぞれについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算するベクトル計算手順と、
前記正解テキスト及び前記不正解テキストそれぞれについて、前記スパースベクトルと前記クエリとのマッチングスコアを計算するマッチング計算手順と、
前記正解テキスト及び前記不正解テキストそれぞれのマッチングスコアに基づいて、前記言語符号化手順及び前記ベクトル計算手順が用いる事前学習済み言語モデルのパラメータを更新するパラメータ更新手順と、
をコンピュータに実行させることを特徴とするプログラム。
【請求項8】
第2のドメインのテキストの集合に含まれる各トークンの出現確率を成分とする出現確率ベクトルを計算するトークン確率計算手順と、
それぞれの前記テキストについてベクトル系列を計算する言語符号化手順と、
それぞれの前記テキストについて、事前学習済み言語モデルにおける各トークンの重要度を成分とするスパースベクトルを、前記ベクトル系列及び前記出現確率ベクトルに基づいて計算するベクトル計算手順と、
前記テキストごとの前記スパースベクトルを転置インデックステーブルに保存する転置インデックス生成手順と、
をコンピュータに実行させ、
前記言語符号化手順及び前記ベクトル計算手順は、請求項1記載の学習方法によってパラメータが更新された事前学習済み言語モデルを利用する、
ことを特徴とするプログラム。

発明の詳細な説明【技術分野】
【0001】
本発明は、学習方法、推論方法、学習装置、推論装置及びプログラムに関する。
続きを表示(約 2,100 文字)【背景技術】
【0002】
自然言語でのクエリを入力とし、検索対象のテキストの集合であるコーパスからクエリに関連するテキストを規定の数だけ出力するタスクを検索タスクという。
【0003】
非特許文献1のSPARTAは、任意の検索タスクに適用可能であり、特に訓練時と推論時のコーパスのドメイン(分野・話題など)が違う場合に注目している。訓練時にはサービスプロバイダが一般的なドメイン(ソースドメイン)のデータを用いてモデルを訓練する。モデルのユーザは、十分な訓練データを持たない、コーパスの機密性が高くモデルの訓練のためにコーパスをクラウドに置きたくない、などの理由から、モデルの訓練を行わない。ユーザが保有するコーパス(ターゲットドメイン)は推論時にのみ検索対象とされる。
【0004】
SPARTAは、BERT(非特許文献2)を使ってコーパス中の各テキストsをスパースなベクトルに変換する。BERTの語彙数をVとした場合スパースベクトルはV次元のベクトルとなる。スパースベクトルの第v成分は語彙中のv番目のトークンに対応する。テキストsにおけるトークンvの重要度がスパースベクトルの第v成分の値となる。
【0005】
スパースベクトルを転置インデックスとして保存しておくことで、クエリが与えられたときに高速に検索することが可能である。なお、転置インデックスを利用した高速検索には様々な既存研究及び実装がある。
【0006】
iをテキストsにおける位置インデックス、H(s)

をテキストsのi番目のトークンについてのBERTの出力、vを語彙V中のトークン、e

をBERTにおけるトークンvの単語埋め込みとすると、前述のスパースベクトルの第v成分は以下の式(1)で定義できる。
【0007】
TIFF
2025044907000002.tif
29
169
推論時はf(v,s)のうち値の大きいK個の成分のみを保存することでスパース性を保証する。
【0008】
クエリqが入力されたときのクエリqとテキストsのマッチングスコアは以下の式(2)で定義できる。
【0009】
TIFF
2025044907000003.tif
33
169
式(1)はBERTの出力に基づいて計算した、テキストsにおけるトークンvの重要度と解釈できる。そのため、式(1)は、ソースドメインにおけるトークンvの珍しさを反映していることになる。すなわち、式(1)は、一般的なトークン(例えば、てにをは等の頻出語)には小さい値を割り当て、珍しいトークン(例えば、固有名詞等)に対して大きい値を割り当てる。
【先行技術文献】
【非特許文献】
【0010】
Tiancheng Zhao, Xiaopeng Lu, and Kyusong Lee、"SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer Matching Retrieval"、In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics, 565-575、[online]、インターネット<URL:https://doi.org/10.18653/v1/2021.naaclmain.47>
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova、"BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"、In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Association for Computational Linguistics, 4171-4186、[online]、インターネット<URL:https: //doi.org/10.18653/v1/N19-1423>
【発明の概要】
【発明が解決しようとする課題】
(【0011】以降は省略されています)

この特許をJ-PlatPatで参照する
Flag Counter

関連特許

日本電信電話株式会社
演算装置、演算方法及びプログラム
3日前
個人
非正規コート
13日前
個人
人物再現システム
10日前
個人
AI飲食最適化プラグイン
3日前
有限会社ノア
データ読取装置
11日前
個人
電話管理システム及び管理方法
4日前
個人
広告提供システムおよびその方法
13日前
株式会社ザメディア
出席管理システム
18日前
個人
日誌作成支援システム
10日前
トヨタ自動車株式会社
工程計画装置
18日前
株式会社タクテック
商品取出集品システム
17日前
トヨタ自動車株式会社
作業判定方法
19日前
個人
ポイント還元付き配送システム
11日前
ミサワホーム株式会社
情報処理装置
17日前
オベック実業株式会社
接続構造
10日前
トヨタ自動車株式会社
情報処理システム
19日前
ゼネラル株式会社
RFIDタグ付き物品
20日前
株式会社村田製作所
動き検知装置
17日前
株式会社ドクター中松創研
生成AIの適切使用法
10日前
トヨタ自動車株式会社
情報処理方法
19日前
株式会社国際電気
支援システム
20日前
株式会社実身美
ワーキングシェアリングシステム
11日前
個人
コンテンツ配信システム
17日前
個人
プラットフォームシステム
17日前
ブラザー工業株式会社
ラベルプリンタ
19日前
富士通株式会社
画像生成方法
23日前
株式会社エスシーシー
置き配システム
11日前
株式会社 喜・扇
緊急事態対応円滑化システム
10日前
株式会社K-model
運用設計資料作成装置
13日前
トヨタ自動車株式会社
作業支援システム
17日前
甍エンジニアリング株式会社
屋根材買い取りシステム
23日前
個人
注文管理システム及び注文管理プログラム
10日前
株式会社知財事業研究所
運行計画作成システム
17日前
株式会社日立製作所
設計支援装置
18日前
株式会社半導体エネルギー研究所
文章校正支援システム
3日前
日立建機株式会社
作業機械の管理装置
20日前
続きを見る