TOP特許意匠商標
特許ウォッチ Twitter
10個以上の画像は省略されています。
公開番号2025035497
公報種別公開特許公報(A)
公開日2025-03-13
出願番号2023142578
出願日2023-09-01
発明の名称主話者音声区間判別装置
出願人中部電力株式会社,株式会社Human Dataware Lab.
代理人弁理士法人勇智国際特許事務所
主分類G10L 15/04 20130101AFI20250306BHJP(楽器;音響)
要約【課題】複数の話者それぞれに対応して配置されている複数のマイクロフォンのうちの1つのマイクロフォンから出力された音情報内の、当該1つのマイクロフォンに対応する主話者の音声情報が含まれている主話者音声区間を判別する技術を提供する。
【解決手段】話者(1)~話者(n)それぞれに対応してマイクロフォン310(1)~310(n)が配置されている。主話者音声区間判別手段200は、いずれか1つのマイクロフォンから出力された音情報を時間軸に沿って複数のフレームに分割し、そして、複数のフレームのうち、当該1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームにより形成される主話者音声区間を示す主話者音声区間判別結果を出力する。主話者音声区間判別手段200は、特徴量抽出手段210、時系列特徴量変換手段220、第1判別手段230、第2判別手段240および統合手段250により構成されている。
【選択図】図1
特許請求の範囲【請求項1】
複数の話者それぞれに対応して配置されている複数のマイクロフォンのうちの1つのマイクロフォンから出力された音情報内の、前記1つのマイクロフォンに対応する主話者の音声区間を判別する主話者音声区間判別装置であって、
記憶手段と、特徴量抽出手段と、時系列特徴量変換手段と、第1判別手段と、第2判別手段と、統合手段と、を備え、
前記記憶手段には、前記複数のマイクロフォンのうちの少なくとも1つのマイクロフォンから出力された音情報が時間軸に沿って記憶され、
前記特徴量抽出手段は、前記記憶手段に記憶されている、前記少なくとも1つのマイクロフォンのうちのいずれか1つのマイクロフォンから出力された音情報を時間軸に沿って分割した複数のフレームそれぞれの特徴量を抽出し、
前記時系列特徴量変換手段は、前記特徴量抽出手段で抽出した複数のフレームの特徴量を時系列特徴量に変換して出力し、
前記第1判別手段は、前記時系列特徴量変換手段から出力された時系列特徴量の全体区間における特徴ベクトルを生成し、生成した全体区間における特徴ベクトルに基づいて、前記各フレームに前記いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれているか否かを判別し、前記いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームを示す第1判別結果を出力し、
前記第2判別手段は、前記時系列特徴量変換手段から出力された時系列特徴量の部分区間における特徴ベクトルを生成し、生成した部分区間における特徴ベクトルに基づいて、前記各フレームに前記いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれているか否かを判別し、前記いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームを示す第2判別結果を出力し、
前記統合手段は、前記第1判別手段から出力された第1判別結果と前記第2判別手段から出力された第2判別結果を重み付けして統合し、前記いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームにより形成される主話者音声区間を示す主話者音声区間判別結果を出力することを特徴とする主話者音声区間判別装置。
続きを表示(約 1,000 文字)【請求項2】
請求項1に記載の主話者音声区間判別装置であって、
前記記憶手段には、前記複数のマイクロフォンのうちの少なくとも2つのマイクロフォンから出力された音情報が時間同期して記憶され、
前記特徴量抽出手段による特徴量の抽出処理、前記時系列特徴量変換手段による時系列特徴量の出力処理、前記第1判別手段による第1判別結果の出力処理、前記第2判別手段による第2判別結果の出力処理、前記統合手段による主話者音声区間判別結果の出力処理を、前記記憶手段に記憶されている、前記少なくとも2つのマイクロフォンから出力された音情報それぞれに対して行い、前記少なくとも2つのマイクロフォンそれぞれに対応する主話者の主話者音声区間判別結果を出力することを特徴とする主話者音声区間判別装置。
【請求項3】
請求項2に記載の主話者音声区間判別装置であって、
前記統合手段は、前記少なくとも2つのマイクロフォンのうちのいずれか1つのマイクロフォンに対応する主話者音声区間判別結果で示される主話者音声区間のいずれかと他の少なくとも1つのマイクロフォンに対応する主話者音声区間判別結果で示される主話者音声区間のいずれかが、時間軸に沿って重なっている場合には、重なっている2つの主話者音声区間の組それぞれに対して重なり度合いを判別し、重なり度合いのいずれかが所定条件を満足する場合には、前記重なっている主話者音声区間のうち、最も長い主話者音声区間を除く主話者音声区間を主話者音声区間判別結果から削除することを特徴とする主話者音声区間判別装置。
【請求項4】
請求項1に記載の主話者音声区間判別装置であって、
前記時系列特徴量変換手段、前記第1判別手段、前記第2判別手段および前記統合手段は、多層ニューラルネットワークで構成されていることを特徴とする主話者音声区間判別装置。
【請求項5】
コンピュータに、請求項1に記載されている、前記特徴量抽出手段による特徴量の抽出処理、前記時系列特徴量変換手段による時系列特徴量の出力処理、前記第1判別手段による第1判別結果の出力処理、前記第2判別手段による第2判別結果の出力処理および前記統合手段による主話者音声区間判別結果の出力処理を実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。

発明の詳細な説明【技術分野】
【0001】
本発明は、マイクロフォンで集音した複数の話者の音声から特定の話者の音声区間を判別する技術に関する。
続きを表示(約 5,800 文字)【背景技術】
【0002】
会議等における複数の話者の発話内容を判別する手法として、マイクロフォンから出力された音情報に含まれる音声情報を音声認識し、テキスト情報に変換する手法が用いられている。通常、マイクロフォンから出力された音情報としては、アナログの音情報をデジタルに変換した音情報が用いられる。複数の話者が対話している場合には、音情報に、マイクロフォンの近くにいる複数の話者の音声情報が混在することがある。このため、音声認識の前処理として、「誰がいつ喋ったか」を判別する処理が必要である。複数の話者の音声情報が混在している音情報から、各話者の音声情報が含まれている話者音声区間と各話者を示す話者ラベルを判別する手法は、話者ダイアライゼーション(Speaker Diarization)と総称されている。
近年、話者ダイアライゼーションの一手法として、非特許文献1に開示されているような、エンドツーエンドのニューラルダイアライゼーション(End-to-End Neural Diarization:EEND)が提案されている。非特許文献1に開示されているEENDは、多層ニューラルネットワークで構成され、単一の判別モデルを用いて、入力された音情報から話者音声区間と話者ラベルを判別する。
【先行技術文献】
【非特許文献】
【0003】
「END-TO-END NEURAL SPEAKER DIARIZATION WITH SELF-ATTENTION」,2019 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU),ISBN 978-1-7281-0306-8,Yusuke Fujita,Naoyuki Kanda,Shota Horiguchi,Yawen Xue,Kenji Nagamatsu,Shinji Watanabe)
【発明の概要】
【発明が解決しようとする課題】
【0004】
非特許文献1に開示されているEENDを含め、従来提案されている話者ダイアライゼーションのアルゴリズムは、1つのマイクロフォン(モノラルマイクロフォン)から出力された音情報(シングルチャネルの音情報)に混在する複数の話者の音声情報を判別対象としている。
しかしながら、1つのマイクロフォンから出力された音情報から複数の話者の話者音声区間と話者ラベルを判別するのは、話者数が既知であっても容易ではない。
本発明は、このような問題点に鑑みて創案されたものであり、話者音声区間と話者ラベルを、容易に精度良く判別することができる技術を提供することを目的とする。具体的には、複数の話者それぞれに対応して複数のマイクロフォンを配置し、各マイクロフォンに対応する話者を「主話者」とする。そして、話者ダイアライゼーションに入力される、いずれか1つのマイクロフォンから出力された音情報(いずれか1つのシングルチャネルの音情報)から、当該1つのマイクロフォンに対応する主話者(話者ラベル)の音声情報のみを選択的に抽出して主話者音声区間を判別する。
【課題を解決するための手段】
【0005】
第1発明は、複数の話者それぞれに対応して配置されている複数のマイクロフォンのうちの1つのマイクロフォンから出力された音情報内の、1つのマイクロフォンに対応する主話者の音声区間を判別する主話者音声区間判別装置に関する。
第1発明の主話者音声区間判別装置は、記憶手段と、特徴量抽出手段と、時系列特徴量変換手段と、第1判別手段と、第2判別手段と、統合手段と、を備えている。
記憶手段には、複数のマイクロフォンのうちの少なくとも1つのマイクロフォンから出力された音情報が時間軸に沿って記憶される。記憶手段に音情報を記憶させる方法としては適宜の方法を用いることができる。例えば、マイクロフォンから直接または通信回線を介して入力した音情報を記憶手段に記憶させる方法を用いることができる。あるいは、マイクロフォンから出力された音情報を記憶媒体に記憶し、記憶媒体に記憶されている音情報を読み取り手段を介して入力し、記憶手段に記憶させる方法を用いることができる。
特徴量抽出手段は、記憶手段に記憶されている、少なくとも1つのマイクロフォンのうちのいずれか1つのマイクロフォンから出力された音情報を時間軸に沿って分割した複数のフレームそれぞれの特徴量を抽出する。特徴量を抽出する方法としては、公知の種々の方法を用いることができる。
時系列特徴量変換手段は、特徴量抽出手段で抽出した複数のフレームの特徴量を時系列特徴量に変換して出力する。複数のフレームの特徴量を時系列特徴量に変換する方法としては、公知の種々の方法を用いることができる。
第1判別手段は、時系列特徴量変換手段から出力された時系列特徴量の全体区間における特徴ベクトルを生成する。生成した全体区間における特徴ベクトルに基づいて、各フレームにいずれか1つのマイクロフォンに対応する主話者の音声情報が含まれているか否かを判別する。そして、いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームを示す第1判別結果を出力する。第1判別結果の形式としては、種々の形式を用いることができる。例えば、各フレームに主話者の音声情報が含まれている確率を示すスコアを含む第1判別結果を用いることができる。
第2判別手段は、時系列特徴量変換手段から出力された時系列特徴量の部分区間における特徴ベクトルを生成する。生成した部分区間における特徴ベクトルに基づいて、各フレームにいずれか1つのマイクロフォンに対応する主話者の音声情報が含まれているか否かを判別する。そして、いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームを示す第2判別結果を出力する。第2判別結果の形式としては、第1判別結果と同様に、種々の形式を用いることができる。
統合手段は、第1判別手段から出力された第1判別結果と第2判別手段から出力された第2判別結果を重み付けして統合し、いずれか1つのマイクロフォンに対応する主話者の音声情報が含まれていると判別したフレームにより形成される主話者音声区間を示す主話者音声区間判別結果を出力する。
本発明の主話者音声区間判別装置では、マイクロフォンから出力された音情報から、マイクロフォンに1対1で対応する一人の主話者の音声情報が含まれている主話者音声区間を判別するため、主話者音声区間を容易に判別することができる。
第1発明の主話者音声区間判別装置の異なる形態では、記憶手段には、複数のマイクロフォンのうちの少なくとも2つのマイクロフォンから出力された音情報が時間同期して記憶される。
そして、特徴量抽出手段による特徴量の抽出処理、時系列特徴量変換手段による時系列特徴量の出力処理、第1判別手段による第1判別結果の出力処理、第2判別手段による第2判別結果の出力処理および統合手段による主話者音声区間判別結果の出力処理を、記憶手段に記憶されている、少なくとも2つのマイクロフォンから出力された音情報それぞれに対して行う。統合手段は、少なくとも2つのマイクロフォンそれぞれに対応する主話者の主話者音声区間判別結果を出力する。
本形態では、各マイクロフォンに対応する主話者全員の主話者音声区間を容易に判別することができる。
第1発明の主話者音声区間判別装置の異なる形態では、統合手段は、少なくとも2つのマイクロフォンのうちのいずれか1つのマイクロフォンに対応する主話者音声区間判別結果で示される主話者音声区間のいずれかと他の少なくとも1つのマイクロフォンに対応する主話者音声区間判別結果で示される主話者音声区間のいずれかが、時間軸に沿って重なっているか否かを判別する。
重なっている場合には、重なっている2つの主話者音声区間の組それぞれに対して重なり度合いを判別する。重なっている2つの主話者音声区間の重なり度合いを判別する方法としては、適宜の方法を用いることができる。
そして、重なり度合いのいずれかが所定条件を満足する場合には、重なっている主話者音声区間のうち、最も長い主話者音声区間を除く主話者音声区間を主話者音声区間判別結果から削除する。
1つのマイクロフォンに対応する主話者の発話が、他のマイクロフォンで集音され、他のマイクロフォンから出力された音情報(他のチャネルの音情報)に、当該1つのマイクロフォンに対応する主話者の音声情報が含まれる(湧き出す)ことがある。この場合、当該1つのマイクロフォンに対応する主話者の音声情報が、他のマイクロフォンに対応する主話者の音声情報として誤判別されるおそれがある。重なり度合いに対する所定条件としては、このような主話者音声区間の誤判別を防止することができる種々の条件が設定される。
本形態では、主話者音声区間を誤判別するのを防止することができる。
第1発明の主話者音声区間判別装置の異なる形態では、時系列特徴量変換手段、第1判別手段、第2判別手段および統合手段は、多層ニューラルネットワークで構成されている。
本形態では、主話者音声区間判別装置を簡単に構成することができる。
第2発明は、記憶媒体に関する。
第2発明の記憶媒体は、前述した、特徴量抽出手段による特徴量の抽出処理、時系列特徴量変換手段による時系列特徴量の出力処理、第1判別手段による第1判別結果の出力処理、第2判別手段による第2判別結果の出力処理および統合手段による主話者音声区間判別結果の出力処理を実行させるためのプログラムを記憶している。
第2発明の記憶媒体を用いることにより、主話者音声区間判別装置を簡単に構成することができる。
【発明の効果】
【0006】
本発明の主話者音声区間判別装置および記憶媒体を用いることにより、マイクロフォンに対応する主話者の主話者音声区間を容易に判別することができる。
【図面の簡単な説明】
【0007】
一実施形態の主話者音声区間判別装置の概略構成を示すブロック図である。
一実施形態の主話者音声区間判別装置を構成する主話者音声区間判別手段の一例の、推論モードにおけるブロック図である。
図2に示されているエンコーダの一例のブロック図である。
一実施形態の主話者音声区間判別装置を構成する主話者音声区間判別手段の一例の、学習モードにおけるブロック図である。
複数の話者の発話例を示す図である。
主話者音声区間が時間軸に沿って重なっている場合の動作を説明する図である。
主話者音声区間が時間軸に沿って重なっている場合の動作を説明する図である。
【発明を実施するための形態】
【0008】
以下に、本発明の主話者音声区間判別装置の一実施形態を、図1~図4を参照して説明する。図1は、一実施形態の主話者音声区間判別装置10の概略構成を示すブロック図である。図2、図4は、主話者音声区間判別手段200の概略構成を示すブロック図であり、図3は、エンコーダ232の概略構成を示すブロック図である。なお、図2は、主話者音声区間判別時(推定時)の構成を示し、図4は、学習時の構成を示している。
【0009】
本実施形態の主話者音声区間判別装置10は、エンドツーエンドニューラルダイアライゼーション(EEND)アルゴリズムをベースとし、複数の話者それぞれに対応して配置されている複数のマイクロフォンのうちの1つのマイクロフォンから出力された音情報内の、当該1つのマイクロフォンに対応する話者(「主話者」という)の音声情報が含まれている話者音声区間(「主話者音声区間」という)を判別する。
すなわち、本実施形態の主話者音声区間判別装置10では、1つのマイクロフォンから出力された音情報から話者音声区間(「主話者音声区間」)を判別する話者(「主話者」)の数は1名である。
【0010】
EENDのアルゴリズムの概要は、以下のとおりである。
音声情報の、フレーム単位の時系列特徴量(特徴量系列)をXとし、時系列の、フレームに対応する話者ラベル(話者ラベル系列)をYとする。音声情報の特徴量系列Xは、短時間スペクトルの包絡線を示す対数メルフィルタバンク係数等を用いることができる。
音声情報の特徴量系列Xが観測された下での話者ラベル系列Yの推定値〈Y〉は、特徴量系列Xが観測された条件の下で、事後確率最大化により(式1)で表される。
TIFF
2025035497000002.tif
49
170
推論モデルは、出力された推定話者ラベルと正解話者ラベル(教師データ)を用いて、話者の入れ替わり(パーミュテーション:permutation)による誤検出を評価する損失関数の評価値を最小化するように、誤差伝搬学習によって各パラメータを学習する。損失関数としては、例えば、(式2)で表されるLが用いられている。
TIFF
2025035497000003.tif
34
170
BCEは、2値交差エントロピー関数(Binary Cross Entropy Function)である。
そして、学習した推論モデルを用いて、マイクロフォンから出力された音情報内の、話者の音声情報が含まれている話者ごとの話者音声区間を判別するとともに、話者音声区間に含まれている音声情報に対応する話者を示す話者ラベルを判別する。
(【0011】以降は省略されています)

この特許をJ-PlatPatで参照する

関連特許

中部電力株式会社
におい判定システム
1日前
三井化学株式会社
吸音構造体
3日前
個人
弦楽器用押弦補助具及び弦楽器
8日前
三井化学株式会社
遮音構造体
8日前
三井化学株式会社
遮音構造体
8日前
三井化学株式会社
遮音構造体
15日前
林テレンプ株式会社
防音カバー
8日前
株式会社ドクター中松創研
歌及び歌の制作方法
18日前
株式会社総合車両製作所
吸音パネル
2日前
株式会社JVCケンウッド
車載装置
9日前
個人
電気自動車等の「接近音」における最適な「音の種類」
11日前
株式会社HOWA
遮音構造
15日前
カシオ計算機株式会社
楽器
15日前
株式会社JVCケンウッド
情報処理装置及び情報処理方法
3日前
株式会社第一興商
カラオケ装置
2日前
個人
電子管楽器
8日前
株式会社第一興商
カラオケ装置
3日前
株式会社コルグ
電子楽器用アナログエフェクタ
1日前
ヤマハ株式会社
発音制御装置
9日前
川上産業株式会社
吸音シート
22日前
トヨタ自動車株式会社
電気自動車
10日前
AOBAENERGY株式会社
サービス提供機器
8日前
トヨタ自動車株式会社
音響式遮音材の製造方法
9日前
井関農機株式会社
作業車の操縦者用騒音低減装置
2日前
ローランド株式会社
鍵盤装置および押鍵情報の検出方法
3日前
日本電波工業株式会社
音声再生装置及び音声再生方法
2日前
ローランド株式会社
鍵盤装置および鍵の揺動の規制方法
3日前
ローランド株式会社
鍵盤装置および押鍵情報の検出方法
3日前
株式会社パトライト
メール読み上げテキスト生成プログラム
22日前
ブラザー工業株式会社
カラオケシステム、及び、カラオケ装置
3日前
ヤマハ株式会社
音響測定装置、音響測定方法および音響測定プログラム
9日前
カシオ計算機株式会社
音響処理装置、音響処理システム、音響処理方法及びプログラム
16日前
株式会社丸高工業
防音板及びその附属品
3日前
トヨタ自動車株式会社
車両管理システム及び電気自動車
10日前
株式会社石森管楽器
リガチャーおよび楽器
1日前
ブラザー工業株式会社
カラオケシステム、カラオケ装置、及びカラオケ装置用のプログラム
2日前
続きを見る