TOP特許意匠商標
特許ウォッチ Twitter
10個以上の画像は省略されています。
公開番号2025001600
公報種別公開特許公報(A)
公開日2025-01-08
出願番号2023101278
出願日2023-06-20
発明の名称行動制御システム
出願人ソフトバンクグループ株式会社
代理人弁理士法人太陽国際特許事務所
主分類G09B 21/00 20060101AFI20241225BHJP(教育;暗号方法;表示;広告;シール)
要約【課題】障害者を含めたユーザの生活の質を向上させる。
【解決手段】行動制御システムは、ユーザ入力を受け付ける入力部と、入力文章に応じた文章を生成する文章生成モデルを用いた特定処理を行う処理部と、前記特定処理の結果を出力するように、電子機器の行動を制御する出力部と、を含み、前記処理部は、予め定められたトリガ条件を満たすか否かを判定し、前記トリガ条件を満たした場合に、ユーザが装着するウェアラブル端末に備わるカメラから得られる情報と、前記ユーザ入力から得られる情報とを、前記入力文章としたときの前記文章生成モデルの出力を用いて、前記特定処理の結果として、視覚障害者に必要となる情報を取得し、前記出力部は、前記視覚障害者に必要となる情報を、音声により出力する。
【選択図】図2
特許請求の範囲【請求項1】
ユーザ入力を受け付ける入力部と、
入力文章に応じた文章を生成する文章生成モデルを用いた特定処理を行う処理部と、
前記特定処理の結果を出力するように、電子機器の行動を制御する出力部と、を含み、
前記処理部は、
予め定められたトリガ条件を満たすか否かを判定し、
前記トリガ条件を満たした場合に、ユーザが装着するウェアラブル端末に備わるカメラから得られる情報と、前記ユーザ入力から得られる情報とを、前記入力文章としたときの前記文章生成モデルの出力を用いて、前記特定処理の結果として、視覚障害者に必要となる情報を取得し、
前記出力部は、前記視覚障害者に必要となる情報を、音声により出力する
行動制御システム。
続きを表示(約 1,000 文字)【請求項2】
ユーザ入力を受け付ける入力部と、
入力文章に応じた文章を生成する文章生成モデルを用いた特定処理を行う処理部と、
前記特定処理の結果を出力するように、電子機器の行動を制御する出力部と、を含み、
前記処理部は、
予め定められたトリガ条件を満たすか否かを判定し、
前記トリガ条件を満たした場合に、ユーザが装着するウェアラブル端末に備わるマイクから得られる情報と、前記ユーザ入力から得られる情報とを、前記入力文章としたときの前記文章生成モデルの出力を用いて、前記特定処理の結果として、聴覚障害者に必要となる情報を取得し、
前記出力部は、前記聴覚障害者に必要となる情報を、視覚的表現により出力する
行動制御システム。
【請求項3】
ユーザ入力を受け付ける入力部と、
入力文章に応じた文章を生成する文章生成モデルを用いた特定処理を行う処理部と、
前記特定処理の結果を出力するように、電子機器の行動を制御する出力部と、を含み、
前記処理部は、
予め定められたトリガ条件を満たすか否かを判定し、
前記トリガ条件を満たした場合に、ユーザが装着するウェアラブル端末に備わるカメラから得られる情報と、前記ユーザ入力から得られる情報とを、前記入力文章としたときの前記文章生成モデルの出力を用いて、前記特定処理の結果として、手話をテキスト変換した情報を取得し、
前記出力部は、前記手話をテキスト変換した情報を、視覚的表現又は音声により出力する
行動制御システム。
【請求項4】
ユーザの行動を含むユーザ状態、及び電子機器の状態を認識する状態認識部を更に含み、
前記処理部は、前記ユーザ状態又は前記電子機器の状態と、前記文章生成モデルとを用いた前記特定処理を行う請求項1から請求項3のいずれか1項記載の行動制御システム。
【請求項5】
ユーザの感情又は電子機器の感情を判定する感情決定部と、
前記処理部は、前記ユーザの感情又は前記電子機器の感情と、前記文章生成モデルとを用いた前記特定処理を行う請求項1から請求項3のいずれか1項記載の行動制御システム。
【請求項6】
前記電子機器はウェアラブル端末である請求項1から請求項3のいずれか1項記載の行動制御システム。
【請求項7】
前記ウェアラブル端末は、眼鏡型端末である請求項6記載の行動制御システム。

発明の詳細な説明【技術分野】
【0001】
本発明は、行動制御システムに関する。
続きを表示(約 2,700 文字)【背景技術】
【0002】
特許文献1には、少なくとも一つのプロセッサにより遂行される、ペルソナチャットボット制御方法であって、ユーザ発話を受信するステップと、前記ユーザ発話を、チャットボットのキャラクターに関する説明と関連した指示文を含むプロンプトに追加するステップと前記プロンプトをエンコードするステップと、前記エンコードしたプロンプトを言語モデルに入力して、前記ユーザ発話に応答するチャットボット発話を生成するステップ、を含む、方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
特開2022-180282号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら従来技術では、障害者を含めたユーザの生活の質を向上させる上で改善の余地がある。
【課題を解決するための手段】
【0005】
本発明の第1の態様によれば、行動制御システムが提供される。当該行動制御システムは、ユーザ入力を受け付ける入力部と、入力文章に応じた文章を生成する文章生成モデルを用いた特定処理を行う処理部と、前記特定処理の結果を出力するように、電子機器の行動を制御する出力部と、を含み、前記処理部は、予め定められたトリガ条件を満たすか否かを判定し、前記トリガ条件を満たした場合に、ユーザが装着するウェアラブル端末に備わるカメラから得られる情報と、前記ユーザ入力から得られる情報とを、前記入力文章としたときの前記文章生成モデルの出力を用いて、前記特定処理の結果として、視覚障害者に必要となる情報を取得し、前記出力部は、前記視覚障害者に必要となる情報を、音声により出力する。
前記電子機器はロボットであってもよい。ここで、ロボットとは、物理的な動作を行う装置、物理的な動作を行わずに映像や音声を出力する装置、及びソフトウェア上で動作するエージェントを含む。
【図面の簡単な説明】
【0006】
第1実施形態に係るシステム5の一例を概略的に示す。
第1実施形態に係るロボット100の機能構成を概略的に示す。
第1実施形態に係るロボット100による収集処理の動作フローの一例を概略的に示す。
第1実施形態に係るロボット100による応答処理の動作フローの一例を概略的に示す。
第1実施形態に係るロボット100による自律的処理の動作フローの一例を概略的に示す。
複数の感情がマッピングされる感情マップ400を示す。
複数の感情がマッピングされる感情マップ900を示す。
(A)第2実施形態に係るぬいぐるみ100Nの外観図、(B)ぬいぐるみ100Nの内部構造図である。
第2実施形態に係るぬいぐるみ100Nの背面正面図である。
第2実施形態に係るぬいぐるみ100Nの機能構成を概略的に示す。
第3実施形態に係るエージェントシステム500の機能構成を概略的に示す。
エージェントシステムの動作の一例を示す。
エージェントシステムの動作の一例を示す。
第4実施形態に係るスマート眼鏡720で用いるエージェントシステム700の機能構成を概略的に示す。
第4実施形態に係るエージェントシステム700の特定処理部の機能構成を概略的に示す。
スマート眼鏡によるエージェントシステムの利用態様の一例を示す。
第4実施形態に係るエージェントシステム700による特定処理の動作フローの一例を概略的に示す。
コンピュータ1200のハードウェア構成の一例を概略的に示す。
第1特定処理の概要を示す。
第2特定処理の概要を示す。
第3特定処理の概要を示す。
【発明を実施するための形態】
【0007】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0008】
[第1実施形態]
図1は、本実施形態に係るシステム5の一例を概略的に示す。システム5は、ロボット100、ロボット101、ロボット102、及びサーバ300を備える。ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dは、ロボット100のユーザである。ユーザ11a、ユーザ11b及びユーザ11cは、ロボット101のユーザである。ユーザ12a及びユーザ12bは、ロボット102のユーザである。なお、本実施形態の説明において、ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dを、ユーザ10と総称する場合がある。また、ユーザ11a、ユーザ11b及びユーザ11cを、ユーザ11と総称する場合がある。また、ユーザ12a及びユーザ12bを、ユーザ12と総称する場合がある。ロボット101及びロボット102は、ロボット100と略同一の機能を有する。そのため、ロボット100の機能を主として取り上げてシステム5を説明する。
【0009】
ロボット100は、ユーザ10と会話を行ったり、ユーザ10に映像を提供したりする。このとき、ロボット100は、通信網20を介して通信可能なサーバ300等と連携して、ユーザ10との会話や、ユーザ10への映像等の提供を行う。例えば、ロボット100は、自身で適切な会話を学習するだけでなく、サーバ300と連携して、ユーザ10とより適切に会話を進められるように学習を行う。また、ロボット100は、撮影したユーザ10の映像データ等をサーバ300に記録させ、必要に応じて映像データ等をサーバ300に要求して、ユーザ10に提供する。
【0010】
また、ロボット100は、自身の感情の種類を表す感情値を持つ。例えば、ロボット100は、「喜」、「怒」、「哀」、「楽」、「快」、「不快」、「安心」、「不安」、「悲しみ」、「興奮」、「心配」、「安堵」、「充実感」、「虚無感」及び「普通」のそれぞれの感情の強さを表す感情値を持つ。ロボット100は、例えば興奮の感情値が大きい状態でユーザ10と会話するときは、早いスピードで音声を発する。このように、ロボット100は、自己の感情を行動で表現することができる。
(【0011】以降は省略されています)

この特許をJ-PlatPatで参照する
Flag Counter

関連特許

個人
点字表示装置
1か月前
日本精機株式会社
表示装置
3か月前
日本精機株式会社
表示装置
1か月前
日本精機株式会社
表示装置
2か月前
日本精機株式会社
表示装置
2か月前
日本精機株式会社
表示装置
1か月前
キヤノン電子株式会社
表示装置
3か月前
アズビル株式会社
表示装置
1か月前
個人
英文法学習支援システム
1か月前
日本無線株式会社
移乗訓練装置
3か月前
株式会社ウメラボ
学習支援システム
5日前
株式会社ウメラボ
学習支援システム
1か月前
株式会社半導体エネルギー研究所
電子機器
3か月前
個人
九九学習用デジタル教材
2か月前
株式会社ウメラボ
学習支援システム
5日前
株式会社ウメラボ
学習支援システム
5日前
日亜化学工業株式会社
発光装置
1か月前
株式会社SUBARU
操縦装置
1か月前
アルプスアルパイン株式会社
表示装置
3か月前
株式会社原色美術印刷社
樹脂スタンド
12日前
第一ビニール株式会社
ポールスタンド
9日前
株式会社ゼロナイズ
疑似体験装置
1か月前
株式会社タカトリ
貼付装置及び貼付方法
3か月前
矢崎総業株式会社
表示装置
3か月前
株式会社オオサカネーム
発光看板
9日前
株式会社ホンダアクセス
車載装置
3か月前
リンテック株式会社
表示体
3か月前
東洋ガラス株式会社
厚盛りタックラベル
9日前
株式会社大阪クリップ
筆記具用グリップ
20日前
株式会社デンソー
表示装置
20日前
キヤノンファインテックニスカ株式会社
記録媒体
1か月前
株式会社パスコ
標高差分図作成装置
5日前
本田技研工業株式会社
地図生成装置
22日前
リンテック株式会社
剥離検知ラベル
3か月前
上海天馬微電子有限公司
表示装置
3か月前
株式会社共和
セキュリティラベルの製造方法
3か月前
続きを見る