JP2024041678A - 生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法 - Google Patents
生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法 Download PDFInfo
- Publication number
- JP2024041678A JP2024041678A JP2022146621A JP2022146621A JP2024041678A JP 2024041678 A JP2024041678 A JP 2024041678A JP 2022146621 A JP2022146621 A JP 2022146621A JP 2022146621 A JP2022146621 A JP 2022146621A JP 2024041678 A JP2024041678 A JP 2024041678A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- biological activity
- predetermined
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】ユーザの視界から見える映像を撮影するカメラと、拡張現実画像をユーザの視界に映し出すレンズディスプレイとを有するデバイスにおいて、カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する物体認識手段と、ユーザの生体活動量を取得する生体活動量取得手段と、生体活動量が、所定条件を満たすか否かを判定する判定手段と、判定手段によって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する拡張現実画像生成手段とを有する。生体活動量取得手段は、ユーザの身体に装着されたウェアラブルデバイス、又は、ユーザの身体に接着するセンサから、生体活動量を取得する。
【選択図】図2
Description
ユーザによっては、聴衆が多くなるほど、心理状態に強いストレスがかかる場合がある。また、聴衆の個々の顔表情を見過ぎてしまうことによって、ネガティブな心理状態になりやすい場合もある。これらの場合、ユーザは、あえて聴衆から目を逸らせることによって、気持ちを落ち着かせてプレゼンテーションを進めようとする。
これに対し、本願の発明者らは、視界に入る物体の映り込みを制御することによって、そのユーザの心理的なストレスを低減させることができないか、と考えた。例えば、デジタルセラピューティックスとして、ユーザの視界を制御することによって、ユーザにおける対人関係に基づくメンタルヘルスの改善に役立つのではないか、と考えた。
カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する物体認識手段と、
ユーザの生体活動量を取得する生体活動量取得手段と、
生体活動量が、所定条件を満たすか否かを判定する判定手段と、
判定手段によって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する拡張現実画像生成手段と
を有することを特徴とする。
当該デバイスは、ユーザの頭部の目の前に装着される眼鏡状のものであり、
拡張現実画像生成手段は、ユーザの視界に映る映像の中から、所定対象物の画像領域を隠蔽する拡張現実映像を生成する
ことも好ましい。
生体活動量取得手段は、ユーザの身体に装着されたウェアラブルデバイス、又は、ユーザの身体に接着するセンサから、生体活動量を取得する
ことも好ましい。
生体活動量は、心拍数、血中酸素濃度、皮膚温、血圧、脈拍、発汗量、気圧、環境音のいずれか又はそれらの組み合わせであり、
判定手段は、生体活動量からストレスレベルを推定し、当該ストレスレベルが所定閾値を超えた際に、真と判定する
ことも好ましい。
物体認識手段は、所定対象物として、複数の人物を検出する
ことも好ましい。
拡張現実画像生成手段は、ユーザの視界に映る映像における人数が所定割合で減少するように、人物の画像領域を隠蔽するべく拡張現実画像を生成する
ことも好ましい。
判定手段は、ストレスレベルに応じて、ユーザの視界に映る映像における人数を減少させる割合を設定する
ことも好ましい。
物体認識手段は、人物の画像領域から顔表情を認識し、当該顔表情が所定条件を満たす人物のみを、所定対象物として検出する
ことも好ましい。
物体認識手段は、顔表情が、所定条件としてネガティブと認識された人物のみを、所定対象物として検出する
ことも好ましい。
物体認識手段は、所定属性となる人物のみを、所定対象物として検出する
ことも好ましい。
物体認識手段は、人物の画像領域から姿勢を認識し、当該姿勢が所定条件を満たす人物のみを、所定対象物として検出する
ことも好ましい。
カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する物体認識手段と、
ユーザの生体活動量を取得する生体活動量取得手段と、
生体活動量が、所定条件を満たすか否かを判定する判定手段と、
判定手段によって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する拡張現実画像生成手段と
してコンピュータを機能させることを特徴とする。
デバイスは、
カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する第1のステップと、
ユーザの生体活動量を取得する第2のステップと、
生体活動量が、所定条件を満たすか否かを判定する第3のステップと、
第3のステップによって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する第4のステップと
を実行することを特徴とする。
スマートグラス1は、ユーザの頭部の目の前に装着されるシースルー型の眼鏡状のものである。
図1によれば、スマートグラス1は、ハードウェアとして、レンズディスプレイ101と、カメラ102と、無線通信部103とを有する。
レンズディスプレイ101は、拡張現実画像をユーザの視界に映し出す。
カメラ102は、ユーザの視界から見える映像を撮影する。例えばプレゼンテーションの場合、ユーザの面前の聴衆が映像に映り込むこととなる。
無線通信部103は、例えばBluetooth(登録商標)であって、スマートウォッチやウェアラブルデバイスのような他のデバイスと無線で通信する。
透過型デバイスである場合、カメラ102の映像に対して周囲の画素値から補間処理を施した拡張現実画像を、ユーザに視界に映し出す。
非透過型デバイスである場合、カメラ102の映像に対して画像加工を施した画像を、ユーザの視界に映し出す。
いずれのデバイスであっても、ユーザの頭部の向きに応じた映像に対して画像補間や画像加工をする、
スマートウォッチ2は、ユーザの腕に装着されるウェアラブルデバイスである。
スマートウォッチ2は、1つ以上の生体センサを搭載し、ユーザの「生体活動量」を計測することができる。生体センサとしては、例えば心拍数センサ、血中酸素濃度センサ、皮膚温センサ、血圧センサ、気圧センサ、環境マイクなどがある。
「血中酸素濃度センサ」は、皮膚に光をあてた動脈血成分の光の減衰から「血中酸素濃度(SpO2)」を測定する。
「皮膚温センサ」は、スマートウォッチ2の背面における皮膚に接触し、その「皮膚温」を検知する。
「血圧センサ」は、心拍数と血流量との組み合わせによって、「血圧」を計測する。
「気圧センサ」は、周囲の「気圧」を計測する。
「環境マイク」は、周囲の「環境音」を検知する。
生体活動量は、これら計測値(心拍数、血中酸素濃度、皮膚温、血圧、脈拍、発汗量、気圧、環境音)のいずれか又はそれらの組み合わせであってもよい。
スマートフォン3は、Bluetooth(登録商標)を介してスマートウォッチ2とペアリングされる。そして、スマートフォン3は、スマートウォッチ2から生体活動量を常時受信し、所定のアプリで処理する。
また、スマートフォン3は、Bluetoothを介してスマートグラス1とも、スマートフォン1とペアリングされる。そして、スマートフォン3は、所定のアプリから、スマートグラス1を制御することができる。
尚、図2で説明するスマートグラス1のソフトウェア的な処理を、スマートフォン1の所定のアプリで実行するものであってもよい。
物体認識部11は、カメラ102によって撮影された映像から、物体認識によって「所定対象物」の画像領域を検出する。
物体認識部11の処理機能として、領域切り出し機能と、特徴検出機能とを有する。
物体認識部11は、カメラ102によって撮影された映像フレームの画像から、所定対象物の画像領域(例えばバウンディングボックス)を切り出す。具体的には、R-CNN(Regions with Convolutional Neural Networks)やSSD(Single Shot Multibox Detector)を用いる。
R-CNNは、四角形の画像領域を、畳み込みニューラルネットワークの特徴と組み合わせて、所定対象物のサブセットを検出する(領域提案)。次に、領域提案からCNN特徴量を抽出する。そして、CNN特徴量を用いて予め学習したサポートベクタマシンによって、領域提案のバウンディングボックスを調整する。
SSDは、機械学習を用いた一般物体検知のアルゴリズムであって、デフォルトボックス(default boxes)という長方形の枠(バウンディングボックス)を決定する。1枚の画像上に、大きさの異なるデフォルトボックスを多数重畳させることができる。
物体認識部11は、バウンディングボックスの画像領域から、所定対象物を特定する。
検出される「所定対象物」としては、人物であってもよいし、それに限らない物体であってもよい。
例えばプレゼンテーションを想定する場合、ユーザが心理的にストレスを受けるような物体の特徴を予め設定しておく。一般的に、ユーザが心理的にストレスを受ける物体が聴衆である場合、人物の特徴を予め設定しておくことによって、ユーザの視界に映り込む映像から、人物のみを検出することができる。
生体活動量取得部12は、ユーザの「生体活動量」を取得する。
生体活動量取得部12は、ユーザの身体に装着されたウェアラブルデバイス、又は、ユーザの身体に接着するセンサから、生体活動量を取得する。図1によれば、スマートウォッチ2から、生体活動量を受信する。
前述したように、生体活動量としては、例えば心拍数、血中酸素濃度、皮膚温、血圧、脈拍、発汗量、気圧、環境音のいずれか又はそれらの組み合わせであってもよい。
判定部13は、生体活動量が、所定条件を満たすか否かを判定する。
具体的には、判定部13は、生体活動量からユーザの「ストレスレベル」を推定し、当該ストレスレベルが所定閾値を超えた際に、真と判定する。
ここで、以下のようなアルゴリズムで、ストレスレベルを判定する。
(S1)単位時間当たりの心拍数から、心拍間の時間(RRI)を計測する。
(S2)線形補間によって、再サンプリングを実行する。
(S3)周波数解析(フーリエ変換)によって、パワースペクトラムに変換する。
(S4)LF(Low Frequency)成分0.05Hz~0.15Hzと、HF(High Frequency)成分0.15Hz~0.40Hzとに区分する。
LF成分は、交感神経又は副交感神経が活性化しているときに増加する。
HF成分は、副交感神経が活性化している場合のみ増加する。
(S5)HF成分に対するLF成分の計測比率(LF/HF)が、高い場合はストレスがあり、低い場合はリラックスしているといえる。即ち、閾値比率を予め設定し、計測比率が閾値以上であれば、そのユーザのストレスが高いと判定することができる。
拡張現実画像生成部14は、判定部13によって真と判定された際に、ユーザの視界に映る映像における「所定対象物の画像領域」を加工した拡張現実画像を生成する。
例えばシースルー型のスマートグラスの場合、拡張現実画像生成部14が生成する拡張現実画像は、所定対象物の画像領域と同じ視覚的位置に、塗りつぶした色範囲だけのものとなる。これによって、ユーザの視界から、所定対象物が消滅したように見える。
<第1の実施形態>
ユーザの視界に映る人物の人数を削減させる。
<第2の実施形態>
ユーザの視界に映る人物の中で、予め設定された顔表情の人物を消滅させる。
<第3の実施形態>
ユーザの視界に映る人物の中で、予め設定された属性の人物を消滅させる。
<第4の実施形態>
ユーザの視界に映る人物の中で、予め設定された姿勢の人物を消滅させる。
ユーザの視界に映る人物の人数を削減させる。
図3によれば、ユーザがプレゼンテーションをしている際を想定している。ユーザの視界には多数の聴衆(人物)が見えているとする。このとき、ユーザは、聴衆が多いと緊張し、不安を抱きやすい性格であるとする。
次に、生体活動量取得部12は、プレゼンテーションをしているユーザの生体活動量を取得する。
次に、判定部13は、ユーザの生体活動量から、ストレスレベルが所定閾値以上であるか否かを判定する。
そして、拡張現実画像生成部14は、判定部13で真と判定された場合、ユーザの視界に映る人物の人数を、所定割合(%)で削減する。偽と判定された場合、拡張現実画像生成部14は機能しないようにする。
勿論、ストレスレベルや、そのストレスレベルに応じた削除割合は、ユーザ自身で予め設定可能なものであってもよい。
ユーザの視界に映る人物の中で、予め設定された顔表情の人物を消滅させる。
図4も、図3と同様に、ユーザがプレゼンテーションをしている際を想定している。ユーザの視界には多数の聴衆(人物)が見えているとする。このとき、ユーザは、ネガティブな顔表情の人を見ると、不安を抱きやすい性格であるとする。
ここで、物体認識部11は、人物の顔表情の検出し、その人物の顔特徴から顔表情を認識するものであってもよい(例えば非特許文献2参照)。
切り出された人物領域を、顔認識モデルを用いて、128/256/512次元の特徴量(ユークリッド距離)に変換する。顔領域から得られる特徴量としては、目の周辺領域の特徴量(例えば目を閉じている、眉間にシワを寄せている)に限らず、例えば、鼻・口・頬・顔面の筋肉の領域も検出する。これによって、ポジティブ/ネガティブ/ニュートラルの3つの表情を判定することができる。勿論、「目を閉じている」「眉間にシワを寄せている」のような顔表情そのものを認識するものであってもよい。
顔認識モデルとしては、具体的にはGoogle(登録商標)のFacenet(登録商標)アルゴリズムを用いることもできる。これによって、顔領域から多次元ベクトルの特徴量に変換することができる。
ユーザの視界に映る人物の中で、予め設定された属性の人物を消滅させる。
物体認識部11は、所定属性となる人物のみを、所定対象物として検出する。所定属性としては、例えば性別、年代であってもよい。例えば50歳以上の男性のみや、30歳以下の女性のみを、認識するものであってもよい。
これによって、ユーザは、プレゼンテーションの場面に限らず、自ら苦手とする属性の人物が視界に映らないため、ストレスが緩和される。ユーザにとって恐怖感や不安を抱きやすい容姿の人が視界に映り込んだ場合であっても、メンタルヘルスを改善することができる。
ユーザの視界に映る人物の中で、予め設定された姿勢の人物を消滅させる。
物体認識部11は、人物の画像領域から姿勢を認識し、当該姿勢が所定条件を満たす人物のみを、所定対象物として検出する。例えば、姿勢が「下を向いている」「寝ている」「腕を組んでいる」「身体を揺っている」「隣の人と話をしている」などの行動認識のAIエンジンを用いることもできる(例えば非特許文献6参照)。
これによって、ユーザは、プレゼンテーションの場面に限らず、好意的でない行動の人物が視界に映らないために、ストレスが緩和される。ユーザにとって恐怖感や不安を抱きやすい姿勢の人が視界に映り込んだ場合であっても、メンタルヘルスを維持することができる。
101 レンズディスプレイ
102 カメラ
103 無線通信部
11 物体認識部
12 生体活動量取得部
13 判定部
14 拡張現実画像生成部
2 スマートウォッチ、ウェアラブルデバイス
3 スマートフォン
Claims (13)
- ユーザの視界から見える映像を撮影するカメラと、拡張現実画像をユーザの視界に映し出すレンズディスプレイとを有するデバイスにおいて、
カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する物体認識手段と、
ユーザの生体活動量を取得する生体活動量取得手段と、
生体活動量が、所定条件を満たすか否かを判定する判定手段と、
判定手段によって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する拡張現実画像生成手段と
を有することを特徴とするデバイス。 - 当該デバイスは、ユーザの頭部の目の前に装着される眼鏡状のものであり、
拡張現実画像生成手段は、ユーザの視界に映る映像の中から、所定対象物の画像領域を隠蔽する拡張現実映像を生成する
ことを特徴とする請求項1に記載のデバイス。 - 生体活動量取得手段は、ユーザの身体に装着されたウェアラブルデバイス、又は、ユーザの身体に接着するセンサから、生体活動量を取得する
ことを特徴とする請求項1に記載のデバイス。 - 生体活動量は、心拍数、血中酸素濃度、皮膚温、血圧、脈拍、発汗量、気圧、環境音のいずれか又はそれらの組み合わせであり、
判定手段は、生体活動量からストレスレベルを推定し、当該ストレスレベルが所定閾値を超えた際に、真と判定する
ことを特徴とする請求項3に記載のデバイス。 - 物体認識手段は、所定対象物として、複数の人物を検出する
ことを特徴とする請求項1に記載のデバイス。 - 拡張現実画像生成手段は、ユーザの視界に映る映像における人数が所定割合で減少するように、人物の画像領域を隠蔽するべく拡張現実画像を生成する
ことを特徴とする請求項5に記載のデバイス。 - 判定手段は、ストレスレベルに応じて、ユーザの視界に映る映像における人数を減少させる割合を設定する
ことを特徴とする請求項6に記載のデバイス。 - 物体認識手段は、人物の画像領域から顔表情を認識し、当該顔表情が所定条件を満たす人物のみを、所定対象物として検出する
ことを特徴とする請求項5に記載のデバイス。 - 物体認識手段は、顔表情が、所定条件としてネガティブと認識された人物のみを、所定対象物として検出する
ことを特徴とする請求項6に記載のデバイス。 - 物体認識手段は、所定属性となる人物のみを、所定対象物として検出する
ことを特徴とする請求項5に記載のデバイス。 - 物体認識手段は、人物の画像領域から姿勢を認識し、当該姿勢が所定条件を満たす人物のみを、所定対象物として検出する
ことを特徴とする請求項5に記載のデバイス。 - ユーザの視界から見える映像を撮影するカメラと、拡張現実画像をユーザの視界に映し出すレンズディスプレイとを有するデバイスに搭載されたコンピュータを機能させるプログラムにおいて、
カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する物体認識手段と、
ユーザの生体活動量を取得する生体活動量取得手段と、
生体活動量が、所定条件を満たすか否かを判定する判定手段と、
判定手段によって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する拡張現実画像生成手段と
してコンピュータを機能させることを特徴とするプログラム。 - ユーザの視界から見える映像を撮影するカメラと、拡張現実画像をユーザの視界に映し出すレンズディスプレイとを有するデバイスの表示方法において、
デバイスは、
カメラによって撮影された映像から、物体認識によって所定対象物の画像領域を検出する第1のステップと、
ユーザの生体活動量を取得する第2のステップと、
生体活動量が、所定条件を満たすか否かを判定する第3のステップと、
第3のステップによって真と判定された際に、ユーザの視界に映る映像における所定対象物の画像領域を加工した拡張現実画像を生成する第4のステップと
を実行することを特徴とするデバイスの表示方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022146621A JP7705700B2 (ja) | 2022-09-14 | 2022-09-14 | 生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022146621A JP7705700B2 (ja) | 2022-09-14 | 2022-09-14 | 生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024041678A true JP2024041678A (ja) | 2024-03-27 |
| JP7705700B2 JP7705700B2 (ja) | 2025-07-10 |
Family
ID=90416977
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022146621A Active JP7705700B2 (ja) | 2022-09-14 | 2022-09-14 | 生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7705700B2 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008035298A (ja) * | 2006-07-31 | 2008-02-14 | Sharp Corp | コンテンツ処理装置及びプログラム |
| US20140139551A1 (en) * | 2012-11-21 | 2014-05-22 | Daniel McCulloch | Augmented reality help |
| JP2022535032A (ja) * | 2019-05-31 | 2022-08-04 | レズメド ピーティーワイ リミテッド | 拡張現実を用いて認知機能の低下を最小化するためのシステムおよび方法 |
| JP2023036171A (ja) * | 2021-09-02 | 2023-03-14 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | ユーザ行動支援装置、方法およびプログラム |
-
2022
- 2022-09-14 JP JP2022146621A patent/JP7705700B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008035298A (ja) * | 2006-07-31 | 2008-02-14 | Sharp Corp | コンテンツ処理装置及びプログラム |
| US20140139551A1 (en) * | 2012-11-21 | 2014-05-22 | Daniel McCulloch | Augmented reality help |
| JP2022535032A (ja) * | 2019-05-31 | 2022-08-04 | レズメド ピーティーワイ リミテッド | 拡張現実を用いて認知機能の低下を最小化するためのシステムおよび方法 |
| JP2023036171A (ja) * | 2021-09-02 | 2023-03-14 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | ユーザ行動支援装置、方法およびプログラム |
Non-Patent Citations (1)
| Title |
|---|
| 葛西 響子 他3名: "コウテイカボチャ:聴衆に肯定的な反応を重畳する発表時緊張感緩和手法", 情報処理学会研究報告ヒューマンコンピュータインタラクション, vol. 2014巻8号, JPN6022046406, JP, pages 1 - 8, ISSN: 0005552260 * |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7705700B2 (ja) | 2025-07-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10638938B1 (en) | Eyeglasses to detect abnormal medical events including stroke and migraine | |
| JP2019519053A (ja) | 視覚機能データを獲得し、分析し、生成する、かつデータに基づいてメディアを修正するための方法およびシステム | |
| US20200201434A1 (en) | Bioresponsive virtual reality system and method of operating the same | |
| US20180107275A1 (en) | Detecting facial expressions | |
| US20240164672A1 (en) | Stress detection | |
| US12093457B2 (en) | Creation of optimal working, learning, and resting environments on electronic devices | |
| CN106580346A (zh) | 情绪推定方法和情绪推定装置 | |
| US12277265B2 (en) | Eye-gaze based biofeedback | |
| Nie et al. | SPIDERS: Low-cost wireless glasses for continuous in-situ bio-signal acquisition and emotion recognition | |
| US12171586B2 (en) | Output control device, output control method, and program | |
| KR20190020418A (ko) | 가상현실을 이용한 심리 모니터링 시스템 및 이를 이용한 심리치료 시스템 | |
| CN114432565A (zh) | 空想意识信息恢复系统 | |
| US12517576B2 (en) | Gaze behavior detection | |
| JP7279121B2 (ja) | ユーザ行動支援装置、方法およびプログラム | |
| WO2017016941A1 (en) | Wearable device, method and computer program product | |
| JP7705700B2 (ja) | 生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法 | |
| US12393273B1 (en) | Dynamic recording of an experience based on an emotional state and a scene understanding | |
| US20240221301A1 (en) | Extended reality assistance based on user understanding | |
| US12033299B2 (en) | Interaction training system for autistic patient using image warping, method for training image warping model, and computer readable storage medium including executions causing processor to perform same | |
| KR102543337B1 (ko) | 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법 | |
| US20240319789A1 (en) | User interactions and eye tracking with text embedded elements | |
| EP4125551B1 (en) | A system for providing guidance | |
| WO2023032617A1 (ja) | 判定システム、判定方法、及び、プログラム | |
| Rudokaitė | AINAR: Artificial Intelligence for Needle Anxiety Reduction | |
| CN121528447A (zh) | 一种基于虚拟现实的抑郁症辅助治疗系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240716 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250318 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250319 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250428 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250620 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250628 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7705700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |