JP7557225B1 - 情報処理システム、情報処理方法及びプログラム - Google Patents
情報処理システム、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7557225B1 JP7557225B1 JP2023147937A JP2023147937A JP7557225B1 JP 7557225 B1 JP7557225 B1 JP 7557225B1 JP 2023147937 A JP2023147937 A JP 2023147937A JP 2023147937 A JP2023147937 A JP 2023147937A JP 7557225 B1 JP7557225 B1 JP 7557225B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- control unit
- information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Pathology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】情報処理システムでは、ユーザーが目視可能な表示部に仮想空間画像を表示するよう制御する。仮想空間画像に第1のカテゴリーの絵画画像と第1のカテゴリーとは異なる第2のカテゴリーの絵画画像との組み合わせを順次表示させる。順次表示される第1のカテゴリーの絵画画像と第2のカテゴリーの絵画画像とに関するユーザーの視線の位置の情報に基づきユーザーのストレスに関する情報を求める。
【選択図】図1
Description
1.HMD
図1は、HMD(Head Mounted Display)100を装着したユーザー10の一例を示す図である。図1に示されるように、実施形態1ではユーザー10がHMD100を装着し、HMD100が後述する処理等を行うものとして説明を行う。
図2は、HMD100のハードウェア構成の一例を示す図である。
図2に示されるように、HMD100は、ハードウェア構成として、制御部210と、記憶部220と、撮像部230と、入力部240と、出力部250と、通信部260と、ジャイロセンサ270と、加速度センサ280と、を含む。
出力部250は、ディスプレイ等であって、制御部210によって生成された3次元の仮想空間画像等を表示する。出力部250は、表示部の一例である。
通信部260は、HMD100をネットワークに接続し、他の装置との通信を司る。
加速度センサ280は、HMD100の移動速度が変化するときに発生する慣性力を検知し、加速度として電気信号で出力するセンサである。
以下、実施形態1の情報処理を説明する。
図3は、HMD100における情報処理の一例を示すメインのフローチャートである。
ユーザー10がシステムにログインすると、ステップS310において、制御部210は、キャリブレーションの処理を実行する。制御部210は、キャリブレーションの処理として、例えば、ユーザー10の虹彩又は瞳孔を含む撮像画像に基づき、ユーザー10の眼球の位置を求め、HMD100とユーザー10の頭部との水平方向及び垂直方向のずれを補正する。
ストレスチェックの処理の詳細は図5に示されるフローチャートを用いて説明する。図5は、ストレスチェックの処理の一例を示すフローチャートである。
ステップS510において、制御部210は、3次元の仮想空間画像内に第1のカテゴリーの絵画画像と第1のカテゴリーとは異なる第2のカテゴリーの絵画画像との組み合わせを表示する。第1のカテゴリーの絵画画像は、例えば、鬱ではない人が描いた絵画の画像である。第2のカテゴリーの絵画画像は、例えば、鬱の人が描いた絵画の画像である。
制御部210が、図4に示されるような画面においてストレスチェックの案内板410が選択されたと判定し、ステップS340に処理を進め、ステップS510及びステップS520の処理を繰り返し実行する処理は、ユーザーの視線の位置の情報に基づき複数のグラフィカルユーザーインターフェース部品のうちストレスチェックに関するグラフィカルユーザーインターフェース部品が選択された場合、仮想空間画像に第1のカテゴリーの絵画画像と第2のカテゴリーの絵画画像との組み合わせを順次表示させる処理の一例である。
画像610は、3次元の仮想空間画像である。画像610には絵画画像611と絵画画像612とが表示されている。絵画画像611は、第1のカテゴリーの絵画画像である。絵画画像612は、第2のカテゴリーの絵画画像である。絵画画像は共に風景画の画像である。制御部210による1回目のステップS510の処理によって例えば絵画画像611と絵画画像612とが表示される。制御部210は、ユーザー10の視線の位置が絵画画像611と絵画画像612とのどちらに多くあるかを求め、求めた結果を記憶部220等の所定の記憶領域に記憶する。
ビジョントレーニングの処理の詳細は図7に示されるフローチャートを用いて説明する。図7は、ビジョントレーニングの処理の一例を示すフローチャートである。
ステップS710において、制御部210は、3次元の仮想空間画像内にビジョントレーニングの画像を表示する。ビジョントレーニングの画像とは、3次元の仮想空間画像内に立体的に並んで表示された複数の物体画像である。制御部210は、複数の物体画像のうちの少なくとも1つの物体画像を他の物体画像と区別可能に表示する。制御部210は、ステップS710の処理を実行するたびに複数の物体画像のうちの少なくとも1つの物体画像をランダムに選択し、他の物体画像と区別可能に表示する。区別可能に表示する例としては他の物体画像と異なる色で表示することである。なお、これは一例であり、他の物体画像と区別することさえできればどのような表示であってもよい。区別可能に表示する他の例としては太枠で表示する、点滅させて表示する、他の物体画像異なる形で表示する、選択した物体画像を表示し、他の物体画像は非表示とする等、様々な表示方法がある。
画像810は、3次元の仮想空間画像である。画像810には制御部210による1回目のステップS710の処理によって選択された物体画像811が他の物体画像と区別可能に表示されている。なお、画像812は、ユーザー10の視線の位置を示す画像である。画像812は説明のために示したものであり、実際の仮想空間画像には表示されない。物体画像は図8に示されるようなものに限られない。仮想空間上においてそこに物が存在するように示すことができればどのような画像であってもよい。物体画像の他の例としてはスポーツにおけるボールや羽根(野球のボール、バレーボールのボール、バスケットボールのボール、テニスのボール、卓球のボール、バトミントンの羽根)等がある。
制御部210は、ステップS710の繰り返しの実行によって、選択された物体画像(例えばボールや羽根)を3次元仮想空間の奥行方向から手前方向に順次移動するよう表示させてもよい。
なお、制御部210は、ステップS710の処理を実行する直前にもう一度キャリブレーションの処理を実行するようにしてもよい。このようにすることによって、ズレを無くしてより精度良くユーザーの深視力等を求めることができる。
実施形態1の変形例1を説明する。変形例1では実施形態1と異なる点について主に説明する。以下の変形例においても同様である。
変形例1の制御部210は、ステップS520で求めたユーザーの視線の位置の情報を学習済みモデルに入力する。学習済みモデルは、第1のカテゴリーの絵画画像と第2のカテゴリーの絵画画像とに関するユーザーの視線の位置の情報を入力データ、ストレスの度合いを示す値を出力データとして学習された学習済みモデルである。制御部210は、学習済みモデルよりストレスの度合いを示すデータを取得することでユーザーのストレスに関する情報を求める。
実施形態1の変形例2を説明する。
変形例2の制御部210は、ユーザーの視線の位置と複数の物体画像のうち他の物体画像と区別可能に表示した物体画像の位置とを学習済みモデルに入力する。学習済みモデルは、3次元の仮想空間画像における物体画像を見ようとするユーザーの視線の位置(例えば3次元空間上におけるx,y,z座標)と3次元の仮想空間画像における複数の物体画像のうち他の物体画像と区別可能に表示した物体画像の位置(例えば3次元空間上におけるx,y,z座標)とを入力データ、ユーザーの深視力に関する情報を出力データとして学習された学習済みモデルである。制御部210は、学習済みモデルより深視力に関する情報を取得することでユーザーの深視力に関する情報を求める。
実施形態1の変形例3を説明する。
変形例3の制御部210は、ユーザー10の深視力の情報を、深視力を求めた日時情報と共に履歴として記憶部220等に記憶するようにしてもよい。そして、制御部210は、ステップS750で深視力を出力する際に、過去の履歴と共に出力するようにしてもよい。
実施形態1の変形例4を説明する。
変形例4の制御部210は、図7に示されるようなフローチャートの処理において、視線の位置と他の物体画像と区別可能に表示された物体画像との3次元の仮想空間内での距離が所定の距離以内であった場合、選択された物体画像が表示されてから求めた距離が所定の距離以内になるまでにかかった時間を求め、求めた時間を距離の情報と関連付けて記憶部220等の所定の記憶領域に記憶する。
制御部210は、記憶部220等の所定の記憶領域に記憶されている、距離の情報と関連付けられて時間が記憶されている場合は、記憶されている時間に基づきユーザー10の動体視力を求める。制御部210は、距離の情報と関連付けられて時間の情報が記憶されていない場合には、3次元の仮想空間内において所定時間内に他の物体画像と区別可能に表示された物体画像を注視することができなかったと判断することができる。また制御部210は、距離の情報と関連付けられて時間の情報が記憶されている場合には、3次元の仮想空間内において所定時間内に他の物体画像と区別可能に表示された物体画像を注視することができたと判断することができる。制御部210は、記憶部220等の所定の記憶領域に記憶されている情報に基づき、何回、他の物体画像と区別可能に表示された物体画像を注視することができたか及び注視するまでにかかった時間の平均を求めることができる。制御部210は求めた情報に基づきユーザー10の動体視力を求める。
実施形態1の変形例5を説明する。
複数のユーザーが1つのHMD100を共有するようにしてもよい。このような使用方法の場合、ユーザーは、HMD100に貼られている二次元コード等をユーザーのスマートフォン等で読み取る。そして、スマートフォンからユーザーの情報をHMD100に送信することでどのユーザーがHDM100のシステムにログインしているか識別可能にしてもよい。複数のユーザーが共有してHMD100を使用する場合、上述した各情報(例えば、深視力、ストレス度等)はユーザーごとに記憶部220等に記憶される。
実施形態1の変形例6を説明する。
変形例6ではHMD100から情報を取得したサーバー装置が上述した変形例も含めて実施形態1で説明したHMD100が行う処理のすべて又は一部を実施するようにしてもよい。クライアント装置側で処理を行うのではなく、サーバー装置側で処理を行うことによって、クライアント側(すなわちHMD100)の負荷が低減される。また、ソフトウェアのバージョンアップやソフトウェアの修正もサーバー装置側で行えば済むため、トラブル時の原因追求や復旧が素早く行える。サーバー装置はハードウェア構成として少なくとも制御部と記憶部と通信部とを有する。制御部はCPU等であって、記憶部に記憶されているプログラムに基づき処理を実行することによってサーバー装置の機能を実現する。記憶部はプログラム及び制御部がプログラムに基づき処理を実行する際に利用するデータ等を記憶する通信部はサーバー装置をネットワーク等に接続し、他の装置との通信を司る。
またサーバー装置の制御部はビジョントレーニングの結果が過去のビジョントレーニングの平均値等よりよい場合は、よい結果を得られた際のセンサの情報を記憶するようにしてもよい。そしてその記憶しておいたセンサの情報をHMD100及びセンサ(又はセンサを制御する装置等)に送信するようにしてもよい。このような構成とすることによって例えばゾーン状態になっており成績がよかった際の環境をユーザーの周りで再現させることができる。
実施形態1の変形例7を説明する。
変形例7の制御部210は、ビジョントレーニングの処理において、撮像画像に基づきユーザーの注視点を求め、その注視点が3次元の仮想空間画像において表示された指標となる画像(指標画像)に当たった場合は、ピントがあっていると判定する。制御部210は、指標画像を動かし、動かした指標画像の位置、速さと、ユーザーの追視の情報(注視点の位置、速さ)と、に基づきユーザーの動体視力を求める。また、制御部210は、指標画像を動かし、仮想空間上における奥行方向に動かした指標画像の位置、速さと、奥行方向のユーザーの追視の情報(注視点の位置、速さ)と、に基づきユーザーの深視力を求める。
変形例7によってもユーザーの動体視力や深視力を求めることができる。
実施形態1の変形例8を説明する。
変形例8の制御部210は、ビジョントレーニングの処理のステップS710の繰り返しの実行によって、選択された物体画像(例えばボールや羽根)を3次元仮想空間の奥行方向から手前方向に順次移動させるよう表示させてもよい。制御部210は、選択された物体画像を3次元仮想空間の奥行方向から手前方向に順次移動させる際に、水平方向に動くように移動させると共に、垂直方向に動くように移動させてもよい。そして制御部210は、選択された物体画像を水平方向に移動させた際のユーザーの深視力及び動体視力を求める。同様に制御部210は、選択された物体画像を水平方向に移動させた際のユーザーの深視力及び動体視力を求める。そして制御部210等は水平方向に関する深視力及び動体視力と垂直方向に関する深視力及び動体視力とを比較し、バランスがとれているか等を解析するようにしてもよい。そして、制御部210は、水平方向に関する深視力及び動体視力と垂直方向に関する深視力及び動体視力とを比較し、何れか一方の深視力及び動体視力の値がもう一方の深視力及び動体視力よりよくないと判断した場合、次のビジョントレーニングの際に、値が良くない方の動き(例えば、選択画像の垂直方向への動き、又は選択画像の水平方向の動き)を多くするようにしてもよい。すなわち、制御部210は、過去の垂直方向及び水平方向の深視力及び動体視力の値に基づきビジョントレーニングの際の選択画像(ボールや羽根等)の垂直方向及び水平方向動きを変更するようにしてもよい。
なお、入力部240を介したユーザーの入力操作等に応じて、制御部210は、垂直方向及び水平方向の動きのうちどちらを多くするか決定するようにしてもよい。
発明は、次に記載の各態様で提供されてもよい。
もちろん、この限りではない。
制御部210は、上述した実施形態1及び各変形例を任意に組み合わせて実施するようにしてもよい。
100 :HMD
120 :カメラ
210 :制御部
220 :記憶部
230 :撮像部
240 :入力部
250 :出力部
260 :通信部
270 :ジャイロセンサ
280 :加速度センサ
410 :案内板
420 :案内板
610 :画像
611 :絵画画像
612 :絵画画像
620 :画像
621 :絵画画像
622 :絵画画像
630 :画像
631 :絵画画像
632 :絵画画像
810 :画像
811 :物体画像
812 :画像
820 :画像
821 :物体画像
822 :画像
830 :画像
831 :物体画像
832 :画像
Claims (5)
- 情報処理システムであって、
制御部を備え、
前記制御部は、ユーザーが目視可能な表示部に、第1の絵画画像と第2の絵画画像との組合せを順次表示させ、ここで
前記第1の絵画画像は、第1のカテゴリーに属しており、
前記第2の絵画画像は、前記第1のカテゴリーとは異なる第2のカテゴリーに属しており、
前記制御部は、前記ユーザーの視線の位置に関する情報を学習済みモデルに入力し、ここで
前記視線の位置に関する情報は、前記第1の絵画画像と前記第2の絵画画像とのどちらを多く見ていたかの回数の情報を含み、
前記学習済みモデルは、前記視線の位置に関する情報を入力データとし且つストレスの度合いを示す値を出力データとして学習させた学習済みモデルであり、
前記制御部は、前記学習済みモデルよりストレスの度合いを示す値を取得することで、前記ユーザーの前記ストレスに関する情報を出力する、
情報処理システム。 - 請求項1に記載の情報処理システムにおいて、
前記制御部は、前記表示部にグラフィカルユーザーインターフェース部品を表示させ、ここで前記グラフィカルユーザーインターフェース部品には、ストレスチェックに関するグラフィカルユーザーインターフェース部品が含まれ、
前記制御部は、前記ユーザーの視線の位置の情報に基づき、前記グラフィカルユーザーインターフェース部品のうち前記ストレスチェックに関するグラフィカルユーザーインターフェース部品が選択された場合、前記表示部に前記第1の絵画画像と前記第2の絵画画像との組み合わせを順次表示させる、
情報処理システム。 - 請求項1に記載の情報処理システムにおいて、
前記ユーザーの前記ストレスに関する情報は、撮像部によって撮像された撮像画像に基づき取得された、前記ユーザーの前記視線の位置に関する情報に基づいて出力される、
情報処理システム。 - 情報処理システムが実行する情報処理方法であって、
請求項1から請求項3までの何れか1項に記載の情報処理システムの前記制御部が実行する各処理をステップとして備える、
情報処理方法。 - プログラムであって、
コンピュータを、
請求項1から請求項3までの何れか1項に記載の情報処理システムとして機能させるためのプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023147937A JP7557225B1 (ja) | 2023-09-12 | 2023-09-12 | 情報処理システム、情報処理方法及びプログラム |
| JP2024150678A JP2025040951A (ja) | 2023-09-12 | 2024-09-02 | 情報処理システム、情報処理方法及びプログラム |
| PCT/JP2024/032173 WO2025057898A1 (ja) | 2023-09-12 | 2024-09-09 | 情報処理システム、情報処理方法、および記録媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023147937A JP7557225B1 (ja) | 2023-09-12 | 2023-09-12 | 情報処理システム、情報処理方法及びプログラム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024150678A Division JP2025040951A (ja) | 2023-09-12 | 2024-09-02 | 情報処理システム、情報処理方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP7557225B1 true JP7557225B1 (ja) | 2024-09-27 |
| JP2025040868A JP2025040868A (ja) | 2025-03-25 |
Family
ID=92839461
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023147937A Active JP7557225B1 (ja) | 2023-09-12 | 2023-09-12 | 情報処理システム、情報処理方法及びプログラム |
| JP2024150678A Pending JP2025040951A (ja) | 2023-09-12 | 2024-09-02 | 情報処理システム、情報処理方法及びプログラム |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024150678A Pending JP2025040951A (ja) | 2023-09-12 | 2024-09-02 | 情報処理システム、情報処理方法及びプログラム |
Country Status (2)
| Country | Link |
|---|---|
| JP (2) | JP7557225B1 (ja) |
| WO (1) | WO2025057898A1 (ja) |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012209941A (ja) | 2011-03-11 | 2012-10-25 | Nikon Corp | 立体視訓練支援装置、立体視訓練支援システム、画像処理装置、画像処理方法、及びプログラム |
| JP2012257022A (ja) | 2011-06-08 | 2012-12-27 | Sony Corp | 画像処理装置および方法、並びにプログラム |
| JP2013208260A (ja) | 2012-03-30 | 2013-10-10 | Nikon Corp | 情報提示装置、情報提示システム、サーバ、情報提示方法及びプログラム |
| JP2015039487A (ja) | 2013-08-21 | 2015-03-02 | 大日本印刷株式会社 | 生理指標を用いる視線分析システムおよび方法 |
| JP2017086529A (ja) | 2015-11-11 | 2017-05-25 | 日本電信電話株式会社 | 印象推定装置およびプログラム |
| JP2019153303A (ja) | 2018-03-01 | 2019-09-12 | 学校法人玉川学園 | 情報処理装置、情報処理方法、及びプログラム |
| JP2019159518A (ja) | 2018-03-09 | 2019-09-19 | 株式会社国際電気通信基礎技術研究所 | 視認状態検知装置、視認状態検知方法および視認状態検知プログラム |
| JP2020156956A (ja) | 2019-03-28 | 2020-10-01 | 学校法人早稲田大学 | 視覚認知機能評価システム |
| JP2020181263A (ja) | 2019-04-23 | 2020-11-05 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および情報提示方法 |
| JP2021502881A (ja) | 2017-11-14 | 2021-02-04 | ビビッド・ビジョン・インコーポレイテッドVivid Vision,Inc. | 視野解析のためのシステムおよび方法 |
| JP2022019416A (ja) | 2020-07-17 | 2022-01-27 | 京セラ株式会社 | 電子機器、情報処理装置、推定方法、および推定プログラム |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6102846A (en) * | 1998-02-26 | 2000-08-15 | Eastman Kodak Company | System and method of managing a psychological state of an individual using images |
| EP3493728B1 (en) * | 2016-08-02 | 2025-11-05 | New York University | Methods and kits for assessing neurological function and localizing neurological lesions |
| JP7226197B2 (ja) * | 2019-08-30 | 2023-02-21 | 株式会社デンソー | 車両制御装置 |
-
2023
- 2023-09-12 JP JP2023147937A patent/JP7557225B1/ja active Active
-
2024
- 2024-09-02 JP JP2024150678A patent/JP2025040951A/ja active Pending
- 2024-09-09 WO PCT/JP2024/032173 patent/WO2025057898A1/ja active Pending
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012209941A (ja) | 2011-03-11 | 2012-10-25 | Nikon Corp | 立体視訓練支援装置、立体視訓練支援システム、画像処理装置、画像処理方法、及びプログラム |
| JP2012257022A (ja) | 2011-06-08 | 2012-12-27 | Sony Corp | 画像処理装置および方法、並びにプログラム |
| JP2013208260A (ja) | 2012-03-30 | 2013-10-10 | Nikon Corp | 情報提示装置、情報提示システム、サーバ、情報提示方法及びプログラム |
| JP2015039487A (ja) | 2013-08-21 | 2015-03-02 | 大日本印刷株式会社 | 生理指標を用いる視線分析システムおよび方法 |
| JP2017086529A (ja) | 2015-11-11 | 2017-05-25 | 日本電信電話株式会社 | 印象推定装置およびプログラム |
| JP2021502881A (ja) | 2017-11-14 | 2021-02-04 | ビビッド・ビジョン・インコーポレイテッドVivid Vision,Inc. | 視野解析のためのシステムおよび方法 |
| JP2019153303A (ja) | 2018-03-01 | 2019-09-12 | 学校法人玉川学園 | 情報処理装置、情報処理方法、及びプログラム |
| JP2019159518A (ja) | 2018-03-09 | 2019-09-19 | 株式会社国際電気通信基礎技術研究所 | 視認状態検知装置、視認状態検知方法および視認状態検知プログラム |
| JP2020156956A (ja) | 2019-03-28 | 2020-10-01 | 学校法人早稲田大学 | 視覚認知機能評価システム |
| JP2020181263A (ja) | 2019-04-23 | 2020-11-05 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および情報提示方法 |
| JP2022019416A (ja) | 2020-07-17 | 2022-01-27 | 京セラ株式会社 | 電子機器、情報処理装置、推定方法、および推定プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2025040868A (ja) | 2025-03-25 |
| WO2025057898A1 (ja) | 2025-03-20 |
| JP2025040951A (ja) | 2025-03-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101520113B1 (ko) | 단일형 시각 및 신경 처리 시험 센터 | |
| CN110167421B (zh) | 整体地测量视觉功能的临床参数的系统 | |
| CN101657145B (zh) | 单一式视觉测试中心 | |
| US9135508B2 (en) | Enhanced user eye gaze estimation | |
| CN106095089A (zh) | 一种获取感兴趣目标信息的方法 | |
| CN109246463B (zh) | 用于显示弹幕的方法和装置 | |
| CN101836237B (zh) | 用于选择所呈现图形的观看配置的方法和系统 | |
| JP7263474B2 (ja) | 人の視覚挙動を検査する機器及びそのような装置を用いて眼鏡レンズの少なくとも1個の光学設計パラメータを決定する方法 | |
| CN105992965A (zh) | 响应于焦点移位的立体显示 | |
| CN103281959A (zh) | 视觉疲劳度测定装置、视觉疲劳度测定方法、视觉疲劳度测定系统及三维眼镜 | |
| Sundstedt et al. | A psychophysical study of fixation behavior in a computer game | |
| Cordeiro et al. | ARZombie: A mobile augmented reality game with multimodal interaction | |
| CN105528577A (zh) | 基于智能眼镜的识别方法 | |
| CN113467619B (zh) | 画面显示方法、装置和存储介质及电子设备 | |
| KR20230150934A (ko) | 3차원 영상을 활용한 술기 교육 시스템 및 머신 러닝 기반의 수술 가이드 시스템 | |
| CN114220312B (zh) | 虚拟训练方法、装置以及虚拟训练系统 | |
| CN110433062B (zh) | 一种基于动态视频影像的视功能训练系统 | |
| JP7557225B1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
| Lee et al. | A study on virtual reality sickness and visual attention | |
| JP6901474B2 (ja) | 人の視覚挙動パラメータを判断する方法及びこれに関連する検査機器 | |
| CN116458835B (zh) | 一种幼儿近视及弱视的检测预防系统 | |
| JP2025075819A (ja) | プログラム、及び、システム | |
| KR20240015687A (ko) | 시각 능력을 특성화하기 위한 가상 현실 기법 | |
| KR20230090861A (ko) | 사용자의 생체 정보를 활용한 vr 및 ar 게임 컨텐츠 평가 방법 및 장치 | |
| CN108495584A (zh) | 用于通过触觉界面确定眼球运动的装置和方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240307 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240307 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240319 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240415 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240423 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240621 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240813 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240906 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7557225 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |