JP7312465B2 - 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム - Google Patents
情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム Download PDFInfo
- Publication number
- JP7312465B2 JP7312465B2 JP2020535906A JP2020535906A JP7312465B2 JP 7312465 B2 JP7312465 B2 JP 7312465B2 JP 2020535906 A JP2020535906 A JP 2020535906A JP 2020535906 A JP2020535906 A JP 2020535906A JP 7312465 B2 JP7312465 B2 JP 7312465B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- detection
- user
- space
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- General Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Biomedical Technology (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Structural Engineering (AREA)
- Civil Engineering (AREA)
- Architecture (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
Description
前記出力部は、前記動画に対応する複数の画像のうち、前記所定の反応が検出された再生位置に対応する一以上の画像を表示部に表示させてもよい。
前記出力部は、前記所定の反応が検出された一以上の再生位置のそれぞれに対応する一以上の画像の中から画像の選択を受け付け、選択された画像と類似する画像を表示させてもよい。
前記取得部は、前記ユーザが前記所定空間を見回す動作である見回し動作の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得してもよい。
前記取得部は、前記ユーザが前記所定空間を視認した場合における前記ユーザの所定パターンの視線の動きを前記見回し動作とし、当該見回し動作の検出状態を示す前記検出情報を取得してもよい。
前記取得部は、前記ユーザが前記所定空間を視認した場合における、前記ユーザの脳波の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得してもよい。
[設計支援システムSの概要]
図1は、第1実施形態に係る設計支援システムSの概要を示す図である。設計支援システムSは、生成装置1と、表示装置2と、情報出力装置3とを備え、建築物に関する空間の設計を支援するシステムである。
以下、表示装置2及び情報出力装置3の構成について説明する。
まず、表示装置2の構成について説明する。図2は、第1実施形態に係る表示装置2の構成を示す図である。
表示装置2は、入力部21と、表示部22と、検出部23と、記憶部24と、制御部25とを備える。
表示部22は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等により構成される。表示部22は、制御部25の制御に応じて各種情報を表示する。
検出部23は、例えば、3次元加速度センサであり、表示装置2にかかる加速度を検出する。検出部23は、加速度を検出すると、検出した加速度を示す情報を制御部25に出力する。
続いて、情報出力装置3の構成について説明する。図3は、第1実施形態に係る情報出力装置3の構成を示す図である。
入力部31は、例えば、ボタンや、表示部32に重畳して配置される接触センサ等により構成されており、情報出力装置3のユーザから操作入力を受け付ける。
表示部32は、例えば、液晶ディスプレイや有機ELディスプレイ等により構成される。表示部32は、制御部34の制御に応じて各種情報を表示する。
以下に、情報出力装置3が、VR空間情報と、取得した検出情報とを関連付けた認識結果情報を出力するときの処理の流れを示すシーケンス図を参照しながら、制御部25及び制御部34が備える各機能について説明する。図4は、第1実施形態における情報出力装置3が認識結果情報を出力するまでの処理の流れを示すシーケンス図である。
図5は、一人のユーザの認識結果情報の表示例を示す図である。ここでは、ユーザが、VR空間情報が示すVR空間として、VR動画を視認した場合の認識結果情報の表示例について説明する。また、所定の反応が、見回し動作であるものとして、認識結果情報の表示例について説明する。
出力部342は、取得部341が取得した一以上のユーザUの少なくともいずれかの選択を受け付け、VR空間情報が示すVR空間と、選択を受け付けたユーザUに対応する検出情報とを関連付けて出力してもよい。図6は、一以上のユーザの認識結果情報の表示例を示す図である。
出力部342は、ユーザUによる見回し動作を検出したときのVR空間における位置を特定してもよい。取得部341は、VR空間を示す地図情報を予め取得し、当該地図情報を記憶部33に記憶させる。出力部342は、記憶部33に記憶されている地図情報が示す地図に、特定した位置を示す情報を表示させる。図7は、VR空間に対応する地図の表示例を示す図である。
続いて、脳波と、見回し動作や注視動作との関係性について説明する。図8は、VR動画を視認したユーザのθ波の検出状況と、見回し動作としての首振り動作の検出状況とを示す図である。図8(a)は、θ波の検出状況を示し、図8(b)は、首振り動作や注視動作の検出状況を示している。なお、図8(a)に示すグラフの横軸と、図8(b)に示すグラフの横軸とは共通の時間軸であるものとする。また、図8(a)に示す縦軸は、θ波の大きさを示し、図8(b)に示す縦軸は、横方向の加速度を示している。図8に示すように、θ波を検出したことに応じて、首振り動作や注視動作の検出状況が大きく変化していることが確認でき、θ波と首振り動作や注視動作とに一定の相関性が認められる。
検出情報生成部253は、ユーザが歩行していない状態で検出された所定の反応に基づいて検出情報を生成してもよい。この場合、情報出力装置3は、例えば、ユーザが着席している間の一連の行動において検出された見回し動作と脳波との相関を分析し、見回しが多い場合には、空間の分節が多い不安定な状態、視線がサッカードほど速くなくゆっくり動くなどのように見回しが少ない場合、又は注視が多い場合には、空間の分節が少ない安定した状態であると定義して、室内等を評価した結果を出力してもよい。
以上のとおり、第1実施形態に係る情報出力装置3は、ユーザがVR空間を視認した場合における、ユーザの所定の反応の検出状況を示す検出情報を取得し、VR空間情報と、取得した検出情報とを関連付けて出力する。空間における所定の反応である見回し動作又はθ波の発生と、空間認識とは相関性を有していることから、情報出力装置3は、VR空間情報と、取得した検出情報とを関連付けて出力することにより、これらの情報を確認する設計者は、ユーザのVR空間内に含まれる空間に対する認知を把握することができる。
[認識結果情報を公開する]
続いて、第2実施形態について説明する。第1実施形態では、空間を設計する設計者Dが認識結果情報を確認したが、認識結果情報が示す認識結果は、空間における家具の配置等の室内レイアウトを検討する住居の居住者等にとっても有効である。そこで、第2実施形態に係る情報出力装置3は、認識結果情報を公開する公開サービスを提供する点で第1実施形態と異なる。以下に、第2実施形態に係る情報出力装置3について説明する。なお、第1実施形態と同じ部分については適宜説明を省略する。
以上のとおり、第2実施形態に係る情報出力装置3は、端末5を使用する第2ユーザU2に、認識結果情報の出力に対する課金を行うので、認識結果情報の出力に対する対価を得ることができる。また、情報出力装置3は、端末5に、公開が許可されている認識結果情報に対応するVR空間情報を出力するので、公開することが望まれていない認識結果情報が外部に公開されてしまうことを防止することができる。
Claims (20)
- 実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間をユーザが視認した場合における、前記ユーザが首を所定方向に振るとともに、前記ユーザの視線が、前記ユーザの進行方向を基準とした場合に第1の所定角度範囲の方向に動いた後、前記進行方向を基準として前記第1の所定角度範囲と反対の角度範囲である第2の所定の角度範囲の方向に動く動作を、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得する取得部と、
前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情を示す情報を記憶する記憶部と、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記所定空間を示す情報と、前記取得部が取得した検出情報と、特定した検出パターンに対応づけて前記記憶部に記憶された前記ユーザの感情を示す情報とを関連付けて出力する出力部と、
を備える情報出力装置。 - 前記取得部は、前記所定空間を示す動画を前記ユーザが視認した場合の前記見回し動作の検出状況と、前記動画の再生位置を示す情報とを関連付けた前記検出情報を取得し、
前記出力部は、前記動画の再生位置ごとの前記見回し動作の検出状況を示す前記検出情報を出力する、
請求項1に記載の情報出力装置。 - 前記出力部は、前記動画を再生して表示部に表示させるとともに、前記動画の再生位置のそれぞれにおける前記見回し動作の検出状況を示す情報と、前記動画の現在の再生位置を示す情報とを関連付けて表示部に表示させる、
請求項2に記載の情報出力装置。 - 前記出力部は、前記動画の再生位置を示す情報のうち、前記見回し動作が検出された再生位置を示す情報を、前記見回し動作が検出されていない再生位置を示す情報と異なる表示態様で表示させる、
請求項2又は3に記載の情報出力装置。 - 前記出力部は、前記動画に対応する複数の画像のうち、前記見回し動作が検出された再生位置に対応する一以上の画像を表示部に表示させる、
請求項2から4のいずれか1項に記載の情報出力装置。 - 前記出力部は、前記動画に含まれている画像とは異なる複数の画像のうち、前記動画における前記見回し動作が検出された再生位置の画像に対応する一以上の画像を表示させる、
請求項2から5のいずれか1項に記載の情報出力装置。 - 前記出力部は、前記見回し動作が検出された一以上の再生位置のそれぞれに対応する一以上の画像の中から画像の選択を受け付け、選択された画像と類似する画像を表示させる、
請求項2から6のいずれか1項に記載の情報出力装置。 - 前記出力部は、前記見回し動作を検出したときの前記所定空間における位置を特定し、前記所定空間を示す地図に、特定した位置を示す情報を表示させる、
請求項2から7のいずれか1項に記載の情報出力装置。 - 前記取得部は、複数の前記ユーザのそれぞれに対応する前記検出情報を取得し、
前記出力部は、前記所定空間を示す情報と、前記取得部が取得した複数の前記ユーザのそれぞれに対応する検出情報とを関連付けて出力する、
請求項1から8のいずれか1項に記載の情報出力装置。 - 前記出力部は、複数の前記ユーザの少なくともいずれかの選択を受け付け、前記所定空間を示す情報と、選択されたユーザに対応する検出情報とを関連付けて出力する、
請求項9に記載の情報出力装置。 - 前記取得部は、前記所定空間を示す動画を前記ユーザが視認した場合に前記見回し動作が検出されると予測される前記動画の再生位置を示す予測情報を取得し、
前記出力部は、前記取得部が取得した検出情報と、前記予測情報とを表示部に表示させる、
請求項1から10のいずれか1項に記載の情報出力装置。 - 前記取得部は、第1の所定空間を前記ユーザが視認した場合における前記検出情報である第1検出情報と、第2の所定空間を前記ユーザが視認した場合における前記検出情報である第2検出情報とを取得し、
前記出力部は、前記取得部が取得した前記第1検出情報と、前記第2検出情報とを表示部に表示させる、
請求項1から11のいずれか1項に記載の情報出力装置。 - 前記取得部は、複数の所定空間のそれぞれについて、当該所定空間を示す情報と、取得した検出情報とを関連付けた結果情報と、当該結果情報を公開するか否かを示す情報とを関連付けて記憶部に記憶させ、
前記出力部は、端末から、前記記憶部に記憶されている、公開対象の前記結果情報の取得要求を受け付けると、当該端末に当該結果情報を出力する、
請求項1から12のいずれか1項に記載の情報出力装置。 - 前記端末のユーザに、前記結果情報の出力に対する課金を行う課金部をさらに備える、
請求項13に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を所定時間以上注視する動作である注視動作の検出状態を示す検出情報を、前記見回し動作の検出状況を示す検出情報として取得する、
請求項1から14のいずれか1項に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を視認した場合における、前記ユーザの脳波の検出状態を示す検出情報を、前記見回し動作の検出状況を示す検出情報として取得する、
請求項1から15のいずれか1項に記載の情報出力装置。 - ユーザが装着する表示装置と、情報出力装置と、を備える設計支援システムであって、
前記表示装置は、
表示部と、
実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間を前記表示部に表示させる表示制御部と、
前記ユーザが前記所定空間を視認した場合における、前記ユーザが首を所定方向に振るとともに、前記ユーザの視線が、前記ユーザの進行方向を基準とした場合に第1の所定角度範囲の方向に動いた後、前記進行方向を基準として前記第1の所定角度範囲と反対の角度範囲である第2の所定の角度範囲の方向に動く動作を、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を生成する検出情報生成部と、
を有し、
前記情報出力装置は、
前記検出情報生成部が生成した前記検出情報を取得する取得部と、
前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情を示す情報を記憶する記憶部と、
取得した前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記所定空間を示す情報と、前記取得部が取得した検出情報と、特定した検出パターンに対応づけて前記記憶部に記憶された前記ユーザの感情を示す情報とを関連付けて出力する出力部と、
を有する、
設計支援システム。 - 前記表示装置は、
情報を公開する情報公開装置から前記所定空間を示す情報を取得する空間情報取得部をさらに有し、
前記表示制御部は、前記空間情報取得部が取得した前記情報が示す所定空間を前記表示部に表示させる、
請求項17に記載の設計支援システム。 - コンピュータが実行する、
実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間をユーザが視認した場合における、前記ユーザが首を所定方向に振るとともに、前記ユーザの視線が、前記ユーザの進行方向を基準とした場合に第1の所定角度範囲の方向に動いた後、前記進行方向を基準として前記第1の所定角度範囲と反対の角度範囲である第2の所定の角度範囲の方向に動く動作を、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得するステップと、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定するステップと、
前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情のうち、特定した検出パターンに対応づけられている感情を示す情報と、前記所定空間を示す情報と、取得された検出情報とを関連付けて出力するステップと、
を備える情報出力方法。 - コンピュータを、
実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間をユーザが視認した場合における、前記ユーザが首を所定方向に振るとともに、前記ユーザの視線が、前記ユーザの進行方向を基準とした場合に第1の所定角度範囲の方向に動いた後、前記進行方向を基準として前記第1の所定角度範囲と反対の角度範囲である第2の所定の角度範囲の方向に動く動作を、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得する取得部、及び、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情のうち、特定した検出パターンに対応づけられている前記ユーザの感情を示す情報と、前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部、
として機能させる情報出力プログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023109399A JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP2024066628A JP7714260B2 (ja) | 2018-08-09 | 2024-04-17 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018150679 | 2018-08-09 | ||
| JP2018150679 | 2018-08-09 | ||
| PCT/JP2019/031576 WO2020032239A1 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023109399A Division JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2020032239A1 JPWO2020032239A1 (ja) | 2021-08-12 |
| JPWO2020032239A5 JPWO2020032239A5 (ja) | 2022-08-10 |
| JP7312465B2 true JP7312465B2 (ja) | 2023-07-21 |
Family
ID=69414256
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020535906A Active JP7312465B2 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP2023109399A Active JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP2024066628A Active JP7714260B2 (ja) | 2018-08-09 | 2024-04-17 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Family Applications After (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023109399A Active JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP2024066628A Active JP7714260B2 (ja) | 2018-08-09 | 2024-04-17 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11798597B2 (ja) |
| JP (3) | JP7312465B2 (ja) |
| WO (1) | WO2020032239A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023228342A1 (ja) * | 2022-05-26 | 2023-11-30 | 株式会社ジオクリエイツ | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003186904A (ja) | 2001-12-17 | 2003-07-04 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ紹介方法、コンテンツ紹介装置、コンテンツ紹介プログラム及びそのプログラムを記録した媒体 |
| JP2012104037A (ja) | 2010-11-12 | 2012-05-31 | Renesas Electronics Corp | コンテンツ再生システム、サーバ、コンテンツ再生方法、及びプログラム |
| JP6298561B1 (ja) | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000172740A (ja) | 1998-12-10 | 2000-06-23 | Matsushita Electric Works Ltd | 視点情報表示機能付き設計支援システム |
| JP2009005094A (ja) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | 携帯端末 |
| JP5319564B2 (ja) | 2010-01-18 | 2013-10-16 | 大成建設株式会社 | レイアウト設計支援装置および方法 |
| KR20150008840A (ko) | 2010-02-24 | 2015-01-23 | 아이피플렉 홀딩스 코포레이션 | 시각 장애인들을 지원하는 증강 현실 파노라마 |
| US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
| JP6124517B2 (ja) | 2012-06-01 | 2017-05-10 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
| US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
| BR112016000639B1 (pt) * | 2013-07-19 | 2022-08-09 | Sony Corporation | Aparelho e método de detecção |
| JP6359253B2 (ja) | 2013-08-27 | 2018-07-18 | 株式会社ジオクリエイツ | 感情抽出方法、感情抽出プログラム、感情抽出装置、及び建築物設計方法 |
| US10269184B2 (en) | 2014-07-23 | 2019-04-23 | Sony Corporation | Information processing apparatus, information processing method, and image display system |
| KR101741739B1 (ko) * | 2016-02-19 | 2017-05-31 | 광주과학기술원 | 브레인 컴퓨터 인터페이스를 위한 장치 및 방법 |
| WO2017158776A1 (ja) | 2016-03-16 | 2017-09-21 | 株式会社ジオクリエイツ | 位相特定装置、携帯端末、位相特定方法及びプログラム |
| JP6373920B2 (ja) | 2016-09-14 | 2018-08-15 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
| US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
| US11921921B2 (en) * | 2016-11-11 | 2024-03-05 | Matthew Hurst | Electroencephalograph-based user interface for virtual and augmented reality systems |
| JP2018097437A (ja) * | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
-
2019
- 2019-08-09 JP JP2020535906A patent/JP7312465B2/ja active Active
- 2019-08-09 WO PCT/JP2019/031576 patent/WO2020032239A1/ja not_active Ceased
-
2021
- 2021-02-04 US US17/167,604 patent/US11798597B2/en active Active
-
2023
- 2023-07-03 JP JP2023109399A patent/JP7479735B2/ja active Active
-
2024
- 2024-04-17 JP JP2024066628A patent/JP7714260B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003186904A (ja) | 2001-12-17 | 2003-07-04 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ紹介方法、コンテンツ紹介装置、コンテンツ紹介プログラム及びそのプログラムを記録した媒体 |
| JP2012104037A (ja) | 2010-11-12 | 2012-05-31 | Renesas Electronics Corp | コンテンツ再生システム、サーバ、コンテンツ再生方法、及びプログラム |
| JP6298561B1 (ja) | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023123787A (ja) | 2023-09-05 |
| JP2024091779A (ja) | 2024-07-05 |
| JP7714260B2 (ja) | 2025-07-29 |
| JPWO2020032239A1 (ja) | 2021-08-12 |
| US11798597B2 (en) | 2023-10-24 |
| US20210249050A1 (en) | 2021-08-12 |
| WO2020032239A1 (ja) | 2020-02-13 |
| JP7479735B2 (ja) | 2024-05-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12530102B2 (en) | Customized location based content presentation | |
| CN103760968B (zh) | 数字标牌显示内容选择方法和装置 | |
| US9894415B2 (en) | System and method for media experience data | |
| US10147399B1 (en) | Adaptive fiducials for image match recognition and tracking | |
| Cucchiara et al. | Visions for augmented cultural heritage experience | |
| US20130229342A1 (en) | Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program | |
| JPWO2014181380A1 (ja) | 情報処理装置およびアプリケーション実行方法 | |
| JP7266984B2 (ja) | サーバ装置 | |
| US20140067768A1 (en) | Method and apparatus for content association and history tracking in virtual and augmented reality | |
| JP2018085571A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| JP6822413B2 (ja) | サーバ装置及び情報処理方法、並びにコンピュータ・プログラム | |
| JP7714260B2 (ja) | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム | |
| JP6015657B2 (ja) | 関心地点抽出装置、関心地点抽出方法、及びプログラム | |
| WO2024069534A1 (en) | Adaptive extended reality content presentation in multiple physical environments | |
| JP7650312B2 (ja) | プログラム、情報処理装置、及び、情報処理システム | |
| CN114047814B (zh) | 一种交互式体验系统及方法 | |
| JP6793615B2 (ja) | 表示装置、表示プログラム及び表示システム | |
| WO2021152834A1 (ja) | ライフログ管理装置、制御方法及び記憶媒体 | |
| KR20160100749A (ko) | 디지털 사이니지 관리 시스템 및 방법 | |
| JP6186306B2 (ja) | 配信サーバ装置、配信システム及びプログラム | |
| JP2024033277A (ja) | 通信システム、情報処理システム、映像再生方法、プログラム | |
| Leroy et al. | KINterestTV-towards non–invasive measure of user interest while watching tv | |
| WO2018168444A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220608 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220802 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7312465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |