[go: up one dir, main page]

JP2018000308A - 映像表示装置システム、心拍特定方法、心拍特定プログラム - Google Patents

映像表示装置システム、心拍特定方法、心拍特定プログラム Download PDF

Info

Publication number
JP2018000308A
JP2018000308A JP2016127747A JP2016127747A JP2018000308A JP 2018000308 A JP2018000308 A JP 2018000308A JP 2016127747 A JP2016127747 A JP 2016127747A JP 2016127747 A JP2016127747 A JP 2016127747A JP 2018000308 A JP2018000308 A JP 2018000308A
Authority
JP
Japan
Prior art keywords
user
heartbeat
image
video display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016127747A
Other languages
English (en)
Inventor
ロックラン ウィルソン
Wilson Lochlainn
ロックラン ウィルソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fove Inc
Original Assignee
Fove Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fove Inc filed Critical Fove Inc
Priority to JP2016127747A priority Critical patent/JP2018000308A/ja
Priority to US15/634,777 priority patent/US20170371408A1/en
Publication of JP2018000308A publication Critical patent/JP2018000308A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/02438Measuring pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesizing signals from measured signals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Cardiology (AREA)
  • Computer Hardware Design (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】ユーザの頭部に装着して使用する映像表示装置を利用してユーザの心拍を検出する。【解決手段】ユーザの頭部に装着して使用する映像表示装置と、ユーザの脈拍を検出する心拍検出装置とからなる映像表示システムであって、映像表示装置は、計測した加速度情報を逐次出力する加速度センサと、加速度情報を逐次検出装置に送信する第1送信部とを備え、心拍検出装置は、映像表示装置から送信された加速度情報を受信する第1受信部と、受信した加速度情報に基づく加速度の変化を示す波形から、ユーザの心拍を検出する心拍検出部と、を備える。【選択図】図4

Description

この発明は、ユーザの頭部に装着して使用する映像表示装置を用いた心拍検出技術に関する。
従来、ヘッドマウントディスプレイは、加速度センサを備えて、ユーザの傾きや姿勢を検出し、検出した姿勢に応じて、ユーザの向いている方向の映像を表示するものがあった。特許文献1には、加速度センサやジャイロを用いてユーザの動きや向きを検出し、ユーザの視界方向の映像を表示する頭部装着型表示装置が開示されている。
特開2015−28654号公報
ところで、上記特許文献1に示すようなヘッドマウントディスプレイのようなユーザの頭部に装着して使用する映像表示装置において、さらに、ユーザビリティに富んだ映像を表示させたいという要望がある。
そこで、本発明は、上記要望に鑑みてなされたものであり、よりユーザビリティに富んだ映像を表示することができる映像表示システムを提供することを目的とする。
本発明の一態様に係る映像表示システムは、ユーザの頭部に装着して使用する映像表示装置と、ユーザの心拍を検出する心拍検出装置とからなる映像表示システムであって、映像表示装置は、計測した加速度情報を逐次出力する加速度センサと、加速度情報を逐次心拍検出装置に送信する第1送信部とを備え、心拍検出装置は、映像表示装置から送信された加速度情報を受信する第1受信部と、受信した加速度情報に基づく加速度の変化を示す波形から、ユーザの心拍を検出する心拍検出部と、を備える。
また、上記映像表示システムは、映像表示システムは、さらに、視線検出装置を含み、映像表示装置は、さらに、画像を表示する表示部と、画像を注視し、非可視光が照射されたユーザの眼を撮像する撮像部を備え、第1送信部は、さらに、視線検出装置に撮像部が撮像した撮像画像を送信し、視線検出装置は、撮像画像を受信する第2受信部と、撮像画像を介してユーザの視線方向を検出する視線検出部と、ユーザの視線方向に基づいて映像表示装置に表示させる画像を生成する画像生成部とを備えることとしてもよい。
また、上記映像表示システムにおいて、第1送信部は、さらに、視線検出装置に加速度情報を送信し、画像生成部は、加速度情報に基づいて、ユーザの体の向きを特定し、特定した向きに応じた画像を生成することとしてもよい。
また、上記映像表示システムにおいて、心拍検出装置は、さらに、心拍検出部が検出したユーザの心拍に関する情報を視線検出装置に送信する第2送信部を備え、第2受信部は、更に、心拍に関する情報を受信し、画像生成部は、心拍に関する情報に基づいた画像を生成することとしてもよい。
また、上記映像表示システムにおいて、心拍検出装置は、さらに、心拍の典型的波形を示す波形情報を記憶する記憶部を備え、心拍検出部は、加速度情報に基づく加速度の変化に基づく波形と、波形情報との相関に基づいてユーザの心拍を検出することとしてもよい。
また、上記映像表示システムにおいて、心拍検出部は、加速度情報に基づく加速度の変化に基づく波形において、当該波形に含まれる所定の第1期間の波形と、他の第2期間における波形との相関関係に基づいて、ユーザの心拍を検出することとしてもよい。
また、上記映像表示システムにおいて、映像表示装置は、ヘッドマウントディスプレイであることとしてもよい。
また、本発明の一実施態様に係る心拍特定方法は、ユーザの頭部に装着して使用する映像表示装置に備えられた加速度センサから加速度情報を逐次取得する取得ステップと、逐次取得した加速度情報に基づいて、ユーザの心拍を特定する特定ステップとを含む。
また、本発明の一実施態様に係る心拍特定プログラムは、コンピュータに、ユーザの頭部に装着して使用する映像表示装置に備えられた加速度センサから加速度情報を逐次取得する取得機能と、逐次取得した加速度情報に基づいて、ユーザの心拍を特定する特定機能とを実現させる。
本発明によれば、映像表示システムは、ユーザの体の傾きや向きを特定するために用いる加速度センサを用いてユーザの心拍を特定することができる。したがって、その心拍に基づいて、例えば、ユーザの心理状態を把握したりして、ユーザに好適な映像を表示したりすることができるので、ユーザビリティに富んだ映像表示システムを提供することができる。
実施の形態に係るヘッドマウントディスプレイをユーザが装着した様子を示す外観図である。 実施の形態に係るヘッドマウントディスプレイの画像表示系の概観を模式的に示す斜視図である。 実施の形態に係るヘッドマウントディスプレイの画像表示系の光学構成を模式的に示す図である。 実施の形態に係るヘッドマウントディスプレイシステムの構成を示すブロック図である。 実施の形態に係る視線方向の検出のためのキャリブレーションを説明する模式図である。 ユーザの角膜の位置座標を説明する模式図である。 実施の形態に係るヘッドマウントディスプレイシステムの動作を示すフローチャートである。 実施の形態に係る加速度センサの測定値の一例を示すグラフである。 ヘッドマウントディスプレイシステムの回路構成を示すブロック図である。
以下、本発明の映像表示システムの一実施態様に係るヘッドマウントディスプレイシステム1について図面を参照しながら説明する。
<実施の形態>
<構成>
図1は、実施の形態に係るヘッドマウントディスプレイシステム1の概観を模式的に示す図である。実施の形態に係るヘッドマウントディスプレイシステム1は、ヘッドマウントディスプレイ100と視線検出装置200とを含む。図1に示すように、ヘッドマウントディスプレイ100は、ユーザ300の頭部に装着して使用される。
視線検出装置200は、ヘッドマウントディスプレイ100を装着したユーザの右目及び左目の少なくとも一方の視線方向を検出し、ユーザの焦点、すなわち、ユーザがヘッドマウントディスプレイに表示されている三次元画像において注視している箇所を特定する。また、視線検出装置200は、ヘッドマウントディスプレイ100が表示する映像を生成する映像生成装置としても機能する。更には、視線検出装置200は、ユーザの心拍を検出する心拍検出装置としても機能する。なお、心拍検出装置は、視線検出装置200とは別の装置として、ヘッドマウントディスプレイシステム1内に組み込まれてよく、その場合に、心拍検出装置は、視線検出装置及びヘッドマウントディスプレイと互いに通信が実行できるように構成され、以下に記載する心拍の検出を実現することとしてもよい。限定はしないが、一例として、視線検出装置200は、据え置き型のゲーム機、携帯ゲーム機、PC、タブレット、スマートフォン、ファブレット、ビデオプレイヤ、テレビ等の映像を再生可能な装置である。視線検出装置200は、ヘッドマウントディスプレイ100と無線または有線で接続する。図1に示す例では、視線検出装置200はヘッドマウントディスプレイ100と無線で接続している。視線検出装置200がヘッドマウントディスプレイ100との無線接続は、例えば既知のWi−Fi(登録商標)やBluetooth(登録商標)等の無線通信技術を用いて実現できる。限定はしないが、一例として、ヘッドマウントディスプレイ100と視線検出装置200との間における映像の伝送は、Miracast(商標)やWiGig(商標)、WHDI(商標)等の規格に則って実行される。
なお、図1は、ヘッドマウントディスプレイ100と視線検出装置200とが異なる装置である場合の例を示している。しかしながら、視線検出装置200はヘッドマウントディスプレイ100に内蔵されてもよい。
ヘッドマウントディスプレイ100は、筐体150、装着具160、及び、ヘッドフォン170を備える。筐体150は、画像表示素子などユーザ300に映像を提示するための画像表示系や、図示しないWi−FiモジュールやBluetooth(登録商標)モジュール等の無線伝送モジュールを収容する。装着具160は、ヘッドマウントディスプレイ100をユーザ300の頭部に装着する。装着具160は例えば、ベルトや伸縮性の帯等で実現できる。ユーザ300が装着具160を用いてヘッドマウントディスプレイ100を装着すると、筐体150はユーザ300の眼を覆う位置に配置される。このため、ユーザ300がヘッドマウントディスプレイ100を装着すると、ユーザ300の視界は筐体150によって遮られる。
ヘッドフォン170は、視線検出装置200が再生する映像の音声を出力する。ヘッドフォン170はヘッドマウントディスプレイ100に固定されなくてもよい。ユーザ300は、装着具160を用いてヘッドマウントディスプレイ100を装着した状態であっても、ヘッドフォン170を自由に着脱することができる。
図2は、実施の形態に係るヘッドマウントディスプレイ100の画像表示系130の概観を模式的に示す斜視図である。より具体的に、図2は、実施の形態に係る筐体150のうち、ヘッドマウントディスプレイ100を装着したときにユーザ300の角膜302に対向する領域を示す図である。
図2に示すように、左目用凸レンズ114aは、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ユーザ300の左目の角膜302aと対向する位置となるように配置される。同様に、右目用凸レンズ114bは、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ユーザ300の右目の角膜302bと対向する位置となるように配置される。左目用凸レンズ114aと右目用凸レンズ114bとは、それぞれ左目用レンズ保持部152aと右目用レンズ保持部152bとに把持されている。
以下本明細書において、左目用凸レンズ114aと右目用凸レンズ114bとを特に区別する場合を除いて、単に「凸レンズ114」と記載する。同様に、ユーザ300の左目の角膜302aとユーザ300の右目の角膜302bとを特に区別する場合を除いて、単に「角膜302」と記載する。左目用レンズ保持部152aと右目用レンズ保持部152bとも、特に区別する場合を除いて「レンズ保持部152」と記載する。
レンズ保持部152には、複数の赤外光源103が備えられている。煩雑となることを避けるために、図2においてはユーザ300の左目の角膜302aに対して赤外光を照射する赤外光源をまとめて赤外光源103aで示し、ユーザ300の右目の角膜302bに対して赤外光を照射する赤外光源をまとめて赤外光源103bで示す。以下、赤外光源103aと赤外光源103bとを特に区別する場合を除いて「赤外光源103」と記載する。図2に示す例では、左目用レンズ保持部152aには6つの赤外光源103aが備えられている。同様に、右目用レンズ保持部152bにも6つの赤外光源103bが備えられている。このように、赤外光源103を凸レンズ114に直接配置せず、凸レンズ114を把持するレンズ保持部152に配置することにより、赤外光源103の取り付けが容易となる。一般にレンズ保持部152は樹脂等で構成されるため、ガラス等から構成される凸レンズ114よりも赤外光源103を取り付けるための加工が容易でからである。
上述したように、レンズ保持部152は凸レンズ114を把持する部材である。したがって、レンズ保持部152に備えられた赤外光源103は、凸レンズ114の周囲に配置されることになる。なお、ここでは、それぞれの眼に対して赤外光を照射する赤外光源103を6つとしているが、この数はこれに限定されるものではなく、それぞれの眼に対応して少なくとも1つあればよく、2以上配されているのが望ましい。
図3は、実施の形態に係る筐体150が収容する画像表示系130の光学構成を模式的に示す図であり、図2に示す筐体150を左目側の側面から見た場合の図である。画像表示系130は、赤外光源103、画像表示素子108、ホットミラー112、凸レンズ114、カメラ116、および第1通信部118を備える。
赤外光源103は、近赤外(700nm〜2500nm程度)の波長帯域の光を照射可能な光源である。近赤外光は、一般に、ユーザ300の肉眼では観測ができない非可視光の波長帯域の光である。
画像表示素子108は、ユーザ300に提示するための画像を表示する。画像表示素子108が表示する画像は、視線検出装置200内の映像生成部223が生成する。映像生成部223については後述する。画像表示素子108は、例えば既知のLCD(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro Luminescence Display)等を用いて実現できる。
ホットミラー112は、ユーザ300がヘッドマウントディスプレイ100を装着したときに、画像表示素子108とユーザ300の角膜302との間に配置される。ホットミラー112は、画像表示素子108が生成する可視光は透過するが、近赤外光は反射する性質を持つ。
凸レンズ114は、ホットミラー112に対して、画像表示素子108の反対側に配置される。言い換えると、凸レンズ114は、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ホットミラー112とユーザ300の角膜302との間に配置される。すなわち、凸レンズ114は、ヘッドマウントディスプレイ100がユーザ300に装着されたときに、ユーザ300の角膜302に対向する位置に配置される。
凸レンズ114はホットミラー112を透過する画像表示光を集光する。このため、凸レンズ114は、画像表示素子108が生成する画像を拡大してユーザ300に提示する画像拡大部として機能する。なお、説明の便宜上、図2では凸レンズ114をひとつのみ示しているが、凸レンズ114は、種々のレンズを組み合わせて構成されるレンズ群であってもよいし、一方が曲率を持ち、他方が平面の片凸レンズであってもよい。
複数の赤外光源103は、凸レンズ114の周囲に配置されている。赤外光源103は、ユーザ300の角膜302に向けて赤外光を照射する。
図示はしないが、実施の形態に係るヘッドマウントディスプレイ100の画像表示系130は画像表示素子108を二つ備えており、ユーザ300の右目に提示するための画像と左目に提示するための画像とを独立に生成することができる。このため、実施の形態に係るヘッドマウントディスプレイ100は、ユーザ300の右目と左目とに、それぞれ右目用の視差画像と左目用の視差画像とを提示することができる。これにより、実施の形態に係るヘッドマウントディスプレイ100は、ユーザ300に対して奥行き感を持った立体映像を提示することができる。
上述したように、ホットミラー112は、可視光を透過し、近赤外光を反射する。したがって、画像表示素子108が照射する画像光はホットミラー112を透過してユーザ300の角膜302まで到達する。また赤外光源103から照射され、凸レンズ114の内部の反射領域で反射された赤外光は、ユーザ300の角膜302に到達する。
ユーザ300の角膜302に到達した赤外光は、ユーザ300の角膜302で反射され、再び凸レンズ114の方向に向かう。この赤外光は凸レンズ114を透過し、ホットミラー112で反射される。カメラ116は可視光を遮断するフィルタを備えており、ホットミラー112で反射された近赤外光を撮像する。すなわち、カメラ116は、赤外光源103から照射され、ユーザ300の眼で角膜反射された近赤外光を撮像する近赤外カメラである。
なお、図示はしないが、実施の形態に係るヘッドマウントディスプレイ100の画像表示系130は、カメラ116を二つ、すなわち、右目で反射された赤外光を含む画像を撮像する第1撮像部と、左目で反射された赤外光を含む画像を撮像する第2撮像部とを備える。これにより、ユーザ300の右目及び左目の双方の視線方向を検出するための画像を取得することができる。
第1通信部118は、カメラ116が撮像した画像を、ユーザ300の視線方向を検出する視線検出装置200に出力する。具体的には、第1通信部118は、カメラ116が撮像した画像を視線検出装置200に送信する。視線方向検出部として機能する視線検出部221の詳細については後述するが、視線検出装置200のCPU(Central Processing Unit)が実行する心拍特定プログラムによって実現される。なお、ヘッドマウントディスプレイ100がCPUやメモリ等の計算リソースを持っている場合には、ヘッドマウントディスプレイ100のCPUが視線方向検出部を実現するプログラムを実行してもよい。
詳細は後述するが、カメラ116が撮像する画像には、ユーザ300の角膜302で反射された近赤外光に起因する輝点と、近赤外の波長帯域で観察されるユーザ300の角膜302を含む眼の画像とが撮像されている。
以上は、実施の形態に係る画像表示系130のうち主にユーザ300の左目に画像を提示するための構成について説明したが、ユーザ300の右目に画像を提示するための構成は上記と同様である。
図4は、ヘッドマウントディスプレイシステム1に係るヘッドマウントディスプレイ100と視線検出装置200とのブロック図である。図4に示すように、また、上述したとおり、ヘッドマウントディスプレイシステム1は、互いに通信を実行するヘッドマウントディスプレイ100と視線検出装置200とを含む。
図4に示すようにヘッドマウントディスプレイ100は、第1通信部118と、表示部121と、赤外光照射部122と、画像処理部123と、撮像部124と、加速度センサ125と、を備える。
第1通信部118は、視線検出装置200の第2通信部220と通信を実行する機能を有する通信インターフェースである。上述したとおり、第1通信部118は、有線通信又は無線通信により第2通信部220と通信を実行する。使用可能な通信規格の例は上述した通りである。第1通信部118は、撮像部124または画像処理部123から伝送された視線検出に用いる画像データを第2通信部220に送信する。また、第1通信部118は、加速度センサ125から伝達された加速度情報を第2通信部220に送信する。また、第1通信部118は、視線検出装置200から送信された画像データやマーカー画像を表示部121に伝達する。また、画像データは、三次元画像を表示するための右目用視差画像と、左目用視差画像とからなる視差画像対であってもよい。
表示部121は、第1通信部118から伝達された画像データを画像表示素子108に表示する機能を有する。また、表示部121は、映像生成部223から出力されたマーカー画像を画像表示素子108の指定されている座標に表示する。また、表示部121は、加速度センサ125から伝達された加速度情報に基づいてユーザの姿勢(向き)を特定し、その特定した向きの方向にある映像を画像表示素子108に表示する。
赤外光照射部122は、赤外光源103を制御し、ユーザの右目又は左目に赤外光を照射する。
画像処理部123は、必要に応じて、撮像部124が撮像した画像に画像処理を行い、第1通信部118に伝達する。
撮像部124は、カメラ116を用いて、それぞれの目で反射された近赤外光を含む画像を撮像する。すなわち、カメラ116は、非可視光に基づく撮像を行う。また、撮像部124は、画像表示素子108に表示されたマーカー画像を注視するユーザの眼を含む画像を撮像する。撮像部124は、撮像して得た画像を撮像した撮像時間と対応付けて、第1通信部118又は画像処理部123に伝達する。
加速度センサ125は、ヘッドマウントディスプレイ100に備えられ、加速度を検出するセンサである。加速度センサ125は、検出した加速度した第1通信部118及び表示部121に伝達する。加速度センサ125は、3軸成分の加速度の情報を得る。3軸の加速度成分は、例えば、鉛直方向成分と、この鉛直直交成分を検出する軸に直交し、かつ互いに直交する2軸の成分である。
以上がヘッドマウントディスプレイ100の構成の説明である。
図4に示すように視線検出装置200は、第2通信部220と、視線検出部221と、心拍検出部222と、映像生成部223と、記憶部224とを備える。
第2通信部220は、ヘッドマウントディスプレイ100の第1通信部118と通信を実行する機能を有する通信インターフェースである。上述したとおり、第2通信部220は、有線通信又は無線通信により第1通信部118と通信を実行する。第2通信部220は、映像生成部223から伝達された仮想空間画像を表示するための画像データや、キャリブレーションのために用いるマーカー画像などをヘッドマウントディスプレイ100に送信する。また、第2通信部220は、ヘッドマウントディスプレイ100から伝達された撮像部124により撮像されたマーカー画像を注視するユーザの眼を含む画像や、映像生成部223が出力した画像データに基づいて表示された画像を見るユーザの眼を撮像した画像を視線検出部221に伝達する。また、第2通信部220は、ヘッドマウントディスプレイ100から伝達された加速度情報を心拍検出部222に伝達する。
視線検出部221は、第2通信部220からユーザの右目の視線検出用の画像データを受け付けて、ユーザの右目の視線方向を検出する。視線検出部221は、後述する手法を用いて、ユーザの右目の視線方向を示す右目視線ベクトルを算出する。同様に、第2通信部220からユーザの左目の視線検出用の画像データを受け付けて、ユーザ300の左目の視線方向を示す左目視線ベクトルを算出する。そして、算出した視線ベクトルを用いて、ユーザが画像表示素子108において表示されている画像の注視している箇所を特定する。また、視線検出部221は、算出した視線ベクトルを視線方向に関する情報として、当該視線ベクトルを算出するために用いた撮像画像に対応付けられた撮像時間情報とともに、第2通信部220を介してヘッドマウントディスプレイ100に送信する。なお、視線方向に関する情報は、視線検出部221が特定した注視点の情報であってもよい。
心拍検出部222は、第2通信部220から伝達された加速度情報に基づいて、ヘッドマウントディスプレイ100を装着しているユーザの心拍を特定する機能を有する。心拍検出部222は、第2通信部220から逐次加速度情報を取得するので、加速度についての時系列情報を得ることができる。そこで、心拍検出部222は、取得した加速度情報の3軸成分のうち一軸(例えば、鉛直方向の成分)について、図8に示すように、縦軸に加速度をとり、横軸に時間軸をとったグラフに取得した加速度情報のうちの一軸の加速度をプロットしていく。心拍検出部222は、そのようにして得られたグラフ波形について自己相関をとり、周期的に同様の波形が得られるか否かを判定する。具体的には、心拍検出部222は、図8に示すようなグラフから任意の所定長の長さの波形を抽出し、その波形を記憶部240に記憶する。そして、記憶部240に記憶されている抽出した波形を、元の波形に対して時間軸方向にずらしていき自己相関をとる。そして、自己相関をとった相関値が所定の閾値を超える箇所が周期的に現れることを検出し、その相関値が高い波形部分を、ヘッドマウントディスプレイ100を装着しているユーザの心拍として特定する。図8の例で言えば、区間801と区間802との間の相関値が高く、区間802(801)と区間803との間の相関値が高いことを検出して、当該区間をユーザの心拍として特定する。心拍検出部222は、検出した心拍の情報を映像生成部223に伝達する。ここで心拍の情報とは、単位時間当たりの心拍数や、心拍の揺れの強度(加速度の振れ幅)などを含む。
映像生成部223は、ヘッドマウントディスプレイ100の表示部121に表示させる画像データを生成し、第2通信部220に伝達する。映像生成部223は、例えば、仮想空間画像を表示するための画像データを生成する。また、映像生成部223は、視線検出のためのキャリブレーションのためのマーカー画像を生成し、その表示座標位置と共に、第2通信部220に伝達して、ヘッドマウントディスプレイ100に送信させる。映像生成部223は、ヘッドマウントディスプレイ100に対して、ヘッドマウントディスプレイ100の画像表示素子108の表示範囲よりも広い動画(例えば、360度の動画)を表示させる場合、低解像度の広い動画を第2通信部220に伝達しつつ、視線検出部221が検出した視線方向に対応する箇所の座標を含む所定範囲の画像を高解像度にした画像データを生成して、第2通信部220に伝達してもよい。これにより、動画の画像自体は途切れることなく、ユーザに提示することができるとともに、視線検出装置200からヘッドマウントディスプレイ100へのデータ転送量を抑制しつつ、ユーザには、高解像度の動画を提示できるので、ユーザビリティの向上にも寄与する。また、映像生成部223は、心拍検出部222から伝達された心拍の情報に基づいて出力する映像を加工することができる。映像生成部223は、例えば、ユーザの心拍(単位時間当たりの心拍数)が所定の閾値以上となっていた場合には、ユーザが異様に興奮している可能性があることから、映像の輝度値を下げて加工した映像を、ヘッドマウントディスプレイ100に表示すべき映像として第2通信部220に伝達する。また、例えば、ユーザの心拍が所定の閾値以下となっていた場合には、ユーザが眠気を覚えている可能性があることから、映像の輝度値を上げて加工した映像を、ヘッドマウントディスプレイ100に表示すべき映像として第2通信部220に伝達する。また、これらの加工の際には視線検出部221が検出した視線方向に基づいて特定される映像の注視箇所を中心とした加工を行うことができる。
記憶部224は、視線検出装置200が動作上必要とする各種プログラムやデータを記憶する記録媒体である。記憶部224は、例えば、HDD(Hard Disc Drive)、SSD(Solid State Drive)などにより実現される。
次に、実施の形態に係る視線方向の検出について説明する。
図5は、実施の形態に係る視線方向の検出のためのキャリブレーションを説明する模式図である。ユーザ300の視線方向は、カメラ116が撮像し第1通信部118が視線検出装置200に出力した映像を、視線検出装置200内の視線検出部221及び視線検出部221が解析することにより実現される。
映像生成部223は、図5に示すような点Q〜Qまでの9つの点(マーカー画像)を生成し、ヘッドマウントディスプレイ100の画像表示素子108に表示させる。視線検出装置200は、点Q〜点Qに到るまで順番にユーザ300に注視させる。このとき、ユーザ300は首を動かさずに極力眼球の動きのみで各点を注視するように求められる。カメラ116は、ユーザ300が点Q〜Qまでの9つの点を注視しているときのユーザ300の角膜302を含む画像を撮像する。
図6は、ユーザ300の角膜302の位置座標を説明する模式図である。視線検出装置200内の視線検出部221は、カメラ116が撮像した画像を解析して赤外光に由来する輝点105を検出する。ユーザ300が眼球の動きのみで各点を注視しているときは、ユーザがいずれの点を注視している場合であっても、輝点105の位置は動かないと考えられる。そこで視線検出部221は、検出した輝点105をもとに、カメラ116が撮像した画像中に2次元座標系306を設定する。
視線検出部221はまた、カメラ116が撮像した画像を解析することにより、ユーザ300の角膜302の中心Pを検出する。これは例えばハフ変換やエッジ抽出処理等、既知の画像処理を用いることで実現できる。これにより、視線検出部221は、設定した2次元座標系306におけるユーザ300の角膜302の中心Pの座標を取得できる。
図5において、画像表示素子108が表示する表示画面に設定された2次元座標系における点Q〜点Qの座標をそれぞれQ(x,y,Q(x,y・・・,Q(x,xとする。各座標は、例えば各点の中心に位置する画素の番号となる。また、ユーザ300が点Q〜点Qを注視しているときの、ユーザ300角膜302の中心Pを、それぞれ点P〜Pとする。このとき、2次元座標系306における点P〜Pの座標をそれぞれP(X,Y,P(X,Y,・・・,P(Z,Yとする。なお、Tはベクトルまたは行列の転置を表す。
いま、2×2の大きさの行列Mを以下の式(1)のように定義する。
Figure 2018000308
このとき、行列Mが以下の式(2)を満たせば、行列Mはユーザ300の視線方向を画像表示素子108が表示する画像面に射影する行列となる。
=MQ (N=1,・・・,9) (2)
上記式(2)を具体的に書き下すと以下の式(3)のようになる。
Figure 2018000308
式(3)を変形すると以下の式(4)を得る。
Figure 2018000308
ここで、
Figure 2018000308
とおくと、以下の式(5)を得る。
y=Ax (5)
式(5)において、ベクトルyの要素は視線検出部221が画像表示素子108に表示させる点Q〜Qの座標であるため既知である。また、行列Aの要素はユーザ300の角膜302の頂点Pの座標であるため取得できる。したがって、視線検出部221は、ベクトルyおよび行列Aを取得することができる。なお、変換行列Mの要素を並べたベクトルであるベクトルxは未知である。したがって、行列Mを推定する問題は、ベクトルyと行列Aとが既知であるとき、未知ベクトルxを求める問題となる。
式(5)は、未知数の数(すなわちベクトルxの要素数4)よりも式の数(すなわち、視線検出部221がキャリブレーション時にユーザ300に提示した点Qの数)が多ければ、優決定問題となる。式(5)に示す例では、式の数は9つであるため、優決定問題である。
ベクトルyとベクトルAxとの誤差ベクトルをベクトルeとする。すなわち、e=y−Axである。このとき、ベクトルeの要素の二乗和を最小にするという意味で最適なベクトルxoptは、以下の式(6)で求められる。
opt=(AA)−1y (6)
ここで「−1」は逆行列を示す。
視線検出部221は、求めたベクトルxoptの要素を用いることで、式(1)の行列Mを構成する。これにより、視線検出部221は、ユーザ300の角膜302の頂点Pの座標と行列Mとを用いることで、式(2)にしたがい、ユーザ300の右目が画像表示素子108に表示される動画像上のどこを注視しているかを推定できる。ここで、視線検出部221は、更に、ユーザの眼と、画像表示素子108間の距離情報をヘッドマウントディスプレイ100から受信し、その距離情報に応じて、推定したユーザが注視している座標値を修正する。なお、ユーザの眼と画像表示素子108との間の距離による注視位置の推定のずれは誤差の範囲として無視してもよい。これにより、視線検出部221は、画像表示素子108上の右目の注視点と、ユーザの右目の角膜の頂点とを結ぶ右目視線ベクトルを算出することができる。同様に、視線検出部221は、画像表示素子108上の左目の注視点と、ユーザの左目の角膜の頂点とを結ぶ左目視線ベクトルを算出することができる。なお、片目だけの視線ベクトルで2次元平面上でのユーザの注視点を特定することができ、両眼の視線ベクトルを得ることでユーザの注視点の奥行き方向の情報まで算出することができる。視線検出装置200はこのようにしてユーザの注視点を特定することができる。なお、ここに示した注視点の特定方法は一例であり、本実施の形態に示した以外の手法を用いて、ユーザの注視点を特定してもよい。
<動作>
以下、本実施の形態に係るヘッドマウントディスプレイシステム1の動作を説明する。図7は、ヘッドマウントディスプレイシステム1の動作を示すフローチャートであり、ヘッドマウントディスプレイ100に備えられた加速度センサから出力された加速度に基づいて心拍を特定する処理を示すフローチャートである。
視線検出装置200の第2通信部220は、ヘッドマウントディスプレイ100から、カメラ116が撮像した近赤外光に基づく撮像画像及び加速度センサ125が検出した加速度情報を受信する(ステップS701)。視線検出部220は、受信した撮像画像を視線検出部221に伝達し、加速度情報を心拍検出部222に伝達する。
視線検出部221は、撮像画像を受け取ると、当該撮像画像に基づいて、上記手法を用いて、ユーザの視線方向を検出する(ステップS702)。そして、映像においてユーザが注視している箇所(座標)を特定する。視線検出部221は、検出した視線方向及び注視箇所に関する情報を、映像生成部223に伝達する。
一方、心拍検出部222は、加速度情報を受け取ると、その加速度情報の一軸成分と、その同一軸であって、これまで受け付けた加速度成分の時系列変化から、上記手法を用いて、ユーザの心拍を検出する(ステップS702)。心拍検出部222は、検出した心拍の情報を、映像生成部223に伝達する。
映像生成部223は、伝達された視線方向及び注視箇所に関する情報、並びに、心拍の情報に基づいて、ヘッドマウントディスプレイ100の画像表示素子108に表示する映像を生成する(ステップS704)。
映像生成部223は、生成した映像を第2通信部220を介して、ヘッドマウントディスプレイ100に送信する(ステップS705)。これにより、ヘッドマウントディスプレイ100の画像表示素子108には、ヘッドマウントディスプレイ100を装着するユーザの視線方向及び心拍情報に基づいて生成された映像が表示されることになる。
ヘッドマウントディスプレイシステム1のヘッドマウントディスプレイ1または視線検出装置200は、ユーザからの映像表示終了入力を受け付けたか否かを判定する(ステップS706)。映像表示終了入力を受け付けていない場合には(ステップS706のNO)、ステップS701に戻る。映像表示終了入力を受け付けた場合には(ステップS706のYES)、処理を終了する。以上が、本実施の形態に係るヘッドマウントディスプレイシステム1の動作の説明である。
<まとめ>
上述のように、本実施の形態に係るヘッドマウントディスプレイシステムは、ヘッドマウントディスプレイにユーザの姿勢等を検出するために用いる加速度センサを用いて、ユーザの心拍を検出することができる。したがって、ヘッドマウントディスプレイを用いて映像を視認しているユーザの状態を把握したり、視聴している映像の特徴と、ユーザの心理状態との関係を解析したり、そのような解析に基づいてユーザに視聴させる効果的な映像を生成して表示したりすることができる。
<補足>
本発明に係る映像表示システムは、上記実施の形態に限定されるものではなく、その発明の思想を実現するために他の手法により実現されてもよいことは言うまでもない。以下、その他、本発明の思想として含み得る実施例について説明する。
(1)上記実施の形態に示したホットミラーは、可視光を透過し、非可視光を反射するものであればよく、その他の光学素子を用いてもよい。例えば、ホットミラーに換えて、可視光を透過し、非可視光を反射する特性を有するハーフミラーや、プリズム、光学フィルタ等の光学素子を用いることとしてもよい。
(2)上記実施の形態において、心拍検出部222は、検出した心拍の情報を映像生成部223に伝達することとしたが、心拍の情報を第2通信部220に伝達し、そこから外部装置に送信することとしてもよい。また、あるいは、心拍検出部222は、心拍の情報を記憶部240に記憶することとしてもよい。
(3)上記実施の形態において、加速度情報に基づいて検出された心拍の情報は、映像生成部223による映像の加工に用いられることとしているが、データ解析のために用いることとしてもよい。
例えば、取得した心拍の情報から、どのような映像に対してユーザが興奮しているのか、あるいは、退屈しているのか、また、その場合に、映像のどのような場所をユーザが注視ているのかの情報を解析することとしてもよい。このような解析は、新たな映像を作成する上でより効果的な映像作成に寄与する。
また、例えば、ヘッドマウントディスプレイ100を用いて、ユーザがゲームをプレイしているときに検出した心拍の情報から、ユーザがそのゲームの攻略が楽であると感じているか、あるいは、苦にしているかを特定してもよい。そして、その情報に基づいて、新たなゲームを作成する上で、よりユーザビリティに富んだゲームを作成することとしてもよい。
(4)上記実施の形態において、加速度成分のうち一軸の成分に基づいて心拍を検出することとしているが、3軸成分それぞれで心拍を検出し、それらの平均値から、心拍を特定することとしてもよい。すなわち、鉛直方向成分から求められた心拍の周期と、鉛直方向成分に直交する2軸のうちの一軸成分から求められた心拍の周期と、鉛直方向成分に直交する2軸のうちの他の軸成分から求められた心拍の周期との平均値をとって、ユーザの心拍として特定することとしてもよい。
(5)上記実施の形態においては、加速度情報に基づく波形について自己相関をとって心拍を検出する例を示したが、心拍を検出する手法はこれに限るものではない。加速度情報に基づいて心拍を検出できるのであれば、その他の手法を用いてもよく、例えば、予めユーザの心拍波形のサンプルを記憶部240に記憶しておき、心拍検出部222は、記憶部240に予め記憶されているサンプルとの相関をとって、相関値が高い箇所をユーザの心拍として検出することとしてもよい。
(6)上記実施の形態において心拍検出部222は、さらに、特定した心拍に対して、HRV(Heart Rate Variation)解析を行って、ユーザの心理状態を推定することとしてもよい。そして、推定した心理状態を示す情報を出力してもよいし、映像生成部223は、その心理状態を示す情報に基づいて、ヘッドマウントディスプレイ100に表示する映像を生成してもよい。例えば、ユーザがホラー映画を見ている状態で心拍が所定閾値よりも遅い場合には、ユーザは緊張していないと推定できるので、よりスリル感を向上させるために、映像において明るいタイミングと暗いタイミングにおける輝度差を大きくするように映像を加工してもよい。また、例えば、ユーザがサスペンス映画を見ている状態で所定閾値よりも早い場合には、ユーザは必要以上にスリル感を味わっていると推定して、映像のフレームレートをそれまでのフレームレートよりも遅くしたりする加工を行ってもよい。また、推定した心理状態に基づいて、移行の映像制作やゲーム制作などに利用してもよい。例えば、推定した心理状態に基づいて、どのような映像やゲームであれば、ユーザの興味を引くのかを特定し、制作する映像やゲームに反映させることとしてもよい。なお、ヘッドマウントディスプレイシステム1は、心拍の情報を出力するまでを実行し、HRV解析は出力先の外部装置が実行することとしてもよい。
(7)上記実施の形態において、視線検出装置200が心拍検出部222を備えてユーザの心拍を検出することとしたが、ヘッドマウントディスプレイ100が心拍検出部222を備えて心拍を検出することとしてもよいし、視線検出装置200とは異なる心拍検出部222を備える心拍検出装置が実行することとしてもよい。当該心拍検出装置は、心拍検出部222の他、ヘッドマウントディスプレイ100から加速度情報を受信する通信部を少なくとも備え、通信部は、心拍検出部が検出した心拍の情報を視線検出装置200に送信することとしてもよい。
(8)上記実施の形態における視線検出に係る手法は、一例であり、上記ヘッドマウントディスプレイ100及び視線検出装置200による視線検出方法は、これに限られるものではない。
まず、上記実施の形態においては、非可視光として近赤外光を照射する赤外光源を複数設ける例を示しているが、近赤外光をユーザの眼に照射する手法はこれに限られない。例えば、ヘッドマウントディスプレイ100の画像表示素子108を構成する画素について、近赤外光を発光するサブ画素を有する画素を設ける構成とし、それらの近赤外光を発光するサブ画素を選択的に発光させて、ユーザの眼に近赤外光を照射することとしてもよい。また、あるいは、画像表示素子108に換えて、ヘッドマウントディスプレイ100に網膜投影ディスプレイを備えるとともに、当該網膜投影ディスプレイで表示して、ユーザの網膜に投影する画像の中に、近赤外光色で発光する画素を含ませることで、近赤外光の照射を実現する構成としてもよい。画像表示素子108の場合にしても、網膜投影ディスプレイの場合にしても、近赤外光を発光させるサブ画素は、定期的に変更することとしてもよい。なお、画像表示素子108にサブ画素として近赤外光を発光するサブ画素を設ける場合や網膜投影ディスプレイに近赤外光の画素を含ませる場合には、上記実施の形態におけるホットミラー112は不要となる。
また、上記実施の形態において示した視線検出のアルゴリズムも上記実施の形態に示した手法に限定されるものではなく、視線検出を実現できるのであれば、その他のアルゴリズムを用いてもよい。
(9)また、上記実施の形態においては、ヘッドマウントディスプレイ100を装着しているユーザの心拍の特定を、視線検出装置200のプロセッサが心拍特定プログラム等を実行することにより、実現することとしているが、これは視線検出装置200に集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。すなわち、図9に示すように、ヘッドマウントディスプレイ100は、第1通信回路118aと、第1表示回路121aと、赤外光照射回路122aと、画像処理回路123aと、撮像回路124a、加速度センサ125とから構成されてよく、それぞれの機能は、上記実施の形態に示した同様の名称を有する各部と同様である。また、視線検出装置200は、第2通信回路220aと、視線検出回路221aと、心拍検出回路222aと、映像生成回路223aと、記憶回路224aとから構成されてよく、それぞれの機能は、上記実施の形態に示した同様の名称を有する各部と同様である。
また、上記心拍特定プログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記心拍特定プログラムは、当該心拍特定プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記心拍特定プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、上記心拍特定プログラムは、例えば、ActionScript、JavaScript(登録商標)、Python、Rubyなどのスクリプト言語、C言語、C++、C#、Objective-C、Java(登録商標)などのコンパイラ言語などを用いて実装できる。
(10)上記実施の形態に示した構成並びに各(補足)を適宜組み合わせることとしてもよい。
(11)上記実施の形態に示した映像表示システムの一実施態様に係るヘッドマウントディスプレイシステムにおいて、ヘッドマウントディスプレイ100は、ユーザの頭部に装着して使用し、映像を表示して加速度センサを備えるものであれば、ヘッドマウントディスプレイ以外の機器であってもよい。ヘッドマウントディスプレイ以外の機器、例えば、眼鏡などをその代替としてもよい。この場合、眼鏡は、加速度センサと、眼鏡のガラス部分に映像を表示する機能と、ユーザの眼を撮像する機能、ユーザの眼に近赤外光を照射する機能等、ヘッドマウントディスプレイ100が備える機能を備えるとよい。
1 ヘッドマウントディスプレイシステム、 100 ヘッドマウントディスプレイ、 103a 赤外光源(第2赤外光照射部)、 103b 赤外光源(第1赤外光照射部)、 105 輝点、 108 画像表示素子、 112 ホットミラー、 114,114a,114b 凸レンズ、 116 カメラ、 118 第1通信部、 121 表示部、 122 赤外光照射部、 123 画像処理部、 124 撮像部、 125 加速度センサ、 126 制御部、 130 画像表示系、 150 筐体、 152a,152b レンズ保持部、 160 装着具、 170 ヘッドフォン、 200 視線検出装置、 220 第2通信部、 221 視線検出部、 222 心拍検出部、 223 映像生成部、 224 記憶部。

Claims (9)

  1. ユーザの頭部に装着して使用する映像表示装置と、ユーザの心拍を検出する心拍検出装置とからなる映像表示システムであって、
    前記映像表示装置は、
    計測した加速度情報を逐次出力する加速度センサと、
    前記加速度情報を逐次前記心拍検出装置に送信する第1送信部とを備え、
    前記心拍検出装置は、
    前記映像表示装置から送信された加速度情報を受信する第1受信部と、
    受信した加速度情報に基づく加速度の変化を示す波形から、前記ユーザの心拍を検出する心拍検出部と、を備える映像表示システム。
  2. 前記映像表示システムは、さらに、視線検出装置を含み、
    前記映像表示装置は、さらに、
    画像を表示する表示部と、
    前記画像を注視し、非可視光が照射されたユーザの眼を撮像する撮像部を備え、
    前記第1送信部は、さらに、前記視線検出装置に前記撮像部が撮像した撮像画像を送信し、
    前記視線検出装置は、
    前記撮像画像を受信する第2受信部と、
    前記撮像画像を介してユーザの視線方向を検出する視線検出部と、
    前記ユーザの視線方向に基づいて前記映像表示装置に表示させる画像を生成する画像生成部とを備えることを特徴とする請求項1に記載の映像表示システム。
  3. 前記第1送信部は、さらに、前記視線検出装置に前記加速度情報を送信し、
    前記画像生成部は、前記加速度情報に基づいて、ユーザの体の向きを特定し、特定した向きに応じた画像を生成することを特徴とする請求項2に記載の映像表示システム。
  4. 前記心拍検出装置は、さらに、
    前記心拍検出部が検出したユーザの心拍に関する情報を前記視線検出装置に送信する第2送信部を備え、
    前記第2受信部は、更に、前記心拍に関する情報を受信し、
    前記画像生成部は、前記心拍に関する情報に基づいた画像を生成することを特徴とする請求項2又は3に記載の映像表示システム。
  5. 前記心拍検出装置は、さらに、
    心拍の典型的波形を示す波形情報を記憶する記憶部を備え、
    前記心拍検出部は、前記加速度情報に基づく加速度の変化に基づく波形と、前記波形情報との相関に基づいて前記ユーザの心拍を検出することを特徴とする請求項1〜4のいずれか1項に記載の映像表示システム。
  6. 前記心拍検出部は、前記加速度情報に基づく加速度の変化に基づく波形において、当該波形に含まれる所定の第1期間の波形と、他の第2期間における波形との相関関係に基づいて、前記ユーザの心拍を検出することを特徴とする請求項1〜4のいずれか1項に記載の映像表示システム。
  7. 前記映像表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1〜6のいずれか1項に記載の映像表示システム。
  8. ユーザの頭部に装着して使用する映像表示装置に備えられた加速度センサから加速度情報を逐次取得する取得ステップと、
    逐次取得した加速度情報に基づいて、前記ユーザの心拍を特定する特定ステップとを含む心拍特定方法。
  9. コンピュータに、
    ユーザの頭部に装着して使用する映像表示装置に備えられた加速度センサから加速度情報を逐次取得する取得機能と、
    逐次取得した加速度情報に基づいて、前記ユーザの心拍を特定する特定機能とを実現させる心拍特定プログラム。
JP2016127747A 2016-06-28 2016-06-28 映像表示装置システム、心拍特定方法、心拍特定プログラム Pending JP2018000308A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016127747A JP2018000308A (ja) 2016-06-28 2016-06-28 映像表示装置システム、心拍特定方法、心拍特定プログラム
US15/634,777 US20170371408A1 (en) 2016-06-28 2017-06-27 Video display device system, heartbeat specifying method, heartbeat specifying program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016127747A JP2018000308A (ja) 2016-06-28 2016-06-28 映像表示装置システム、心拍特定方法、心拍特定プログラム

Publications (1)

Publication Number Publication Date
JP2018000308A true JP2018000308A (ja) 2018-01-11

Family

ID=60677455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016127747A Pending JP2018000308A (ja) 2016-06-28 2016-06-28 映像表示装置システム、心拍特定方法、心拍特定プログラム

Country Status (2)

Country Link
US (1) US20170371408A1 (ja)
JP (1) JP2018000308A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016191845A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7027753B2 (ja) * 2017-09-20 2022-03-02 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11157073B2 (en) * 2017-10-04 2021-10-26 Tectus Corporation Gaze calibration for eye-mounted displays
US20200125169A1 (en) * 2018-10-18 2020-04-23 Eyetech Digital Systems, Inc. Systems and Methods for Correcting Lens Distortion in Head Mounted Displays
US12117619B1 (en) * 2021-08-23 2024-10-15 Meta Platforms Technologies, Llc Head mounted device and camera module
US20240252050A1 (en) * 2023-01-27 2024-08-01 Meta Platforms Technologies, Llc Techniques for Using Inward-Facing Eye-Tracking Cameras of a Head-Worn Device To Measure Heart Rate, and Systems and Methods Using Those Techniques

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5976083A (en) * 1997-07-30 1999-11-02 Living Systems, Inc. Portable aerobic fitness monitor for walking and running
AU2002255568B8 (en) * 2001-02-20 2014-01-09 Adidas Ag Modular personal network systems and methods
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP5036177B2 (ja) * 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP2010522039A (ja) * 2007-03-23 2010-07-01 スリーエム イノベイティブ プロパティズ カンパニー 複数のセンサー信号の特徴検出を用いた医療用感知装置のための電力管理
JP2009072417A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 生体情報処理装置及び方法
US8211030B2 (en) * 2009-03-26 2012-07-03 The General Electric Company NIBP target inflation pressure automation using derived SPO2 signals
JP2011232445A (ja) * 2010-04-26 2011-11-17 Sony Corp 情報処理装置、出題傾向設定方法及びプログラム
US9994228B2 (en) * 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
FI20105790A0 (fi) * 2010-07-09 2010-07-09 Polar Electro Oy Lyhyen kantaman langaton tiedonsiirto
US20120200404A1 (en) * 2011-02-09 2012-08-09 Robert Paul Morris Methods, systems, and computer program products for altering attention of an automotive vehicle operator
US8736660B2 (en) * 2011-03-14 2014-05-27 Polycom, Inc. Methods and system for simulated 3D videoconferencing
JP5724976B2 (ja) * 2012-09-20 2015-05-27 カシオ計算機株式会社 運動情報検出装置および運動情報検出方法、運動情報検出プログラム
SG10201610410WA (en) * 2012-12-27 2017-01-27 Panasonic Ip Corp America Information communication method
JP5862643B2 (ja) * 2013-02-20 2016-02-16 株式会社デンソー 車載装置
US9936916B2 (en) * 2013-10-09 2018-04-10 Nedim T. SAHIN Systems, environment and methods for identification and analysis of recurring transitory physiological states and events using a portable data collection device
US20150109201A1 (en) * 2013-10-22 2015-04-23 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
CN104771157A (zh) * 2014-01-15 2015-07-15 精工爱普生株式会社 生物体信息处理系统及处理方法、电子设备及服务器系统
WO2015164944A1 (en) * 2014-04-29 2015-11-05 Tritonwear Inc. Wireless metric calculating and feedback apparatus, system, and method
CN105301771B (zh) * 2014-06-06 2020-06-09 精工爱普生株式会社 头部佩戴型显示装置、检测装置、控制方法以及计算机程序
US10827934B2 (en) * 2014-06-18 2020-11-10 Nokia Technologies Oy Method, device and arrangement for determining pulse transit time
KR102352390B1 (ko) * 2014-12-26 2022-01-18 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
KR20160080473A (ko) * 2014-12-29 2016-07-08 엘지전자 주식회사 와치형 이동 단말기 및 이의 제어방법
WO2016136837A1 (ja) * 2015-02-25 2016-09-01 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP6693718B2 (ja) * 2015-02-27 2020-05-13 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP6788327B2 (ja) * 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP6560885B2 (ja) * 2015-03-31 2019-08-14 三菱日立パワーシステムズ株式会社 燃焼バーナ及びボイラ
EP3288632B1 (en) * 2015-04-29 2020-07-01 Brainlab AG Detection of the heartbeat in cranial accelerometer data using independent component analysis
US9921645B2 (en) * 2015-06-29 2018-03-20 Logitech Europe S.A. Retinal projection device and method for activating a display of a retinal projection device
KR102457563B1 (ko) * 2015-11-24 2022-10-24 삼성전자주식회사 서비스 제공을 위한 웨어 시스템 및 방법
KR20170074000A (ko) * 2015-12-21 2017-06-29 삼성전자주식회사 전자 장치 및 수면 관리 방법

Also Published As

Publication number Publication date
US20170371408A1 (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP2018006914A (ja) 外部撮像システム、外部撮像方法、外部撮像プログラム
JP6845982B2 (ja) 表情認識システム、表情認識方法及び表情認識プログラム
US20180004289A1 (en) Video display system, video display method, video display program
JP6112583B2 (ja) ヘッドマウントディスプレイ
US8912980B2 (en) Image processing device, image processing method, and image processing system
US20170344112A1 (en) Gaze detection device
JP6485819B2 (ja) 視線検出システム、ずれ検出方法、ずれ検出プログラム
JP2018000308A (ja) 映像表示装置システム、心拍特定方法、心拍特定プログラム
WO2017090203A1 (ja) 視線検出システム、注視点特定方法及び注視点特定プログラム
US12177404B2 (en) Image display system, image display method, and image display program
KR20170135762A (ko) 시선 검출 시스템
WO2017094606A1 (ja) 表示制御装置及び表示制御方法
KR20170141140A (ko) 헤드 마운트 디스플레이, 시선 검출 시스템
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
KR20170011854A (ko) 디스플레이 장치 및 디스플레이 장치의 영상 구현 방법
US20180182124A1 (en) Estimation system, estimation method, and estimation program
JP2018018449A (ja) 情報処理システム、操作方法及び操作プログラム
JP6705929B2 (ja) 表示制御装置及び表示制御方法
JP2021068296A (ja) 情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法
US20250281085A1 (en) Systems and methods for performing a motor skills neurological test using augmented or virtual reality
JP2017045068A (ja) ヘッドマウントディスプレイ

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160725

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180809

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190131