JP2023058161A - Data processing device, eye movement data processing system, data processing method, and program - Google Patents
Data processing device, eye movement data processing system, data processing method, and program Download PDFInfo
- Publication number
- JP2023058161A JP2023058161A JP2021167969A JP2021167969A JP2023058161A JP 2023058161 A JP2023058161 A JP 2023058161A JP 2021167969 A JP2021167969 A JP 2021167969A JP 2021167969 A JP2021167969 A JP 2021167969A JP 2023058161 A JP2023058161 A JP 2023058161A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- data
- eye
- data processing
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【課題】医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラムを提供する。
【解決手段】本開示に従うデータ処理装置100は、医療において眼を撮像する撮像装置400からのデータを処理する処理装置である。データ処理装置100は、I/Oインターフェイス110と、制御部120と、を備える。I/Oインターフェイス110は、被検者2の頭部に装着する撮像装置400の筐体401に保持された第1撮像部411および第2撮像部412で撮像した被検者2の眼の画像データCが入力される。制御部120は、I/Oインターフェイス110で入力された画像データCに基づいて、被検者2の頭部と筐体401とのズレ量を導出する。
【選択図】図3
A data processing device, an eye movement data processing system, a data processing method, and a program are provided for processing data from an imaging device that images an eye in medical care.
A data processing device (100) according to the present disclosure is a processing device that processes data from an imaging device (400) that images an eye in medical care. The data processing device 100 includes an I/O interface 110 and a control section 120 . The I/O interface 110 receives images of the eyes of the subject 2 captured by the first imaging unit 411 and the second imaging unit 412 held in the housing 401 of the imaging device 400 worn on the head of the subject 2. Data C is input. The control unit 120 derives the displacement amount between the head of the subject 2 and the housing 401 based on the image data C input through the I/O interface 110 .
[Selection drawing] Fig. 3
Description
本発明は、データ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラムに関する。 The present invention relates to a data processing device, an eye movement data processing system, a data processing method, and a program.
従来、耳鼻科、神経内科、脳神経外科などで、めまいや平衡機能障害などの診断においては、目への刺激、頭部への刺激、あるいは耳への刺激に対して、眼球がどのような運動をするかを調べる平衡機能検査が広く行なわれている。特許文献1では、カメラ、頭位センサを内蔵したゴーグル(撮像装置)を装着して被検者の眼球運動を撮像する眼振解析システムが開示されている。特許文献2では、被検者から独立した場所に固定されたカメラで被検者の視線を追跡する視線追跡システムが開示されている。
Traditionally, otolaryngologists, neurologists, and neurosurgeons have focused on diagnosing dizziness, balance dysfunction, and other conditions by examining how eyeballs move in response to stimuli to the eyes, head, or ears. Balance function tests are widely used to determine whether
特許文献1に開示された眼振解析システムでは、ゴーグルを装着した状態で被検者の頭部を動かすため、最初に付けたゴーグルの位置からゴーグルの位置がずれる場合がある。ゴーグルの位置がずれると正確な測定ができない。また、ゴーグルの位置がずれることを回避するため、特許文献2に開示された視線追跡システムを採用することも考えられるが、視線追跡できる範囲外となるような頭部を動かす検査(回転刺激検査など)には採用することができない。
In the nystagmus analysis system disclosed in
本開示は、このような問題を解決するためになされたものであり、医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラムを提供することを目的とする。 The present disclosure has been made to solve such problems, and provides a data processing device, an eye movement data processing system, a data processing method, and a program for processing data from an imaging device that images the eye in medical care. intended to provide
本開示に従うデータ処理装置は、医療において眼を撮像する撮像装置からのデータを処理する。データ処理装置は、被検者の頭部に装着する撮像装置の筐体に保持された撮像部で撮像した被検者の眼の画像データが入力される入力部と、入力部で入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出する導出部と、を備える。 A data processing apparatus according to the present disclosure processes data from an imaging device that images the eye in medicine. The data processing device includes an input unit for inputting image data of the subject's eyes captured by an imaging unit held in a housing of an imaging device worn on the subject's head, and an input unit for inputting image data of the subject's eyes. a deriving unit that derives the displacement between the subject's head and the housing based on the image data.
本開示に従う眼球運動データ処理システムは、平衡機能検査における眼球運動データを処理する。眼球運動データ処理システムは、被検者の眼球を撮像する撮像装置と、撮像装置からのデータが入力されて、当該データの処理を行うデータ処理装置と、を備える。撮像装置は、被検者の頭部に装着する筐体と、筐体に保持され、被検者の眼を撮像する撮像部と、を含み、データ処理装置は、撮像部で撮像した被検者の眼の画像データが入力される入力部と、入力部で入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出する導出部と、を含む。 An eye movement data processing system according to the present disclosure processes eye movement data in balance testing. An eye movement data processing system includes an imaging device that images an eyeball of a subject, and a data processing device that receives data from the imaging device and processes the data. The imaging device includes a housing mounted on the subject's head, and an imaging unit held in the housing for imaging the subject's eyes. It includes an input unit to which image data of a person's eyes is input, and a derivation unit to derive the displacement amount between the subject's head and the housing based on the image data input by the input unit.
本開示に従うデータ処理方法は、医療において眼を撮像する撮像装置からのデータを処理する方法である。データ処理方法は、被検者の頭部に装着する撮像装置の筐体に保持された撮像部で撮像した被検者の眼の画像データが入力されるステップと、入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出するステップと、を含む。 A data processing method according to the present disclosure is a method of processing data from an imaging device that images the eye in medicine. The data processing method includes a step of inputting image data of the subject's eye captured by an imaging unit held in a housing of an imaging device worn on the subject's head, and a step of inputting image data of the subject's eye, and and deriving the amount of displacement between the subject's head and the housing.
本開示に従うプログラムは、医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置で実行される。プログラムは、被検者の頭部に装着する撮像装置の筐体に保持された撮像部で撮像した被検者の眼の画像データが入力されるステップと、入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出するステップと、を含む。 A program according to the present disclosure is executed by a data processing device that processes data from an imaging device that images the eye in medicine. The program includes a step of inputting image data of the subject's eyes captured by an imaging unit held in a housing of an imaging device worn on the subject's head, and based on the input image data, and deriving an amount of displacement between the subject's head and the housing.
本開示によれば、撮像部で撮像した眼の画像から被検者の頭部と筐体とのズレ量を導出することができる。 According to the present disclosure, it is possible to derive the displacement amount between the head of the subject and the housing from the image of the eye captured by the imaging unit.
本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.
[実施の形態1]
図1~図3を参照して、実施の形態1に係る眼球運動データ処理システムおよび撮像装置について説明する。なお、以下に説明する眼球運動データ処理システム10は一例であって、医療において眼を撮像する撮像装置と、当該撮像装置からのデータを処理するデータ処理装置とを含むシステムであれば、眼球運動データ処理システムに限定されない。
[Embodiment 1]
An eye movement data processing system and imaging device according to
術者1は、眼球運動データ処理システム10を用いることで、被検者2のめまいについて診断することができる。なお、「術者」は、クリニック、総合病院、および大学病院などに属する医師などの術者、医科大学の先生または生徒など、眼球運動データ処理システム10を使用する者であればいずれであってもよい。なお、術者が所属する医科は、眼科や耳鼻科のようなめまいの治療を専門とするものに限らず、内科や歯科など、その他のものであってもよい。「被検者」は、クリニック、総合病院、および大学病院の患者、医科大学における対象者など、眼球運動データ処理システム10の診断対象となる者であればいずれであってもよい。「めまい」は、目の前の世界がぐるぐる回る回転性めまい、自身がふわふわするように感じる浮動性めまい、目の前の世界が真っ暗になる失神性めまいなど、被検者2の視覚に何らかの異常が生じている状態を含む。
The
図1に示すように、実施の形態1に係る眼球運動データ処理システム10は、データ処理装置100を備える。データ処理装置100には、ディスプレイ300と、撮像装置400と、キーボード501と、マウス502とが接続されている。ディスプレイ300は、表示装置の一例である。また、キーボード501およびマウス502は、入力装置の一例である。
As shown in FIG. 1 , an eye movement
一般的に、めまいの診断においては、眼振(律動的に動く眼球の不随意運動)を観察することによって行われる。眼振には、何らの刺激も与えられていない状態で自発的に起こる自発眼振と、刺激が与えられることで起こる誘発眼振とが含まれる。さらに、誘発眼振には、頭部の位置が変位したときに誘発される頭位眼振と、体の位置が変位したときに誘発される頭位変換眼振とが含まれる。誘発眼振について、特に、頭部に生理的な回転刺激などを与えると、視野を安定させるために頭部と反対に眼球が動くことが知られており、このような現象を前庭動眼反射(VOR:Vestibulo Ocular Reflex)ともいう。 Diagnosis of vertigo is generally made by observing nystagmus (an involuntary movement of the eyeballs that rhythmically moves). Nystagmus includes spontaneous nystagmus that occurs spontaneously in the absence of any stimulus and evoked nystagmus that occurs when a stimulus is applied. Further, induced nystagmus includes head positional nystagmus induced when the position of the head is displaced and head positional nystagmus induced when the position of the body is displaced. With regard to induced nystagmus, it is known that when a physiological rotational stimulus is applied to the head, the eye moves in the opposite direction to the head in order to stabilize the visual field. It is also called VOR (Vestibulo Ocular Reflex).
具体的に、眼球運動データ処理システム10では、被検者2の眼振を観察するために、被検者2の眼球を撮像装置400で撮像し、撮像した画像データをデータ処理装置100で加工、保存、表示などの処理を実施する。そのため、データ処理装置100は、撮像装置400に接続されている。撮像装置400は、被検者2の頭部に装着するゴーグル形状の装置で、めまいの診断に用いるため被検者2の眼球を撮像し、眼球運動の画像データを取得する装置である。図1に示すように、術者1は、被検者2に撮像装置400を装着させた状態で、眼振検査を行い、そのときに得られた被検者2の眼球運動の画像データをデータ処理装置100に入力する。データ処理装置100では、撮像装置400で取得された画像データを処理して、めまいの診断に必要な情報を術者1に提供する。
Specifically, in the eye movement
図2(A)に示す撮像装置400は、前面側に遮光カバー402が取り付けられた状態である。筐体401の上面には、データ処理装置100と接続するための配線403が設けられている。なお、撮像装置400とデータ処理装置100との接続は、有線に限られず画像データの送信に十分な通信速度を確保できるのであれば無線であってよい。
The
図2(B)に示す撮像装置400は、上側の筐体401aと、下側の筐体401bと、被検者2と接する接眼部401cとに分解されて図示されている。下側の筐体401bには、被検者2の右目を撮像する赤外線撮像装置の第1撮像部411と、被検者2の左目を撮像する赤外線撮像装置の第2撮像部412とが設けられている。一方、上側の筐体401aには、図示していないが、図3に示す演算処理部420が設けられている。本開示では、第1撮像部411および第2撮像部412を撮像装置400に設けた構成について説明するが、撮像装置に設ける撮像部は1つでもよく、1つの撮像部でいずれか一方の目または両方の目を撮像する構成でもよい。
The
接眼部401cは、被検者2の前眼部を覆いつつ、被検者2の眼球を第1撮像部411および第2撮像部412で撮像できるように開口部401dを有している。接眼部401cは、装着時に被検者2の顔面に密着させるために適度の可撓性および弾発性を有する合成樹脂または軟質ゴムで形成されている。
The
遮光カバー402は、たとえばマグネットが設けてあり撮像装置400に対して簡単に取り付け、取り外しができるようになっている。遮光カバー402を撮像装置400から取り外した場合、被検者2は、ホットミラー410を介して前方を見ることができ、視刺激信号処理装置600から発せられる指標などを見ることができる。なお、ホットミラー410は、ガラスまたは樹脂の板に、可視光は透過し近赤外光は反射するコーティングを施してあり、被検者の視野を確保しつつ、眼球の赤外線画像を取得するための光学部品である。第1撮像部411および第2撮像部412は、このホットミラー410で反射した被検者2の眼球を撮像している。
The
撮像装置400は、図3に示すように第1撮像部411からの画像データAと、第2撮像部412からの画像データBとを演算処理部420で処理して画像データCとしてデータ処理装置100に送信している。第1撮像部411および第2撮像部412は、60フレーム/秒または240フレーム/秒で画像を撮像することができる。また、第1撮像部411および第2撮像部412に用いる赤外線撮像素子は、例えば、赤外線を撮像できるCMOS(Complementary Metal Oxide Semiconductor)センサ、CCD(Charge Coupled Device)などである。
As shown in FIG. 3, the
撮像装置400は、図3に示すように被検者2の頭の動きを検出する頭部センサ450を筐体401に設けてある。頭部センサ450は、例えば、加速度センサ、角速度センサ、地磁気センサをそれぞれ3軸方向に設けて9つのセンサで構成する。加速度センサは、重力加速度を検知することで被検者2の頭部の姿勢を検知できる。角速度センサは、被検者2の頭部の角速度を検知できる。地磁気センサは、被検者2の頭部の向き(方位)を検知できる。演算処理部420では、頭部センサ450からの測定信号に基づき頭部角度および頭部角速度などについて演算で求める。なお、撮像装置400では、頭部センサ450を設ける構成について説明するが、頭部センサ450を設けない構成でもあっても、頭部センサ450以外に、装着センサ、遮光センサなどのセンサをさらに設けてもよい。
The
演算処理部420は、第1撮像部411で撮像した画像データAと、第2撮像部412で撮像した画像データBと、視刺激信号処理装置600からの外部信号とを同期させて、画像データCを生成する演算処理を行っている。そのため、演算処理部420は、画像データの処理を実行する演算主体であり、コンピュータの一例であり、たとえば、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)などで構成される。また、演算処理部420は、画像などを記憶させるRAM(Random Access Memory)、プログラムなどが記憶されたROM(Read only Memory)などのメモリを有している。なお、演算処理部420は、画像データCを生成する構成以外に、生成した画像を外部へ送信する通信部として実行される構成も有している。
The
ここで、視刺激信号処理装置600は、図3に示すようにレーザ装置であり、スクリーンにレーザポイントを生成し視標として表示するための装置である。視刺激信号処理装置600は、データ処理装置100との間でデータを送受信することが可能である。
Here, the visual stimulus
めまいの診断で用いられる眼振検査を行う場合、図1に示すように、被検者2に撮像装置400を装着させた状態で、被検者2の頭部の位置を変位させる必要がある。図4は、眼振検査の一例を説明するための模式図である。眼振検査は、所定の条件下において行われる。たとえば、自発眼振の検査においては、術者1は、被検者2の頭部を固定して正面で注視させた状態で、そのときの被検者2の眼球運動に基づいてめまいを診断する。頭位眼振の検査においては、図4に示すように、術者1は、被検者2の頭部の位置を様々な状態に変位させ、そのときに誘発される被検者2の眼球運動に基づいてめまいを診断する。
When performing a nystagmus examination used for diagnosing dizziness, it is necessary to displace the position of the head of the subject 2 while the
このとき、最初に付けた撮像装置400の位置から撮像装置400の位置がずれる場合がある。撮像装置400の位置が最初に付けた位置からずれると正確な測定ができない。そこで、データ処理装置100では、取得した眼の画像データから被検者2の頭部と撮像装置400(筐体401)とのズレ量を導出して、補正可能な範囲であれば当該ズレ量に基づいて眼球運動データを補正する。なお、データ処理装置100は、導出したズレ量が補正可能な範囲を超えていれば、測定エラーとしてディスプレイ300、スピーカ(図示せず)などで筐体401のズレを報知する。なお、ディスプレイ300、スピーカなどは、測定エラーを使用者に報知する報知部として機能する。または、データ処理装置100は、導出したズレ量が補正可能な範囲を超えていれば、そのタイミングで導出された眼球運動データと関連させて、その旨を示すデータを記憶装置700(例えば、SSD(Solid State Drive)、HDD(Hard Disk Drive)など)へ記憶する。
At this time, the position of the
データ処理装置100は、図3に示すようにI/Oインターフェイス110と、制御部120と、画像処理部130とを含む。I/Oインターフェイス110は、撮像装置400の筐体401に保持された撮像部(第1撮像部411および第2撮像部412)で撮像した被検者の眼の画像データが入力される入力部として機能する。さらに、I/Oインターフェイス110は、ディスプレイ300、入力装置500などの間でも信号、データなどを入出力している。
The
制御部120は、特徴点の移動量から被検者2と筐体401とのズレ量を導出し、導出したズレ量からに基づいて、眼球運動データを補正するなどの処理を実行する演算主体である。具体的に、データ処理装置100は、コンピュータが一例であり、たとえば、CPU、FPGAなどが制御部120に相当する。また、制御部120は、画像などを記憶させるRAM、プログラムなどが記憶されたROMなどのメモリを有している。
The
画像処理部130は、GPU(Graphics Processing Unit)などで構成されており、画像データCの画像をディスプレイ300に表示させたり、画像データCの画像に眼球の瞳孔の輪郭および中心を示す画像を重畳してディスプレイ300に表示させたりすることができる。
The
データ処理装置100は、メディア読込装置を有していてもよい。メディア読込装置は、各種のプログラムおよびデータを記憶する記憶媒体を受け付け、記憶媒体からプログラムおよびデータを読み込むことができる。記憶媒体としては、CD(Compact Disk)、SDカード(Secure Digital card)、USBメモリ(Universal Serial Bus memory)などが挙げられる。本実施の形態において、ROMなどにプログラムを記憶させずに、記憶媒体に格納されたプログラムをメディア読込装置で読み込んで、メモリにプログラムを記憶させてもよい。もちろん、データ処理装置100は、ネットワークを介してプログラムをダウンロードし、メモリにプログラムを記憶させてもよい。
The
次に、データ処理装置100が、被検者2の頭部と筐体401とのズレ量を導出し、導出したズレ量からに基づいて、眼球運動データなどを補正する処理について具体的に説明する。図5は、実施の形態1に係る眼球運動データ処理システム10における被検者2の頭部と筐体401とのズレ量の導出処理を説明するため図である。図5に示す例では、被検者2の眼を撮像したNフレーム目(Nは自然数)の画像と、N-1フレーム目の画像とに基づいて、被検者2の頭部と筐体401とのズレ量を導出する。なお、被検者2の頭部と筐体401とのズレ量の導出は、1フレーム単位ごとに行う必要はなく、数フレーム単位ごと、数十フレーム単位ごとに行ってもよい。
Next, the
まず、撮像装置400は、第1撮像部411および第2撮像部412でN-1フレーム目における被検者2の眼の画像データを取得する(S1)。眼の画像データは、演算処理部420において、N-1フレーム目における第1撮像部411の画像データAと第2撮像部412の画像データBとを合わせた画像データCとして生成され、データ処理装置100に送られる。
First, the
撮像装置400は、N-1フレーム目撮像時の頭部センサ450から頭部角速度のデータを取得する(S2)。頭部角速度のデータは、演算処理部420において、N-1フレーム目撮像時のタイミングで取得した頭部センサ450の信号に基づいてデータHとして生成され、データ処理装置100に送られる。
The
データ処理装置100は、取得した画像データ(画像データC)から被検者2の特徴点を検出する(S3)。被検者2の目の画像データから特徴点を検出する場合、例えば、被検者2の目頭および目尻のうち少なくとも一方を特徴点とする。具体的に、図を用いて説明する。図6は、実施の形態1に係るデータ処理装置100において処理する眼の画像データを示す図である。図6では、第1撮像部411で撮像した被検者2の右目の画像データAと、第2撮像部412で撮像した被検者2の左目の画像データBとを合わせた画像データCが図示されている。
The
図6を用いて、データ処理装置100が、被検者2の左目の特異点として目頭を特定する処理を説明する。なお、制御部120は、あらかじめ人間の目頭の形状パターンを複数記憶してあるものとする。まず、制御部120は、N-1フレーム目の画像データCを取得すると、あらかじめ記憶している目頭の形状パターンとマッチングする形状が当該画像データC内に存在するか否かを検出する。制御部120は、目頭の形状パターンと合う形状を画像データC内で見つけた場合、図6に示すように目頭の領域Rを特定する。制御部120は、特定した目頭の領域Rの左上の座標rを、被検者2の左目における目頭(特徴点)の位置データとして出力する。なお、画像データCには、例えば、左上の座標を(0,0)とするx,y座標が設定されている。なお、座標の設定は、画像データAおよび画像データBのそれぞれに対して行ってもよい。例えば、画像データCの左上の座標を(0,0)として画像データAのx,y座標を設定し、画像データCの右上の座標を(0,0)として画像データBのx,y座標を設定する。
A process of specifying the inner corner of the eye as the singular point of the left eye of the subject 2 by the
ここで、画像データCから目頭の形状パターンとマッチングする領域を特定するアルゴリズムは、例えば、画像データC全体に対して形状パターンとの一致度(類似度)を算出し、算出した一致度(類似度)を比較し、最も一致度(類似度)が高いところを探し出す。一致度(類似度)を算出する方法として、例えば、SAD(Sum of Absolute Difference)があり、対象画像のすべての画素において、形状パターンとの差分の絶対値を求め、その総和を一致度(類似度)とする方法がある。なお、画像データCから目頭の形状パターンとマッチングする領域を特定するアルゴリズムは、これに限られず、公知のアルゴリズムであれば何れのアルゴリズムも適用することができる。 Here, the algorithm for specifying the region matching the shape pattern of the inner corner of the eye from the image data C is, for example, calculating the degree of matching (similarity) with the shape pattern for the entire image data C, calculating the degree of matching (similarity) degree) to find the place with the highest degree of matching (similarity). As a method of calculating the degree of matching (similarity), for example, there is SAD (Sum of Absolute Difference). degrees). Note that the algorithm for identifying the region that matches the shape pattern of the inner corner of the eye from the image data C is not limited to this, and any known algorithm can be applied.
次に、制御部120は、前フレーム(N-2フレーム)の特徴点から現フレーム(N-1フレーム)の特徴点への変化から被検者2の頭部と筐体401とのズレ量を導出する(S4)。なお、N=1の場合、前フレーム(N-2フレーム)が存在しないので、制御部120は、被検者2の頭部と筐体401とのズレ量の導出を行わない。
Next, the
さらに、制御部120は、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正する(S5)。なお、N=1の場合、前フレーム(N-2フレーム)が存在しないので、制御部120は、被検者2の頭部と筐体401とのズレ量が導出できないので、画像データCにおける眼球の位置、および頭部角速度のデータについて補正を行わない。
Further, the
制御部120は、補正した画像データCにおける眼球の位置、および頭部角速度のデータを取得し、保存する(S6)。なお、N=1の場合、前フレーム(N-2フレーム)が存在しないので、制御部120は、最初の画像データCにおける眼球の位置、および頭部角速度のデータを取得し、保存する。
The
次に、撮像装置400は、第1撮像部411および第2撮像部412でNフレーム目における被検者2の眼の画像を取得する(S11)。眼の画像は、演算処理部420において、Nフレーム目における第1撮像部411の画像データAと第2撮像部412の画像データBとを合わせた画像データCとして生成され、データ処理装置100に送られる。
Next, the
撮像装置400は、Nフレーム目撮像時の頭部センサ450から頭部角速度のデータを取得する(S12)。頭部角速度のデータは、演算処理部420において、Nフレーム目撮像時のタイミングで取得した頭部センサ450の信号に基づいてデータHとして生成され、データ処理装置100に送られる。
The
データ処理装置100は、取得した画像データ(画像データC)から被検者2の特徴点を検出する(S13)。被検者2の目の画像から特徴点を検出する場合、例えば、被検者2の目頭および目尻のうち少なくとも一方を特徴点とする。図6で説明したように、制御部120は、目頭の形状パターンと合う形状を画像データC内で見つけた場合、目頭の領域Rを特定する。制御部120は、特定した目頭の領域Rの左上の座標rを、被検者2の左目における目頭(特徴点)の位置データとして出力する。
The
次に、制御部120は、前フレーム(N-1フレーム)の特徴点から現フレーム(Nフレーム)の特徴点への変化から被検者2の頭部と筐体401とのズレ量を導出する(S14)。さらに、制御部120は、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正する(S15)。図7は、実施の形態1に係るデータ処理装置100において画像データCにおける眼球の位置、および頭部角速度のデータを補正する処理を説明するための概略図である。なお、図7では、説明を分かりやすくするため、被検者2の左目および領域R以外の図示を省略している。
Next, the
図7(a)は、被検者2の頭部と筐体401とのズレ量に基づいて画像データCにおける眼球の位置を補正する処理を説明する図である。制御部120は、図7(a)に示すように、N-1フレーム目の座標r(N-1)が(A,B)で、Nフレーム目の座標r(N)が(A+a,B+b)である場合、被検者2の頭部と筐体401とのズレ量を(a,b)と導出できる。制御部120は、導出したズレ量を(a,b)に基づいて、N-1フレーム目の画像データCの座標(a,b)をNフレーム目の画像データCの座標(0,0)として、画像データCにおける眼球の位置を補正する。
FIG. 7A is a diagram for explaining the process of correcting the position of the eyeball in the image data C based on the amount of deviation between the head of the subject 2 and the
図7(b)は、被検者2の頭部と筐体401とのズレ量に基づいて頭部角速度のデータを補正する処理を説明する図である。制御部120は、図7(b)に示すように、N-1フレーム目の座標r(N-1)と、Nフレーム目の座標r(N)との回転中心O1における成す角θを被検者2の頭部と筐体401とのズレ量と導出する。制御部120は、1フレームの時間と、ズレ量θとから角速度の補正値を求め、当該補正値を頭部角速度のデータに対して増減を行う。なお、ズレ量θは、時計回りを正、反時計回りを負とする。また、正確に頭部角速度のデータを補正するには、頭部角速度の回転中心Oと、回転中心O1との差異を考慮する必要がある。
FIG. 7B is a diagram for explaining processing for correcting head angular velocity data based on the amount of deviation between the head of
制御部120は、さらに第1画像41から眼球水平角度(右)、眼球垂直角度(右)、および眼球回旋角度(右)について、第2画像42から眼球水平角度(左)、眼球垂直角度(左)、および眼球回旋角度(左)についてそれぞれ演算で求める。具体的に、制御部120は、第1画像41および第2画像42のフレーム毎に検出したそれぞれの眼球の瞳孔の輪郭および中心の位置を求め、当該位置から眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)を算出する。制御部120は、ズレ量に基づいて画像データCにおける眼球の位置を補正した値を用いて、眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)を算出しているので、被検者2と筐体401とのズレを測定結果から無視することができる。
The
なお、制御部120は、ズレ量に基づいて画像データCにおける眼球の位置を補正するのではなく、算出した眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)に対してズレ量を適用して補正を行ってもよい。同じように、被検者2と筐体401とのズレを測定結果から無視することができる。ここで、眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)は、眼球運動データの一例である。眼球運動データは、被検者2の眼球の水平方向、垂直方向、および回旋方向の動きのうち少なくとも1つの動きのデータを含めばよい。
Note that the
しかし、被検者2の頭部と筐体401とのズレ量が大きい場合、眼球運動データを算出することができない。そこで、制御部120は、導出したズレ量が補正可能な範囲内か否かを判断して、導出したズレ量が補正可能な範囲を超えていれば、測定エラーとして再測定を術者1に促してもよい。具体的に、フローチャートを用いて、導出したズレ量が補正可能な範囲内か否かを判断する処理を説明する。図8は、実施の形態1に係るデータ処理装置100におけるデータ処理を説明するためのフローチャートである。
However, when the displacement amount between the head of the subject 2 and the
まず、制御部120は、N-1フレーム目の処理を開始する(ステップS101)。制御部120は、第1撮像部411および第2撮像部412で撮像したN-1フレーム目における被検者2の眼の画像データ(画像データC)が入力される(ステップS102)。被検者2の眼の画像データ(画像データC)が入力されていない場合(ステップS102でNO)、制御部120は、処理をステップS102に戻して、被検者2の眼の画像データ(画像データC)が入力される状態を続ける。
First, the
被検者2の眼の画像データ(画像データC)が入力された場合(ステップS102でYES)、制御部120は、画像データCにおいて被検者2の目頭を特徴点として特定する(ステップS103)。制御部120は、例えば画像のパターンマッチングで画像データCから被検者2の目頭の領域を探し出し、当該領域を特徴点として特定する。
When image data (image data C) of the eye of
制御部120は、特徴点として特定した目頭の領域の左上の座標を目頭の位置として記憶部に保持する(ステップS104)。目頭の領域の左上の座標を目頭の位置とするのは一例であり、当該領域に右下の座標、当該領域の中心座標、当該領域の重心座標などでもよい。
The
次に、制御部120は、Nフレーム目の処理を開始する(ステップS105)。制御部120は、第1撮像部411および第2撮像部412で撮像したNフレーム目における被検者2の眼の画像データ(画像データC)が入力される(ステップS106)。被検者2の眼の画像データ(画像データC)が入力されない場合(ステップS106でNO)、制御部120は、処理をステップS106に戻して、被検者2の眼の画像データ(画像データC)が入力される状態を続ける。
Next, the
被検者2の眼の画像データ(画像データC)が入力された場合(ステップS106でYES)、制御部120は、画像データCにおいて被検者2の目頭を特徴点として特定する(ステップS107)。制御部120は、例えば画像のパターンマッチングで画像データCから被検者2の目頭の領域を探し出し、当該領域を特徴点として特定する。
When image data (image data C) of the eye of
制御部120は、N-1フレーム目の画像から特徴点として特定した目頭の位置に対して、Nフレーム目の画像から特徴点として特定した目頭の位置のズレ量(目頭のズレ量)を導出する(ステップS108)。なお、目頭のズレ量には、画像のx,y座標のズレ量以外に、角速度のズレ量を含んでもよい。
The
制御部120は、目頭のズレ量が閾値以下か否かを判断する(ステップS109)。ここで、閾値は、補正可能な範囲に設定してあり、例えば、被検者2の眼球の瞳孔や虹彩模様の一部が撮像領域外とならない距離を補正可能な範囲とする。
The
目頭のズレ量が閾値以下と判断した場合(ステップS109でYES)、制御部120は、目頭のズレ量に基づいて眼球運動データを補正する(ステップS110)。ここで、制御部120は、目頭のズレ量が0である場合は、眼球運動の補正をしない。なお、制御部120は、目頭のズレ量に基づいて画像データにおける眼球の位置を補正し、補正した眼球の位置から眼球運動データを算出してもよい。また、制御部120は、画像処理を伴うので処理負荷が重い場合、ステップS110において目頭のズレ量に基づいて眼球運動データを補正せず、目頭のズレ量のみを出力し、検査後に眼球運動データを補正してもよい。これにより、制御部120は、メイン機能であるめまい診断機能へ悪影響を及ぼす可能性を抑えることができる。制御部120は、一定の場合(例えば、制御部120の処理能力が高い場合など)にはステップS110において目頭のズレ量に基づいて眼球運動データを補正を実行してもよい。
When it is determined that the amount of deviation of the inner corner of the eye is equal to or less than the threshold (YES in step S109), the
制御部120は、術者1から検査終了の操作を受け付けたか否かを判断する(ステップS111)。術者1から検査終了の操作は、例えばディスプレイ300に表示されている検査終了ボタンをマウス502でクリックする操作などが含まれる。検査終了の操作を受け付けていないと判断した場合(ステップS111でNO)、制御部120は、N=N+1とN値を更新する(ステップS112)。制御部120は、ステップS112後に、処理をステップS106に戻し、検査を継続する。一方、検査終了の操作を受け付けたと判断した場合(ステップS111でYES)、制御部120は、検査を終了する。
The
目頭のズレ量が閾値より大きいと判断した場合(ステップS109でNO)、制御部120は、ゴーグル(撮像装置400)のズレを術者1に報知する(ステップS113)。具体的に、被検者2からゴーグルがずれたことを示す警告音をスピーカから出力する、または警告表示をディスプレイ300に表示する。制御部120は、被検者2からゴーグルがずれて正しい検査ができないと判断して、ゴーグルのズレを術者1に報知した後、処理を終了する。なお、検査終了する際に、制御部120は、ゴーグルがずれた眼球運動データを自動的に記憶装置700から削除してもよい。逆に、制御部120は、導出したズレ量が閾値より大きいと判断した場合(ステップS109でNO)、そのタイミングで導出された眼球運動データと関連させて、その旨を示すデータを記憶装置700に記憶してもよい。
When determining that the amount of deviation of the inner corner of the eye is greater than the threshold (NO in step S109), the
撮像装置400は、筐体401内に第1撮像部411および第2撮像部412の2つの撮像部が保持され、被検者2のそれぞれの眼を個別に撮影している。そのため、制御部120は、第1撮像部411および第2撮像部412で撮像した個別の眼の画像に基づいて、被検者2の頭部と筐体401とのズレ量をそれぞれ導出することができる。前述の説明では、制御部120が、被検者2の左目の画像データBに基づいて、被検者2の頭部と筐体401とのズレ量を導出することを説明したが、被検者2の右目の画像データAについても右目の目頭を特異点として特定して被検者2の頭部と筐体401とのズレ量を同様に導出することができる。これにより、制御部120は、画像データAでのズレ量に基づいて、画像データAにおける眼球の位置、および頭部角速度のデータを補正し、画像データBでのズレ量に基づいて、画像データBにおける眼球の位置、および頭部角速度のデータを補正することが可能となる。
The
もちろん、制御部120は、被検者2の右目または左目の一方の画像から目頭を特異点として特定して被検者2の頭部と筐体401とのズレ量を導出し、被検者2の両目の画像データにおける眼球の位置、および頭部角速度のデータを補正してもよい。
Of course, the
(実施の形態2)
実施の形態1に係る眼球運動データ処理システム10では、データ処理装置100が画像のパターンマッチングで画像データCから被検者2の目頭の領域を探し出し、当該領域を特徴点として特定すると説明した。本実施の形態では、特徴点である被検者2の目頭の領域を特定するためにAI(Artificial Intelligence)を用いたデータの分析・学習を活用する。
(Embodiment 2)
In the eye movement
実施の形態1に係る眼球運動データ処理システムは、図1~図3に示した眼球運動データ処理システム10の構成と同じ構成であり、同じ構成については同じ符号を付して詳細な説明を繰り返さない。データ処理装置100は、撮像装置400で撮像した画像データに基づき、画像の中から特徴点を推定する推定部を有している。なお、推定部は、制御部120において実行されるプログラムにより実現できる。
The eye movement data processing system according to
図9は、実施の形態2に係るデータ処理装置において推定モデルを用いて特徴点を推定する処理を説明するためのブロック図である。推定部140は、撮像装置400で撮像した画像データCと、ニューラルネットワーク172を含む推定モデル171とに基づき、被検者2の目頭の領域を探し出し、当該領域を特徴点として推定する。推定部140は、推定した目頭の領域Rの枠を重畳した画像データCaを出力する。なお、画像データCは、被検者2の眼を含む画像データである。また、領域Rは、矩形の領域であり、図9で示すように長方形であってもよい。
FIG. 9 is a block diagram for explaining processing for estimating feature points using an estimation model in the data processing device according to the second embodiment. Based on the image data C captured by the
ここで、推定モデル141は、ニューラルネットワーク142と、当該ニューラルネットワーク142によって用いられるパラメータ143とを含む。パラメータ143は、ニューラルネットワーク142による計算に用いられる重み付け係数と、推定の判定に用いられる判定値とのうち、少なくともいずれか1つを含む。
Here, the
ニューラルネットワーク142は、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)、リカレントニューラルネットワーク(再帰型ニューラルネットワーク)(RNN:Recurrent Neural Network)、あるいはLSTMネットワーク(Long Short Term Memory Network)など、ディープラーニングによる画像認識処理で用いられる公知のニューラルネットワークが適用される。
The
推定モデル141は、学習段階において、被検者2の眼を含む画像データと、目頭の領域を特定した結果とに基づき学習されることで最適化(調整)される。具体的に、図10は、実施の形態2に係るデータ処理装置100において推定モデルの学習段階を説明するためのブロック図である。推定モデル141は、図10に示すように、教師データとして目頭の領域R1を特定した画像データCbが入力されると、当該画像データCbに基づきニューラルネットワーク142によって被検者2の眼の画像から目頭の領域を推定する。そして、推定モデル141は、自身の推定結果と、入力された画像データCbに関連付けられた正解データである目頭の領域R1とが一致するか否かを判定し、両者が一致すればパラメータ143を更新しない一方で、両者が一致しなければ両者が一致するようにパラメータ143を更新することで、パラメータ143を最適化する。なお、推定モデル141の学習は、学習段階に限らず、運用段階においても行われてもよい。
In the learning stage, the
推定部140は、撮像装置400で撮像した画像データCと、ニューラルネットワーク172を含む推定モデル171とに基づき、被検者2の目頭の領域Rを推定する。制御部120は、特定した目頭の領域R、つまり、矩形の領域Rの左上の座標rを、被検者2の左目における目頭(特徴点)の位置データとして出力する。実施の形態1で説明したように、制御部120は、前フレーム(N-1フレーム)の特徴点から現フレーム(Nフレーム)の特徴点への変化から被検者2の頭部と筐体401とのズレ量を導出し、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正する。
The
これにより、推定部140は、ニューラルネットワークなどの所謂AI技術を用いて、画像データに基づき、正確かつ容易に被検者2の特徴点(目頭の領域R)を推定することができ、より利便性のある歯科診療を実現することができる。
As a result, the estimating
推定部140は、データ処理装置100内に設ける場合に限られず、データ処理装置100が設置された空間外に設置されたサーバなど、クラウドコンピューティングの態様で存在してもよい。この場合、推定部140は、データ処理装置100に接続されるとともに、他の場所に設置された複数のデータ処理装置100にも接続され、これら複数のデータ処理装置100の各々について、画像データに基づき被検者2の特徴点を推定してもよい。このようにすれば、推定部140による機械学習の頻度がさらに上がり、推定部140は、より精度良く被検者2の特徴点を推定することができる。
The estimating
[変形例について]
実施の形態1および2に係る眼球運動データ処理システム10では、データ処理装置100が特徴点の変化から被検者2の頭部と筐体401とのズレ量を導出し、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正すると説明した。しかし、撮像装置400に設けた演算処理部420の処理能力が高ければ、演算処理部420が特徴点の変化から被検者2の頭部と筐体401とのズレ量を導出し、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正してもよい。
[About modification]
In the eye movement
これにより、撮像装置400から出力される画像データCは、被検者2と筐体401とのずれが考慮された画像データとなり、データ処理装置100での処理負担が軽減される。
As a result, the image data C output from the
実施の形態1および2に係る眼球運動データ処理システム10では、目頭の形状を含む矩形の領域Rを探し出すことで目頭(特徴点)の位置データを特定すると説明したが、目頭または目尻の端部を探し出して、当該端部の位置を、目頭または目尻の特徴点の位置データとして特定してもよい。また、実施の形態1および2に係る眼球運動データ処理システム10では、目頭または目尻を含む領域Rを矩形で特定するのではなく他の形状(例えば、三角形、円など)で特定してもよい。例えば、目頭または目尻を含む領域Rを三角形で特定した場合、三角形の重心座標を、目頭または目尻を含む領域Rを円で特定した場合、円の中心座標をそれぞれ目頭または目尻の特徴点の位置データとして特定する。
In the eye movement
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the scope and meaning of equivalents of the scope of claims.
1 術者、2 被検者、10 眼球運動データ処理システム、100 データ処理装置、110 I/Oインターフェイス、120 制御部、130 画像処理部、140 推定部、300 ディスプレイ、400 撮像装置、401,401a,401b 筐体、401c 接眼部、401d 開口部、402 遮光カバー、403 配線、410 ガラス板、411 第1撮像部、412 第2撮像部、420 演算処理部、450 頭部センサ、501 キーボード、502 マウス、600 刺激信号処理装置。 1 operator, 2 subject, 10 eye movement data processing system, 100 data processing device, 110 I/O interface, 120 control unit, 130 image processing unit, 140 estimation unit, 300 display, 400 imaging device, 401, 401a , 401b housing, 401c eyepiece, 401d opening, 402 light shielding cover, 403 wiring, 410 glass plate, 411 first imaging unit, 412 second imaging unit, 420 arithmetic processing unit, 450 head sensor, 501 keyboard, 502 mouse, 600 stimulus signal processor.
Claims (14)
被検者の頭部に装着する前記撮像装置の筐体に保持された撮像部で撮像した前記被検者の眼の画像データが入力される入力部と、
前記入力部で入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出する導出部と、を備える、データ処理装置。 A data processing device for processing data from an imaging device that images an eye in medical care,
an input unit for inputting image data of the eye of the subject captured by an imaging unit held in a housing of the imaging device mounted on the head of the subject;
and a derivation unit that derives a deviation amount between the subject's head and the housing based on the image data input by the input unit.
前記導出部は、前記撮像部で撮像した個別の眼の画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量をそれぞれ導出する、請求項1~請求項5のいずれか1項に記載のデータ処理装置。 The two imaging units are held in the housing and individually photograph the eyes of the subject,
6. The derivation unit according to any one of claims 1 to 5, wherein the derivation unit derives a displacement amount between the subject's head and the housing based on image data of individual eyes captured by the imaging unit. 1. The data processing device according to claim 1.
導出したズレ量に基づいて、前記眼球運動データを補正する、請求項1~請求項8のいずれか1項に記載のデータ処理装置。 The derivation unit includes eye movement data including at least one motion data out of a horizontal direction, a vertical direction, and a rotational direction of the eyeball of the subject from a plurality of image data captured in time series by the imaging unit. calculated as data,
The data processing device according to any one of claims 1 to 8, wherein the eye movement data is corrected based on the derived deviation amount.
被検者の眼球を撮像する撮像装置と、
前記撮像装置からのデータが入力されて、当該データの処理を行うデータ処理装置と、を備え、
前記撮像装置は、
前記被検者の頭部に装着する筐体と、
前記筐体に保持され、前記被検者の眼を撮像する撮像部と、を含み、
前記データ処理装置は、
前記撮像部で撮像した前記被検者の眼の画像データが入力される入力部と、
前記入力部で入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出する導出部と、を含む、眼球運動データ処理システム。 An eye movement data processing system for processing eye movement data in a balance function test,
an imaging device for imaging an eyeball of a subject;
a data processing device that receives data from the imaging device and processes the data;
The imaging device is
a housing mounted on the subject's head;
an imaging unit that is held by the housing and captures an image of the subject's eye,
The data processing device is
an input unit into which image data of the subject's eye captured by the imaging unit is input;
an eye movement data processing system, comprising: a derivation unit for deriving a deviation amount between the subject's head and the housing based on the image data input by the input unit.
被検者の頭部に装着する前記撮像装置の筐体に保持された撮像部で撮像した前記被検者の眼の画像データが入力されるステップと、
入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出するステップと、を備える、データ処理方法。 A data processing method for processing data from an imaging device for imaging an eye in medicine, comprising:
a step of inputting image data of the eye of the subject captured by an imaging unit held in a housing of the imaging device mounted on the head of the subject;
A data processing method comprising: deriving an amount of deviation between the subject's head and the housing based on input image data.
被検者の頭部に装着する前記撮像装置の筐体に保持された撮像部で撮像した前記被検者の眼の画像データが入力されるステップと、
入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出するステップと、を備える、プログラム。 A program executed by a data processing device that processes data from an imaging device that images an eye in medical care,
a step of inputting image data of the eye of the subject captured by an imaging unit held in a housing of the imaging device mounted on the head of the subject;
and deriving an amount of displacement between the subject's head and the housing based on input image data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021167969A JP7510401B2 (en) | 2021-10-13 | 2021-10-13 | DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021167969A JP7510401B2 (en) | 2021-10-13 | 2021-10-13 | DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023058161A true JP2023058161A (en) | 2023-04-25 |
| JP7510401B2 JP7510401B2 (en) | 2024-07-03 |
Family
ID=86068998
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021167969A Active JP7510401B2 (en) | 2021-10-13 | 2021-10-13 | DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7510401B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024106139A1 (en) | 2023-03-31 | 2024-10-02 | Ngk Insulators, Ltd. | SENSOR ELEMENT AND GAS SENSOR |
| JP7759070B1 (en) * | 2024-08-05 | 2025-10-23 | ニューロイヤーズ カンパニー リミテッド | A balance function management system and method for tracking changes in eyeballs and head circumference in video to generate balance function status information and implement a balance function rehabilitation program, a recording medium on which a program for realizing the system is stored, and a computer program stored in the recording medium |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0670884A (en) * | 1992-07-09 | 1994-03-15 | A T R Shichokaku Kiko Kenkyusho:Kk | Medical diagnostic device using sight line detection |
| JP2009123042A (en) * | 2007-11-16 | 2009-06-04 | Nikon Corp | Control device and head mounted display device |
| WO2012172719A1 (en) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | Head-mounted display and misalignment correction method thereof |
| JP2014011624A (en) * | 2012-06-29 | 2014-01-20 | Nikon Corp | Information input/output device and head-mounted display device |
| WO2016170854A1 (en) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | Information processing device, information processing method, and program |
| WO2016195066A1 (en) * | 2015-06-05 | 2016-12-08 | 聖 星野 | Method of detecting motion of eyeball, program for same, storage medium for program, and device for detecting motion of eyeball |
| JP2021501385A (en) * | 2017-09-01 | 2021-01-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Detailed eye shape model for robust biometric applications |
| WO2021100553A1 (en) * | 2019-11-20 | 2021-05-27 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
| WO2021106502A1 (en) * | 2019-11-29 | 2021-06-03 | ソニーグループ株式会社 | Head-mounted type display device, image display system, and image display method |
-
2021
- 2021-10-13 JP JP2021167969A patent/JP7510401B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0670884A (en) * | 1992-07-09 | 1994-03-15 | A T R Shichokaku Kiko Kenkyusho:Kk | Medical diagnostic device using sight line detection |
| JP2009123042A (en) * | 2007-11-16 | 2009-06-04 | Nikon Corp | Control device and head mounted display device |
| WO2012172719A1 (en) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | Head-mounted display and misalignment correction method thereof |
| JP2014011624A (en) * | 2012-06-29 | 2014-01-20 | Nikon Corp | Information input/output device and head-mounted display device |
| WO2016170854A1 (en) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | Information processing device, information processing method, and program |
| WO2016195066A1 (en) * | 2015-06-05 | 2016-12-08 | 聖 星野 | Method of detecting motion of eyeball, program for same, storage medium for program, and device for detecting motion of eyeball |
| JP2021501385A (en) * | 2017-09-01 | 2021-01-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Detailed eye shape model for robust biometric applications |
| WO2021100553A1 (en) * | 2019-11-20 | 2021-05-27 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
| WO2021106502A1 (en) * | 2019-11-29 | 2021-06-03 | ソニーグループ株式会社 | Head-mounted type display device, image display system, and image display method |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024106139A1 (en) | 2023-03-31 | 2024-10-02 | Ngk Insulators, Ltd. | SENSOR ELEMENT AND GAS SENSOR |
| JP7759070B1 (en) * | 2024-08-05 | 2025-10-23 | ニューロイヤーズ カンパニー リミテッド | A balance function management system and method for tracking changes in eyeballs and head circumference in video to generate balance function status information and implement a balance function rehabilitation program, a recording medium on which a program for realizing the system is stored, and a computer program stored in the recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7510401B2 (en) | 2024-07-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10463250B1 (en) | System and method for vision testing | |
| US8371693B2 (en) | Autism diagnosis support apparatus | |
| AU2020351719B2 (en) | Instant eye gaze calibration systems and methods | |
| JP7209954B2 (en) | Nystagmus analysis system | |
| JP2022545615A (en) | Eye-tracking fixation monitoring system and method | |
| KR101978548B1 (en) | Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same | |
| JP7510401B2 (en) | DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM | |
| JP7564190B2 (en) | Eye tracking fixation monitoring system and method | |
| JP2023523371A (en) | Methods, systems and devices for investigating or assessing eye or pupil movement | |
| CN115590462A (en) | Vision detection method and device based on camera | |
| CN104814717B (en) | The detection method of the nystagmus full figure of a kind of compensation elimination variant position error and device | |
| CN111989030B (en) | Image processing method, program and image processing device | |
| US11684292B2 (en) | Vestibular testing apparatus | |
| US12245864B2 (en) | Imaging device, ocular movement data processing system, and control method | |
| CN113633257A (en) | Vestibular function examination method, system, device and medium based on virtual reality | |
| US12294779B2 (en) | Imaging device, ocular movement data processing system, and control method | |
| JP2015123262A (en) | Sight line measurement method using corneal surface reflection image, and device for the same | |
| Smith et al. | Eyesight: Eye Examination System with Intelligent Guidance and Human Tracking | |
| Huang et al. | Development a low-cost smart eyewear system for eye & head movement measurement and analysis | |
| RU2847125C2 (en) | Method for diagnosing strabismus using mobile application | |
| US20240257969A1 (en) | Methods and Systems for Providing Clinical States of an Ocular Disease Based on Genomic Data and Phenotypic Data of Subjects | |
| US20250014221A1 (en) | Patient-accessible calibration of video eyetracking apparatus | |
| US20260038112A1 (en) | Balance function management system and method for generating information on balance function status and performing balance function rehabilitation program by tracking eye and head position changes in videos, recording medium storing program for executing the same, and recording medium storing program for executing the same | |
| CN112587083B (en) | Visual processing method, device and computer storage medium | |
| JPWO2021217218A5 (en) |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230407 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231031 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240227 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240305 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240618 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240621 |