[go: up one dir, main page]

JP2023058161A - Data processing device, eye movement data processing system, data processing method, and program - Google Patents

Data processing device, eye movement data processing system, data processing method, and program Download PDF

Info

Publication number
JP2023058161A
JP2023058161A JP2021167969A JP2021167969A JP2023058161A JP 2023058161 A JP2023058161 A JP 2023058161A JP 2021167969 A JP2021167969 A JP 2021167969A JP 2021167969 A JP2021167969 A JP 2021167969A JP 2023058161 A JP2023058161 A JP 2023058161A
Authority
JP
Japan
Prior art keywords
subject
data
eye
data processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021167969A
Other languages
Japanese (ja)
Other versions
JP7510401B2 (en
Inventor
英基 吉川
Hidemoto Yoshikawa
豊 伊藤
Yutaka Ito
冬樹 山田
Fuyuki Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2021167969A priority Critical patent/JP7510401B2/en
Publication of JP2023058161A publication Critical patent/JP2023058161A/en
Application granted granted Critical
Publication of JP7510401B2 publication Critical patent/JP7510401B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Figure 2023058161000001

【課題】医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラムを提供する。
【解決手段】本開示に従うデータ処理装置100は、医療において眼を撮像する撮像装置400からのデータを処理する処理装置である。データ処理装置100は、I/Oインターフェイス110と、制御部120と、を備える。I/Oインターフェイス110は、被検者2の頭部に装着する撮像装置400の筐体401に保持された第1撮像部411および第2撮像部412で撮像した被検者2の眼の画像データCが入力される。制御部120は、I/Oインターフェイス110で入力された画像データCに基づいて、被検者2の頭部と筐体401とのズレ量を導出する。
【選択図】図3

Figure 2023058161000001

A data processing device, an eye movement data processing system, a data processing method, and a program are provided for processing data from an imaging device that images an eye in medical care.
A data processing device (100) according to the present disclosure is a processing device that processes data from an imaging device (400) that images an eye in medical care. The data processing device 100 includes an I/O interface 110 and a control section 120 . The I/O interface 110 receives images of the eyes of the subject 2 captured by the first imaging unit 411 and the second imaging unit 412 held in the housing 401 of the imaging device 400 worn on the head of the subject 2. Data C is input. The control unit 120 derives the displacement amount between the head of the subject 2 and the housing 401 based on the image data C input through the I/O interface 110 .
[Selection drawing] Fig. 3

Description

本発明は、データ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラムに関する。 The present invention relates to a data processing device, an eye movement data processing system, a data processing method, and a program.

従来、耳鼻科、神経内科、脳神経外科などで、めまいや平衡機能障害などの診断においては、目への刺激、頭部への刺激、あるいは耳への刺激に対して、眼球がどのような運動をするかを調べる平衡機能検査が広く行なわれている。特許文献1では、カメラ、頭位センサを内蔵したゴーグル(撮像装置)を装着して被検者の眼球運動を撮像する眼振解析システムが開示されている。特許文献2では、被検者から独立した場所に固定されたカメラで被検者の視線を追跡する視線追跡システムが開示されている。 Traditionally, otolaryngologists, neurologists, and neurosurgeons have focused on diagnosing dizziness, balance dysfunction, and other conditions by examining how eyeballs move in response to stimuli to the eyes, head, or ears. Balance function tests are widely used to determine whether Patent Literature 1 discloses a nystagmus analysis system in which a subject wears goggles (imaging device) incorporating a camera and a head position sensor to capture eye movements of a subject. Patent Literature 2 discloses an eye-tracking system that tracks the subject's line of sight with a camera fixed at a location independent of the subject.

特開2020-18704号公報Japanese Patent Application Laid-Open No. 2020-18704 特表2019-519859号公報Japanese Patent Application Publication No. 2019-519859

特許文献1に開示された眼振解析システムでは、ゴーグルを装着した状態で被検者の頭部を動かすため、最初に付けたゴーグルの位置からゴーグルの位置がずれる場合がある。ゴーグルの位置がずれると正確な測定ができない。また、ゴーグルの位置がずれることを回避するため、特許文献2に開示された視線追跡システムを採用することも考えられるが、視線追跡できる範囲外となるような頭部を動かす検査(回転刺激検査など)には採用することができない。 In the nystagmus analysis system disclosed in Patent Literature 1, the subject's head is moved while wearing the goggles, so the position of the goggles may shift from the position of the first worn goggles. Accurate measurements cannot be made if the goggles are misaligned. In addition, in order to avoid the position of the goggles being shifted, it is conceivable to employ the eye-tracking system disclosed in Patent Document 2. etc.) cannot be employed.

本開示は、このような問題を解決するためになされたものであり、医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラムを提供することを目的とする。 The present disclosure has been made to solve such problems, and provides a data processing device, an eye movement data processing system, a data processing method, and a program for processing data from an imaging device that images the eye in medical care. intended to provide

本開示に従うデータ処理装置は、医療において眼を撮像する撮像装置からのデータを処理する。データ処理装置は、被検者の頭部に装着する撮像装置の筐体に保持された撮像部で撮像した被検者の眼の画像データが入力される入力部と、入力部で入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出する導出部と、を備える。 A data processing apparatus according to the present disclosure processes data from an imaging device that images the eye in medicine. The data processing device includes an input unit for inputting image data of the subject's eyes captured by an imaging unit held in a housing of an imaging device worn on the subject's head, and an input unit for inputting image data of the subject's eyes. a deriving unit that derives the displacement between the subject's head and the housing based on the image data.

本開示に従う眼球運動データ処理システムは、平衡機能検査における眼球運動データを処理する。眼球運動データ処理システムは、被検者の眼球を撮像する撮像装置と、撮像装置からのデータが入力されて、当該データの処理を行うデータ処理装置と、を備える。撮像装置は、被検者の頭部に装着する筐体と、筐体に保持され、被検者の眼を撮像する撮像部と、を含み、データ処理装置は、撮像部で撮像した被検者の眼の画像データが入力される入力部と、入力部で入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出する導出部と、を含む。 An eye movement data processing system according to the present disclosure processes eye movement data in balance testing. An eye movement data processing system includes an imaging device that images an eyeball of a subject, and a data processing device that receives data from the imaging device and processes the data. The imaging device includes a housing mounted on the subject's head, and an imaging unit held in the housing for imaging the subject's eyes. It includes an input unit to which image data of a person's eyes is input, and a derivation unit to derive the displacement amount between the subject's head and the housing based on the image data input by the input unit.

本開示に従うデータ処理方法は、医療において眼を撮像する撮像装置からのデータを処理する方法である。データ処理方法は、被検者の頭部に装着する撮像装置の筐体に保持された撮像部で撮像した被検者の眼の画像データが入力されるステップと、入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出するステップと、を含む。 A data processing method according to the present disclosure is a method of processing data from an imaging device that images the eye in medicine. The data processing method includes a step of inputting image data of the subject's eye captured by an imaging unit held in a housing of an imaging device worn on the subject's head, and a step of inputting image data of the subject's eye, and and deriving the amount of displacement between the subject's head and the housing.

本開示に従うプログラムは、医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置で実行される。プログラムは、被検者の頭部に装着する撮像装置の筐体に保持された撮像部で撮像した被検者の眼の画像データが入力されるステップと、入力された画像データに基づいて、被検者の頭部と筐体とのズレ量を導出するステップと、を含む。 A program according to the present disclosure is executed by a data processing device that processes data from an imaging device that images the eye in medicine. The program includes a step of inputting image data of the subject's eyes captured by an imaging unit held in a housing of an imaging device worn on the subject's head, and based on the input image data, and deriving an amount of displacement between the subject's head and the housing.

本開示によれば、撮像部で撮像した眼の画像から被検者の頭部と筐体とのズレ量を導出することができる。 According to the present disclosure, it is possible to derive the displacement amount between the head of the subject and the housing from the image of the eye captured by the imaging unit.

実施の形態1に係る眼球運動データ処理システムの構成を示す模式図である。1 is a schematic diagram showing the configuration of an eye movement data processing system according to Embodiment 1; FIG. 実施の形態1に係る撮像装置の構成を説明するための模式図である。1 is a schematic diagram for explaining the configuration of an imaging device according to Embodiment 1; FIG. 実施の形態1に係る眼球運動データ処理システムの全体構成を示すブロック図である。1 is a block diagram showing the overall configuration of an eye movement data processing system according to Embodiment 1; FIG. 眼振検査の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of nystagmus examination. 実施の形態1に係る眼球運動データ処理システムにおける被検者の頭部と筐体とのズレ量の導出処理を説明するため図である。FIG. 10 is a diagram for explaining processing for deriving the amount of deviation between the subject's head and the housing in the eye movement data processing system according to the first embodiment; 実施の形態1に係るデータ処理装置において処理する眼の画像データを示す図である。4 is a diagram showing eye image data processed by the data processing device according to Embodiment 1. FIG. 実施の形態1に係るデータ処理装置において画像データにおける眼球の位置、および頭部角速度のデータを補正する処理を説明するための概略図である。4 is a schematic diagram for explaining processing for correcting eyeball positions and head angular velocity data in image data in the data processing apparatus according to Embodiment 1. FIG. 実施の形態1に係るデータ処理装置におけるデータ処理を説明するためのフローチャートである。4 is a flowchart for explaining data processing in the data processing device according to Embodiment 1; 実施の形態2に係るデータ処理装置において推定モデルを用いて特徴点を推定する処理を説明するためのブロック図である。FIG. 12 is a block diagram for explaining processing for estimating feature points using an estimation model in the data processing device according to Embodiment 2; 実施の形態2に係るデータ処理装置において推定モデルの学習段階を説明するためのブロック図である。FIG. 11 is a block diagram for explaining a learning stage of an estimation model in the data processing device according to Embodiment 2;

本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.

[実施の形態1]
図1~図3を参照して、実施の形態1に係る眼球運動データ処理システムおよび撮像装置について説明する。なお、以下に説明する眼球運動データ処理システム10は一例であって、医療において眼を撮像する撮像装置と、当該撮像装置からのデータを処理するデータ処理装置とを含むシステムであれば、眼球運動データ処理システムに限定されない。
[Embodiment 1]
An eye movement data processing system and imaging device according to Embodiment 1 will be described with reference to FIGS. 1 to 3. FIG. Note that the eye movement data processing system 10 described below is just an example. It is not limited to data processing systems.

術者1は、眼球運動データ処理システム10を用いることで、被検者2のめまいについて診断することができる。なお、「術者」は、クリニック、総合病院、および大学病院などに属する医師などの術者、医科大学の先生または生徒など、眼球運動データ処理システム10を使用する者であればいずれであってもよい。なお、術者が所属する医科は、眼科や耳鼻科のようなめまいの治療を専門とするものに限らず、内科や歯科など、その他のものであってもよい。「被検者」は、クリニック、総合病院、および大学病院の患者、医科大学における対象者など、眼球運動データ処理システム10の診断対象となる者であればいずれであってもよい。「めまい」は、目の前の世界がぐるぐる回る回転性めまい、自身がふわふわするように感じる浮動性めまい、目の前の世界が真っ暗になる失神性めまいなど、被検者2の視覚に何らかの異常が生じている状態を含む。 The operator 1 can diagnose the dizziness of the subject 2 by using the eye movement data processing system 10 . Note that the "operator" is any person who uses the eye movement data processing system 10, such as an operator such as a doctor belonging to a clinic, general hospital, or university hospital, or a teacher or student at a medical university. good too. The medical department to which the operator belongs is not limited to departments specializing in vertigo treatment such as ophthalmology and otolaryngology, but may be other departments such as internal medicine and dentistry. The “subject” may be any person to be diagnosed by the eye movement data processing system 10, such as patients in clinics, general hospitals, university hospitals, and subjects in medical colleges. "Vertigo" refers to vertigo in which the world in front of you spins around, dizziness in which you feel like you are floating, and fainting dizziness in which the world in front of you turns black. Including the state in which an abnormality occurs.

図1に示すように、実施の形態1に係る眼球運動データ処理システム10は、データ処理装置100を備える。データ処理装置100には、ディスプレイ300と、撮像装置400と、キーボード501と、マウス502とが接続されている。ディスプレイ300は、表示装置の一例である。また、キーボード501およびマウス502は、入力装置の一例である。 As shown in FIG. 1 , an eye movement data processing system 10 according to Embodiment 1 includes a data processing device 100 . A display 300 , an imaging device 400 , a keyboard 501 and a mouse 502 are connected to the data processing device 100 . Display 300 is an example of a display device. Also, the keyboard 501 and the mouse 502 are examples of input devices.

一般的に、めまいの診断においては、眼振(律動的に動く眼球の不随意運動)を観察することによって行われる。眼振には、何らの刺激も与えられていない状態で自発的に起こる自発眼振と、刺激が与えられることで起こる誘発眼振とが含まれる。さらに、誘発眼振には、頭部の位置が変位したときに誘発される頭位眼振と、体の位置が変位したときに誘発される頭位変換眼振とが含まれる。誘発眼振について、特に、頭部に生理的な回転刺激などを与えると、視野を安定させるために頭部と反対に眼球が動くことが知られており、このような現象を前庭動眼反射(VOR:Vestibulo Ocular Reflex)ともいう。 Diagnosis of vertigo is generally made by observing nystagmus (an involuntary movement of the eyeballs that rhythmically moves). Nystagmus includes spontaneous nystagmus that occurs spontaneously in the absence of any stimulus and evoked nystagmus that occurs when a stimulus is applied. Further, induced nystagmus includes head positional nystagmus induced when the position of the head is displaced and head positional nystagmus induced when the position of the body is displaced. With regard to induced nystagmus, it is known that when a physiological rotational stimulus is applied to the head, the eye moves in the opposite direction to the head in order to stabilize the visual field. It is also called VOR (Vestibulo Ocular Reflex).

具体的に、眼球運動データ処理システム10では、被検者2の眼振を観察するために、被検者2の眼球を撮像装置400で撮像し、撮像した画像データをデータ処理装置100で加工、保存、表示などの処理を実施する。そのため、データ処理装置100は、撮像装置400に接続されている。撮像装置400は、被検者2の頭部に装着するゴーグル形状の装置で、めまいの診断に用いるため被検者2の眼球を撮像し、眼球運動の画像データを取得する装置である。図1に示すように、術者1は、被検者2に撮像装置400を装着させた状態で、眼振検査を行い、そのときに得られた被検者2の眼球運動の画像データをデータ処理装置100に入力する。データ処理装置100では、撮像装置400で取得された画像データを処理して、めまいの診断に必要な情報を術者1に提供する。 Specifically, in the eye movement data processing system 10, in order to observe the nystagmus of the subject 2, the eyeball of the subject 2 is imaged by the imaging device 400, and the imaged image data is processed by the data processing device 100. , storage, and display. Therefore, the data processing device 100 is connected to the imaging device 400 . The imaging device 400 is a goggle-shaped device that is worn on the head of the subject 2, and is a device that captures an image of the eyeball of the subject 2 and acquires image data of eye movement for use in diagnosing dizziness. As shown in FIG. 1, an operator 1 performs a nystagmus examination with an imaging device 400 mounted on a subject 2, and the image data of the eyeball movement of the subject 2 obtained at that time is taken as Input to the data processing device 100 . The data processing device 100 processes the image data acquired by the imaging device 400 and provides the operator 1 with information necessary for diagnosing dizziness.

図2(A)に示す撮像装置400は、前面側に遮光カバー402が取り付けられた状態である。筐体401の上面には、データ処理装置100と接続するための配線403が設けられている。なお、撮像装置400とデータ処理装置100との接続は、有線に限られず画像データの送信に十分な通信速度を確保できるのであれば無線であってよい。 The imaging device 400 shown in FIG. 2A is in a state where a light shielding cover 402 is attached to the front side. Wiring 403 for connecting to the data processing apparatus 100 is provided on the upper surface of the housing 401 . Note that the connection between the imaging device 400 and the data processing device 100 is not limited to a wired connection, and may be wireless as long as a sufficient communication speed can be secured for transmitting image data.

図2(B)に示す撮像装置400は、上側の筐体401aと、下側の筐体401bと、被検者2と接する接眼部401cとに分解されて図示されている。下側の筐体401bには、被検者2の右目を撮像する赤外線撮像装置の第1撮像部411と、被検者2の左目を撮像する赤外線撮像装置の第2撮像部412とが設けられている。一方、上側の筐体401aには、図示していないが、図3に示す演算処理部420が設けられている。本開示では、第1撮像部411および第2撮像部412を撮像装置400に設けた構成について説明するが、撮像装置に設ける撮像部は1つでもよく、1つの撮像部でいずれか一方の目または両方の目を撮像する構成でもよい。 The imaging device 400 shown in FIG. 2B is shown disassembled into an upper housing 401a, a lower housing 401b, and an eyepiece 401c that contacts the subject 2. FIG. A first imaging unit 411 of an infrared imaging device for imaging the right eye of the subject 2 and a second imaging unit 412 of the infrared imaging device for imaging the left eye of the subject 2 are provided in the lower housing 401b. It is On the other hand, although not shown, the arithmetic processing unit 420 shown in FIG. 3 is provided in the upper housing 401a. In the present disclosure, a configuration in which the imaging device 400 is provided with the first imaging unit 411 and the second imaging unit 412 will be described. Alternatively, it may be configured to image both eyes.

接眼部401cは、被検者2の前眼部を覆いつつ、被検者2の眼球を第1撮像部411および第2撮像部412で撮像できるように開口部401dを有している。接眼部401cは、装着時に被検者2の顔面に密着させるために適度の可撓性および弾発性を有する合成樹脂または軟質ゴムで形成されている。 The eyepiece 401 c has an opening 401 d so that the eyeball of the subject 2 can be imaged by the first imaging section 411 and the second imaging section 412 while covering the anterior segment of the subject 2 . The eyepiece 401c is made of a synthetic resin or soft rubber having appropriate flexibility and resilience so that the eyepiece 401c is brought into close contact with the face of the subject 2 when worn.

遮光カバー402は、たとえばマグネットが設けてあり撮像装置400に対して簡単に取り付け、取り外しができるようになっている。遮光カバー402を撮像装置400から取り外した場合、被検者2は、ホットミラー410を介して前方を見ることができ、視刺激信号処理装置600から発せられる指標などを見ることができる。なお、ホットミラー410は、ガラスまたは樹脂の板に、可視光は透過し近赤外光は反射するコーティングを施してあり、被検者の視野を確保しつつ、眼球の赤外線画像を取得するための光学部品である。第1撮像部411および第2撮像部412は、このホットミラー410で反射した被検者2の眼球を撮像している。 The light shielding cover 402 is provided with a magnet, for example, so that it can be easily attached to and detached from the imaging device 400 . When the light-shielding cover 402 is removed from the imaging device 400 , the subject 2 can look ahead through the hot mirror 410 and can see indices and the like emitted from the visual stimulus signal processing device 600 . The hot mirror 410 is a glass or resin plate coated with a coating that transmits visible light and reflects near-infrared light. optical components. The first imaging unit 411 and the second imaging unit 412 capture images of the subject's 2 eyeball reflected by the hot mirror 410 .

撮像装置400は、図3に示すように第1撮像部411からの画像データAと、第2撮像部412からの画像データBとを演算処理部420で処理して画像データCとしてデータ処理装置100に送信している。第1撮像部411および第2撮像部412は、60フレーム/秒または240フレーム/秒で画像を撮像することができる。また、第1撮像部411および第2撮像部412に用いる赤外線撮像素子は、例えば、赤外線を撮像できるCMOS(Complementary Metal Oxide Semiconductor)センサ、CCD(Charge Coupled Device)などである。 As shown in FIG. 3, the imaging device 400 processes the image data A from the first imaging unit 411 and the image data B from the second imaging unit 412 in the arithmetic processing unit 420 to obtain image data C as a data processing device. Sending to 100. The first imaging unit 411 and the second imaging unit 412 can capture images at 60 frames/second or 240 frames/second. Further, the infrared imaging elements used for the first imaging unit 411 and the second imaging unit 412 are, for example, CMOS (Complementary Metal Oxide Semiconductor) sensors capable of imaging infrared rays, CCD (Charge Coupled Device), and the like.

撮像装置400は、図3に示すように被検者2の頭の動きを検出する頭部センサ450を筐体401に設けてある。頭部センサ450は、例えば、加速度センサ、角速度センサ、地磁気センサをそれぞれ3軸方向に設けて9つのセンサで構成する。加速度センサは、重力加速度を検知することで被検者2の頭部の姿勢を検知できる。角速度センサは、被検者2の頭部の角速度を検知できる。地磁気センサは、被検者2の頭部の向き(方位)を検知できる。演算処理部420では、頭部センサ450からの測定信号に基づき頭部角度および頭部角速度などについて演算で求める。なお、撮像装置400では、頭部センサ450を設ける構成について説明するが、頭部センサ450を設けない構成でもあっても、頭部センサ450以外に、装着センサ、遮光センサなどのセンサをさらに設けてもよい。 The imaging device 400 is provided with a head sensor 450 for detecting the movement of the head of the subject 2 in the housing 401 as shown in FIG. The head sensor 450 is composed of nine sensors, for example, an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor provided in three axial directions. The acceleration sensor can detect the orientation of the head of the subject 2 by detecting gravitational acceleration. The angular velocity sensor can detect the angular velocity of the subject's 2 head. The geomagnetic sensor can detect the orientation (orientation) of the subject's 2 head. Based on the measurement signal from the head sensor 450, the arithmetic processing unit 420 calculates the head angle, the head angular velocity, and the like. In the imaging device 400, a configuration in which the head sensor 450 is provided will be described. may

演算処理部420は、第1撮像部411で撮像した画像データAと、第2撮像部412で撮像した画像データBと、視刺激信号処理装置600からの外部信号とを同期させて、画像データCを生成する演算処理を行っている。そのため、演算処理部420は、画像データの処理を実行する演算主体であり、コンピュータの一例であり、たとえば、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)などで構成される。また、演算処理部420は、画像などを記憶させるRAM(Random Access Memory)、プログラムなどが記憶されたROM(Read only Memory)などのメモリを有している。なお、演算処理部420は、画像データCを生成する構成以外に、生成した画像を外部へ送信する通信部として実行される構成も有している。 The arithmetic processing unit 420 synchronizes the image data A captured by the first imaging unit 411, the image data B captured by the second imaging unit 412, and the external signal from the visual stimulus signal processing device 600 to generate image data. Arithmetic processing to generate C is performed. Therefore, the arithmetic processing unit 420 is an arithmetic entity that executes image data processing, and is an example of a computer, and is configured by, for example, a CPU (Central Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. Further, the arithmetic processing unit 420 has memories such as a RAM (Random Access Memory) for storing images and the like, and a ROM (Read Only Memory) for storing programs and the like. In addition to the configuration for generating the image data C, the arithmetic processing unit 420 also has a configuration that is executed as a communication unit that transmits the generated image to the outside.

ここで、視刺激信号処理装置600は、図3に示すようにレーザ装置であり、スクリーンにレーザポイントを生成し視標として表示するための装置である。視刺激信号処理装置600は、データ処理装置100との間でデータを送受信することが可能である。 Here, the visual stimulus signal processing device 600 is a laser device as shown in FIG. 3, and is a device for generating laser points on the screen and displaying them as visual targets. The visual stimulus signal processing device 600 can transmit and receive data to and from the data processing device 100 .

めまいの診断で用いられる眼振検査を行う場合、図1に示すように、被検者2に撮像装置400を装着させた状態で、被検者2の頭部の位置を変位させる必要がある。図4は、眼振検査の一例を説明するための模式図である。眼振検査は、所定の条件下において行われる。たとえば、自発眼振の検査においては、術者1は、被検者2の頭部を固定して正面で注視させた状態で、そのときの被検者2の眼球運動に基づいてめまいを診断する。頭位眼振の検査においては、図4に示すように、術者1は、被検者2の頭部の位置を様々な状態に変位させ、そのときに誘発される被検者2の眼球運動に基づいてめまいを診断する。 When performing a nystagmus examination used for diagnosing dizziness, it is necessary to displace the position of the head of the subject 2 while the subject 2 is wearing the imaging device 400 as shown in FIG. . FIG. 4 is a schematic diagram for explaining an example of nystagmus examination. Nystagmus examination is performed under predetermined conditions. For example, in the inspection of spontaneous nystagmus, the operator 1 fixes the head of the subject 2 and makes the subject 2 gaze at the front, and diagnoses dizziness based on the eye movement of the subject 2 at that time. do. In the examination of head position nystagmus, as shown in FIG. 4, the operator 1 displaces the position of the head of the subject 2 to various states, and the eyeballs of the subject 2 induced at that time are displaced. Diagnose vertigo based on exercise.

このとき、最初に付けた撮像装置400の位置から撮像装置400の位置がずれる場合がある。撮像装置400の位置が最初に付けた位置からずれると正確な測定ができない。そこで、データ処理装置100では、取得した眼の画像データから被検者2の頭部と撮像装置400(筐体401)とのズレ量を導出して、補正可能な範囲であれば当該ズレ量に基づいて眼球運動データを補正する。なお、データ処理装置100は、導出したズレ量が補正可能な範囲を超えていれば、測定エラーとしてディスプレイ300、スピーカ(図示せず)などで筐体401のズレを報知する。なお、ディスプレイ300、スピーカなどは、測定エラーを使用者に報知する報知部として機能する。または、データ処理装置100は、導出したズレ量が補正可能な範囲を超えていれば、そのタイミングで導出された眼球運動データと関連させて、その旨を示すデータを記憶装置700(例えば、SSD(Solid State Drive)、HDD(Hard Disk Drive)など)へ記憶する。 At this time, the position of the imaging device 400 may deviate from the position of the imaging device 400 attached first. Accurate measurement cannot be performed if the position of the imaging device 400 deviates from the initial position. Therefore, in the data processing device 100, the amount of deviation between the head of the subject 2 and the imaging device 400 (housing 401) is derived from the obtained eye image data, and if the deviation is within a correctable range, the amount of deviation is calculated. Correct the eye movement data based on If the derived amount of deviation exceeds the correctable range, the data processing apparatus 100 notifies the deviation of the housing 401 as a measurement error through the display 300, a speaker (not shown), or the like. Note that the display 300, speaker, etc. function as a notification unit that notifies the user of the measurement error. Alternatively, if the derived deviation amount exceeds the correctable range, the data processing device 100 associates it with the eye movement data derived at that timing, and stores data indicating that fact in the storage device 700 (for example, SSD (Solid State Drive), HDD (Hard Disk Drive), etc.).

データ処理装置100は、図3に示すようにI/Oインターフェイス110と、制御部120と、画像処理部130とを含む。I/Oインターフェイス110は、撮像装置400の筐体401に保持された撮像部(第1撮像部411および第2撮像部412)で撮像した被検者の眼の画像データが入力される入力部として機能する。さらに、I/Oインターフェイス110は、ディスプレイ300、入力装置500などの間でも信号、データなどを入出力している。 The data processing device 100 includes an I/O interface 110, a control section 120, and an image processing section 130, as shown in FIG. The I/O interface 110 is an input unit to which image data of the subject's eyes captured by the imaging units (the first imaging unit 411 and the second imaging unit 412) held in the housing 401 of the imaging device 400 is input. function as Furthermore, the I/O interface 110 inputs and outputs signals, data, etc. between the display 300 and the input device 500 as well.

制御部120は、特徴点の移動量から被検者2と筐体401とのズレ量を導出し、導出したズレ量からに基づいて、眼球運動データを補正するなどの処理を実行する演算主体である。具体的に、データ処理装置100は、コンピュータが一例であり、たとえば、CPU、FPGAなどが制御部120に相当する。また、制御部120は、画像などを記憶させるRAM、プログラムなどが記憶されたROMなどのメモリを有している。 The control unit 120 derives the amount of deviation between the subject 2 and the housing 401 from the amount of movement of the feature points, and based on the derived amount of deviation, the control unit 120 executes processing such as correcting the eye movement data. is. Specifically, the data processing device 100 is an example of a computer, and for example, a CPU, an FPGA, or the like corresponds to the control unit 120 . The control unit 120 also has a memory such as a RAM for storing images and a ROM for storing programs.

画像処理部130は、GPU(Graphics Processing Unit)などで構成されており、画像データCの画像をディスプレイ300に表示させたり、画像データCの画像に眼球の瞳孔の輪郭および中心を示す画像を重畳してディスプレイ300に表示させたりすることができる。 The image processing unit 130 is configured with a GPU (Graphics Processing Unit) or the like, and displays an image of the image data C on the display 300, or superimposes an image showing the contour and center of the pupil of the eyeball on the image of the image data C. and displayed on the display 300.

データ処理装置100は、メディア読込装置を有していてもよい。メディア読込装置は、各種のプログラムおよびデータを記憶する記憶媒体を受け付け、記憶媒体からプログラムおよびデータを読み込むことができる。記憶媒体としては、CD(Compact Disk)、SDカード(Secure Digital card)、USBメモリ(Universal Serial Bus memory)などが挙げられる。本実施の形態において、ROMなどにプログラムを記憶させずに、記憶媒体に格納されたプログラムをメディア読込装置で読み込んで、メモリにプログラムを記憶させてもよい。もちろん、データ処理装置100は、ネットワークを介してプログラムをダウンロードし、メモリにプログラムを記憶させてもよい。 The data processing device 100 may have a media reader. The media reading device accepts storage media storing various programs and data, and can read programs and data from the storage media. Storage media include CDs (Compact Disks), SD cards (Secure Digital cards), USB memories (Universal Serial Bus memories), and the like. In the present embodiment, the program stored in the storage medium may be read by the media reading device and stored in the memory instead of being stored in the ROM or the like. Of course, data processing apparatus 100 may download the program via a network and store the program in memory.

次に、データ処理装置100が、被検者2の頭部と筐体401とのズレ量を導出し、導出したズレ量からに基づいて、眼球運動データなどを補正する処理について具体的に説明する。図5は、実施の形態1に係る眼球運動データ処理システム10における被検者2の頭部と筐体401とのズレ量の導出処理を説明するため図である。図5に示す例では、被検者2の眼を撮像したNフレーム目(Nは自然数)の画像と、N-1フレーム目の画像とに基づいて、被検者2の頭部と筐体401とのズレ量を導出する。なお、被検者2の頭部と筐体401とのズレ量の導出は、1フレーム単位ごとに行う必要はなく、数フレーム単位ごと、数十フレーム単位ごとに行ってもよい。 Next, the data processing device 100 derives the amount of deviation between the head of the subject 2 and the housing 401, and based on the derived amount of deviation, corrects the eye movement data and the like. do. FIG. 5 is a diagram for explaining processing for deriving the amount of deviation between the subject's 2 head and the housing 401 in the eye movement data processing system 10 according to the first embodiment. In the example shown in FIG. 5, based on the N-th frame image (N is a natural number) of the eye of the subject 2 and the N−1-th frame image, the head and housing of the subject 2 401 is derived. The derivation of the amount of deviation between the head of the subject 2 and the housing 401 need not be performed in units of one frame, but may be performed in units of several frames or in units of several tens of frames.

まず、撮像装置400は、第1撮像部411および第2撮像部412でN-1フレーム目における被検者2の眼の画像データを取得する(S1)。眼の画像データは、演算処理部420において、N-1フレーム目における第1撮像部411の画像データAと第2撮像部412の画像データBとを合わせた画像データCとして生成され、データ処理装置100に送られる。 First, the imaging device 400 acquires image data of the eye of the subject 2 in the N−1th frame with the first imaging unit 411 and the second imaging unit 412 (S1). The image data of the eye is generated as image data C by combining the image data A of the first imaging unit 411 and the image data B of the second imaging unit 412 in the (N−1)th frame in the arithmetic processing unit 420, and data processing is performed. sent to the device 100.

撮像装置400は、N-1フレーム目撮像時の頭部センサ450から頭部角速度のデータを取得する(S2)。頭部角速度のデータは、演算処理部420において、N-1フレーム目撮像時のタイミングで取得した頭部センサ450の信号に基づいてデータHとして生成され、データ処理装置100に送られる。 The imaging device 400 acquires head angular velocity data from the head sensor 450 at the time of imaging the N−1th frame (S2). The head angular velocity data is generated as data H in the arithmetic processing unit 420 based on the signal of the head sensor 450 acquired at the timing of imaging the N−1th frame, and sent to the data processing device 100 .

データ処理装置100は、取得した画像データ(画像データC)から被検者2の特徴点を検出する(S3)。被検者2の目の画像データから特徴点を検出する場合、例えば、被検者2の目頭および目尻のうち少なくとも一方を特徴点とする。具体的に、図を用いて説明する。図6は、実施の形態1に係るデータ処理装置100において処理する眼の画像データを示す図である。図6では、第1撮像部411で撮像した被検者2の右目の画像データAと、第2撮像部412で撮像した被検者2の左目の画像データBとを合わせた画像データCが図示されている。 The data processing device 100 detects feature points of the subject 2 from the acquired image data (image data C) (S3). When detecting feature points from the image data of the eye of the subject 2, for example, at least one of the inner and outer corners of the eye of the subject 2 is set as the feature point. Concretely, it demonstrates using a figure. FIG. 6 is a diagram showing eye image data processed by the data processing apparatus 100 according to the first embodiment. In FIG. 6, image data C obtained by combining the image data A of the right eye of the subject 2 captured by the first imaging unit 411 and the image data B of the left eye of the subject 2 captured by the second imaging unit 412 is Illustrated.

図6を用いて、データ処理装置100が、被検者2の左目の特異点として目頭を特定する処理を説明する。なお、制御部120は、あらかじめ人間の目頭の形状パターンを複数記憶してあるものとする。まず、制御部120は、N-1フレーム目の画像データCを取得すると、あらかじめ記憶している目頭の形状パターンとマッチングする形状が当該画像データC内に存在するか否かを検出する。制御部120は、目頭の形状パターンと合う形状を画像データC内で見つけた場合、図6に示すように目頭の領域Rを特定する。制御部120は、特定した目頭の領域Rの左上の座標rを、被検者2の左目における目頭(特徴点)の位置データとして出力する。なお、画像データCには、例えば、左上の座標を(0,0)とするx,y座標が設定されている。なお、座標の設定は、画像データAおよび画像データBのそれぞれに対して行ってもよい。例えば、画像データCの左上の座標を(0,0)として画像データAのx,y座標を設定し、画像データCの右上の座標を(0,0)として画像データBのx,y座標を設定する。 A process of specifying the inner corner of the eye as the singular point of the left eye of the subject 2 by the data processing device 100 will be described with reference to FIG. 6 . It is assumed that the control unit 120 stores in advance a plurality of human eye inner corner shape patterns. First, when the control unit 120 acquires the image data C of the (N−1)th frame, it detects whether or not there is a shape in the image data C that matches the pre-stored shape pattern of the inner corner of the eye. When the control unit 120 finds a shape that matches the shape pattern of the inner corner of the eye in the image data C, the control unit 120 specifies the inner corner region R as shown in FIG. The control unit 120 outputs the upper left coordinate r of the identified inner corner region R as position data of the inner corner (feature point) of the left eye of the subject 2 . In the image data C, for example, x and y coordinates are set with the upper left coordinates being (0, 0). Note that the coordinates may be set for each of the image data A and the image data B. FIG. For example, the x, y coordinates of image data A are set with the upper left coordinates of image data C as (0, 0), and the x, y coordinates of image data B are set with the upper right coordinates of image data C as (0, 0). set.

ここで、画像データCから目頭の形状パターンとマッチングする領域を特定するアルゴリズムは、例えば、画像データC全体に対して形状パターンとの一致度(類似度)を算出し、算出した一致度(類似度)を比較し、最も一致度(類似度)が高いところを探し出す。一致度(類似度)を算出する方法として、例えば、SAD(Sum of Absolute Difference)があり、対象画像のすべての画素において、形状パターンとの差分の絶対値を求め、その総和を一致度(類似度)とする方法がある。なお、画像データCから目頭の形状パターンとマッチングする領域を特定するアルゴリズムは、これに限られず、公知のアルゴリズムであれば何れのアルゴリズムも適用することができる。 Here, the algorithm for specifying the region matching the shape pattern of the inner corner of the eye from the image data C is, for example, calculating the degree of matching (similarity) with the shape pattern for the entire image data C, calculating the degree of matching (similarity) degree) to find the place with the highest degree of matching (similarity). As a method of calculating the degree of matching (similarity), for example, there is SAD (Sum of Absolute Difference). degrees). Note that the algorithm for identifying the region that matches the shape pattern of the inner corner of the eye from the image data C is not limited to this, and any known algorithm can be applied.

次に、制御部120は、前フレーム(N-2フレーム)の特徴点から現フレーム(N-1フレーム)の特徴点への変化から被検者2の頭部と筐体401とのズレ量を導出する(S4)。なお、N=1の場合、前フレーム(N-2フレーム)が存在しないので、制御部120は、被検者2の頭部と筐体401とのズレ量の導出を行わない。 Next, the control unit 120 determines the displacement amount between the head of the subject 2 and the housing 401 from the change from the feature point of the previous frame (N-2 frame) to the feature point of the current frame (N-1 frame). is derived (S4). Note that when N=1, there is no previous frame (N−2 frames), so the control unit 120 does not derive the displacement amount between the head of the subject 2 and the housing 401 .

さらに、制御部120は、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正する(S5)。なお、N=1の場合、前フレーム(N-2フレーム)が存在しないので、制御部120は、被検者2の頭部と筐体401とのズレ量が導出できないので、画像データCにおける眼球の位置、および頭部角速度のデータについて補正を行わない。 Further, the control unit 120 corrects the position of the eyeballs in the image data C and the head angular velocity data from the derived amount of deviation between the head of the subject 2 and the housing 401 (S5). In the case of N=1, the previous frame (N-2 frames) does not exist, so the control unit 120 cannot derive the displacement amount between the head of the subject 2 and the housing 401. No corrections are made to the eye position and head angular velocity data.

制御部120は、補正した画像データCにおける眼球の位置、および頭部角速度のデータを取得し、保存する(S6)。なお、N=1の場合、前フレーム(N-2フレーム)が存在しないので、制御部120は、最初の画像データCにおける眼球の位置、および頭部角速度のデータを取得し、保存する。 The control unit 120 acquires and stores the eyeball position and head angular velocity data in the corrected image data C (S6). Note that when N=1, there is no previous frame (N-2 frames), so the control unit 120 acquires the eyeball position and head angular velocity data in the first image data C and stores them.

次に、撮像装置400は、第1撮像部411および第2撮像部412でNフレーム目における被検者2の眼の画像を取得する(S11)。眼の画像は、演算処理部420において、Nフレーム目における第1撮像部411の画像データAと第2撮像部412の画像データBとを合わせた画像データCとして生成され、データ処理装置100に送られる。 Next, the imaging device 400 acquires an eye image of the subject 2 in the N-th frame with the first imaging unit 411 and the second imaging unit 412 (S11). The image of the eye is generated as image data C by combining the image data A of the first imaging unit 411 and the image data B of the second imaging unit 412 in the N-th frame in the arithmetic processing unit 420, and is sent to the data processing device 100. Sent.

撮像装置400は、Nフレーム目撮像時の頭部センサ450から頭部角速度のデータを取得する(S12)。頭部角速度のデータは、演算処理部420において、Nフレーム目撮像時のタイミングで取得した頭部センサ450の信号に基づいてデータHとして生成され、データ処理装置100に送られる。 The imaging device 400 acquires head angular velocity data from the head sensor 450 at the time of imaging the Nth frame (S12). The head angular velocity data is generated as data H in the arithmetic processing unit 420 based on the signal of the head sensor 450 acquired at the timing of imaging the Nth frame, and sent to the data processing device 100 .

データ処理装置100は、取得した画像データ(画像データC)から被検者2の特徴点を検出する(S13)。被検者2の目の画像から特徴点を検出する場合、例えば、被検者2の目頭および目尻のうち少なくとも一方を特徴点とする。図6で説明したように、制御部120は、目頭の形状パターンと合う形状を画像データC内で見つけた場合、目頭の領域Rを特定する。制御部120は、特定した目頭の領域Rの左上の座標rを、被検者2の左目における目頭(特徴点)の位置データとして出力する。 The data processing device 100 detects feature points of the subject 2 from the acquired image data (image data C) (S13). When detecting feature points from the eye image of the subject 2, for example, at least one of the inner and outer corners of the eye of the subject 2 is set as the feature point. As described with reference to FIG. 6, when the control unit 120 finds a shape that matches the shape pattern of the inner corner of the eye in the image data C, the inner corner region R is specified. The control unit 120 outputs the upper left coordinate r of the identified inner corner region R as position data of the inner corner (feature point) of the left eye of the subject 2 .

次に、制御部120は、前フレーム(N-1フレーム)の特徴点から現フレーム(Nフレーム)の特徴点への変化から被検者2の頭部と筐体401とのズレ量を導出する(S14)。さらに、制御部120は、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正する(S15)。図7は、実施の形態1に係るデータ処理装置100において画像データCにおける眼球の位置、および頭部角速度のデータを補正する処理を説明するための概略図である。なお、図7では、説明を分かりやすくするため、被検者2の左目および領域R以外の図示を省略している。 Next, the control unit 120 derives the displacement amount between the head of the subject 2 and the housing 401 from the change from the feature point of the previous frame (N−1 frame) to the feature point of the current frame (N frame). (S14). Furthermore, the control unit 120 corrects the position of the eyeballs in the image data C and the head angular velocity data from the derived amount of deviation between the head of the subject 2 and the housing 401 (S15). FIG. 7 is a schematic diagram for explaining the process of correcting the eyeball position and head angular velocity data in the image data C in the data processing apparatus 100 according to the first embodiment. In addition, in FIG. 7, illustration other than the left eye of the subject 2 and the area R is omitted for the sake of easy understanding of the explanation.

図7(a)は、被検者2の頭部と筐体401とのズレ量に基づいて画像データCにおける眼球の位置を補正する処理を説明する図である。制御部120は、図7(a)に示すように、N-1フレーム目の座標r(N-1)が(A,B)で、Nフレーム目の座標r(N)が(A+a,B+b)である場合、被検者2の頭部と筐体401とのズレ量を(a,b)と導出できる。制御部120は、導出したズレ量を(a,b)に基づいて、N-1フレーム目の画像データCの座標(a,b)をNフレーム目の画像データCの座標(0,0)として、画像データCにおける眼球の位置を補正する。 FIG. 7A is a diagram for explaining the process of correcting the position of the eyeball in the image data C based on the amount of deviation between the head of the subject 2 and the housing 401. FIG. As shown in FIG. 7A, the control unit 120 sets the coordinate r(N-1) of the N-1th frame to (A, B) and the coordinate r(N) of the N-th frame to (A+a, B+b). ), the displacement amount between the head of the subject 2 and the housing 401 can be derived as (a, b). Based on the derived shift amount (a, b), the control unit 120 converts the coordinates (a, b) of the N-1th frame image data C to the coordinates (0, 0) of the Nth frame image data C. , the position of the eyeball in the image data C is corrected.

図7(b)は、被検者2の頭部と筐体401とのズレ量に基づいて頭部角速度のデータを補正する処理を説明する図である。制御部120は、図7(b)に示すように、N-1フレーム目の座標r(N-1)と、Nフレーム目の座標r(N)との回転中心O1における成す角θを被検者2の頭部と筐体401とのズレ量と導出する。制御部120は、1フレームの時間と、ズレ量θとから角速度の補正値を求め、当該補正値を頭部角速度のデータに対して増減を行う。なお、ズレ量θは、時計回りを正、反時計回りを負とする。また、正確に頭部角速度のデータを補正するには、頭部角速度の回転中心Oと、回転中心O1との差異を考慮する必要がある。 FIG. 7B is a diagram for explaining processing for correcting head angular velocity data based on the amount of deviation between the head of subject 2 and housing 401 . As shown in FIG. 7B, the control unit 120 receives the angle θ between the coordinate r(N−1) of the N−1th frame and the coordinate r(N) of the Nth frame at the center of rotation O1. A displacement amount between the head of the examiner 2 and the housing 401 is derived. The control unit 120 obtains a correction value of the angular velocity from the time of one frame and the deviation amount θ, and increases or decreases the correction value with respect to the head angular velocity data. It should be noted that the shift amount θ is positive when clockwise and negative when counterclockwise. Further, in order to correct the head angular velocity data accurately, it is necessary to consider the difference between the rotation center O of the head angular velocity and the rotation center O1.

制御部120は、さらに第1画像41から眼球水平角度(右)、眼球垂直角度(右)、および眼球回旋角度(右)について、第2画像42から眼球水平角度(左)、眼球垂直角度(左)、および眼球回旋角度(左)についてそれぞれ演算で求める。具体的に、制御部120は、第1画像41および第2画像42のフレーム毎に検出したそれぞれの眼球の瞳孔の輪郭および中心の位置を求め、当該位置から眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)を算出する。制御部120は、ズレ量に基づいて画像データCにおける眼球の位置を補正した値を用いて、眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)を算出しているので、被検者2と筐体401とのズレを測定結果から無視することができる。 The control unit 120 further calculates the horizontal eyeball angle (right), the vertical eyeball angle (right), and the eyeball rotation angle (right) from the first image 41, and the horizontal eyeball angle (left) and the vertical eyeball angle (right) from the second image 42. left) and eyeball rotation angle (left) are obtained by calculation. Specifically, the control unit 120 obtains the outline and center position of the pupil of each eyeball detected for each frame of the first image 41 and the second image 42, and calculates the eyeball horizontal angle (right, left), The vertical eyeball angle (right, left) and the eyeball rotation angle (right, left) are calculated. The control unit 120 uses values obtained by correcting the position of the eyeball in the image data C based on the displacement amount to determine the horizontal eyeball angle (right, left), the vertical eyeball angle (right, left), and the eyeball rotation angle (right, left). left) is calculated, the displacement between the subject 2 and the housing 401 can be ignored from the measurement results.

なお、制御部120は、ズレ量に基づいて画像データCにおける眼球の位置を補正するのではなく、算出した眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)に対してズレ量を適用して補正を行ってもよい。同じように、被検者2と筐体401とのズレを測定結果から無視することができる。ここで、眼球水平角度(右,左)、眼球垂直角度(右,左)、および眼球回旋角度(右,左)は、眼球運動データの一例である。眼球運動データは、被検者2の眼球の水平方向、垂直方向、および回旋方向の動きのうち少なくとも1つの動きのデータを含めばよい。 Note that the control unit 120 does not correct the position of the eyeball in the image data C based on the displacement amount, but rather calculates the calculated eyeball horizontal angle (right, left), eyeball vertical angle (right, left), and eyeball rotation angle. (Right, left) may be corrected by applying the deviation amount. Similarly, the displacement between the subject 2 and the housing 401 can be ignored from the measurement results. Here, the eyeball horizontal angle (right, left), the eyeball vertical angle (right, left), and the eyeball rotation angle (right, left) are examples of eye movement data. The eye movement data may include data on at least one movement of the subject's 2 eyeballs in the horizontal direction, the vertical direction, and the rotational direction.

しかし、被検者2の頭部と筐体401とのズレ量が大きい場合、眼球運動データを算出することができない。そこで、制御部120は、導出したズレ量が補正可能な範囲内か否かを判断して、導出したズレ量が補正可能な範囲を超えていれば、測定エラーとして再測定を術者1に促してもよい。具体的に、フローチャートを用いて、導出したズレ量が補正可能な範囲内か否かを判断する処理を説明する。図8は、実施の形態1に係るデータ処理装置100におけるデータ処理を説明するためのフローチャートである。 However, when the displacement amount between the head of the subject 2 and the housing 401 is large, the eye movement data cannot be calculated. Therefore, the control unit 120 determines whether or not the derived deviation amount is within the correctable range. may be urged. Specifically, a process for determining whether or not the derived deviation amount is within a correctable range will be described using a flowchart. FIG. 8 is a flow chart for explaining data processing in the data processing device 100 according to the first embodiment.

まず、制御部120は、N-1フレーム目の処理を開始する(ステップS101)。制御部120は、第1撮像部411および第2撮像部412で撮像したN-1フレーム目における被検者2の眼の画像データ(画像データC)が入力される(ステップS102)。被検者2の眼の画像データ(画像データC)が入力されていない場合(ステップS102でNO)、制御部120は、処理をステップS102に戻して、被検者2の眼の画像データ(画像データC)が入力される状態を続ける。 First, the control unit 120 starts processing the N−1th frame (step S101). The control unit 120 receives image data (image data C) of the eye of the subject 2 in the N−1th frame imaged by the first imaging unit 411 and the second imaging unit 412 (step S102). If the image data (image data C) of the eye of subject 2 has not been input (NO in step S102), the control unit 120 returns the process to step S102 to obtain the image data of the eye of subject 2 ( The state in which the image data C) is input continues.

被検者2の眼の画像データ(画像データC)が入力された場合(ステップS102でYES)、制御部120は、画像データCにおいて被検者2の目頭を特徴点として特定する(ステップS103)。制御部120は、例えば画像のパターンマッチングで画像データCから被検者2の目頭の領域を探し出し、当該領域を特徴点として特定する。 When image data (image data C) of the eye of subject 2 is input (YES in step S102), control unit 120 identifies the inner corner of eye of subject 2 as a feature point in image data C (step S103). ). The control unit 120 searches for the inner corner region of the subject 2 from the image data C by, for example, image pattern matching, and specifies the region as a feature point.

制御部120は、特徴点として特定した目頭の領域の左上の座標を目頭の位置として記憶部に保持する(ステップS104)。目頭の領域の左上の座標を目頭の位置とするのは一例であり、当該領域に右下の座標、当該領域の中心座標、当該領域の重心座標などでもよい。 The control unit 120 stores, in the storage unit, the coordinates of the upper left corner of the region of the inner corner of the eye identified as the feature point as the position of the inner corner of the eye (step S104). The position of the inner corner of the eye may be the upper left coordinate of the inner corner of the eye, and may be the lower right coordinate of the inner corner of the eye, the center coordinates of the inner corner of the eye, the barycentric coordinates of the inner corner of the eye, or the like.

次に、制御部120は、Nフレーム目の処理を開始する(ステップS105)。制御部120は、第1撮像部411および第2撮像部412で撮像したNフレーム目における被検者2の眼の画像データ(画像データC)が入力される(ステップS106)。被検者2の眼の画像データ(画像データC)が入力されない場合(ステップS106でNO)、制御部120は、処理をステップS106に戻して、被検者2の眼の画像データ(画像データC)が入力される状態を続ける。 Next, the control unit 120 starts processing the Nth frame (step S105). The control unit 120 receives image data (image data C) of the eye of the subject 2 in the N-th frame imaged by the first imaging unit 411 and the second imaging unit 412 (step S106). If the image data (image data C) of the eye of subject 2 is not input (NO in step S106), the control unit 120 returns the process to step S106 to obtain the image data (image data C) of the eye of subject 2. C) continues to be entered.

被検者2の眼の画像データ(画像データC)が入力された場合(ステップS106でYES)、制御部120は、画像データCにおいて被検者2の目頭を特徴点として特定する(ステップS107)。制御部120は、例えば画像のパターンマッチングで画像データCから被検者2の目頭の領域を探し出し、当該領域を特徴点として特定する。 When image data (image data C) of the eye of subject 2 is input (YES in step S106), control unit 120 identifies the inner corner of eye of subject 2 as a feature point in image data C (step S107). ). The control unit 120 searches for the inner corner region of the subject 2 from the image data C by, for example, image pattern matching, and specifies the region as a feature point.

制御部120は、N-1フレーム目の画像から特徴点として特定した目頭の位置に対して、Nフレーム目の画像から特徴点として特定した目頭の位置のズレ量(目頭のズレ量)を導出する(ステップS108)。なお、目頭のズレ量には、画像のx,y座標のズレ量以外に、角速度のズレ量を含んでもよい。 The control unit 120 derives the deviation amount (deviation amount of the inner corner of the eye) of the position of the inner corner of the eye specified as the feature point from the N-th frame image with respect to the position of the inner corner of the eye specified as the feature point from the N-1th frame image. (step S108). Note that the deviation amount of the inner corner of the eye may include the deviation amount of the angular velocity in addition to the deviation amount of the x and y coordinates of the image.

制御部120は、目頭のズレ量が閾値以下か否かを判断する(ステップS109)。ここで、閾値は、補正可能な範囲に設定してあり、例えば、被検者2の眼球の瞳孔や虹彩模様の一部が撮像領域外とならない距離を補正可能な範囲とする。 The control unit 120 determines whether or not the deviation amount of the inner corner of the eye is equal to or less than a threshold value (step S109). Here, the threshold value is set within a correctable range. For example, the correctable range is a distance at which a part of the pupil or iris pattern of the eyeball of the subject 2 does not fall outside the imaging area.

目頭のズレ量が閾値以下と判断した場合(ステップS109でYES)、制御部120は、目頭のズレ量に基づいて眼球運動データを補正する(ステップS110)。ここで、制御部120は、目頭のズレ量が0である場合は、眼球運動の補正をしない。なお、制御部120は、目頭のズレ量に基づいて画像データにおける眼球の位置を補正し、補正した眼球の位置から眼球運動データを算出してもよい。また、制御部120は、画像処理を伴うので処理負荷が重い場合、ステップS110において目頭のズレ量に基づいて眼球運動データを補正せず、目頭のズレ量のみを出力し、検査後に眼球運動データを補正してもよい。これにより、制御部120は、メイン機能であるめまい診断機能へ悪影響を及ぼす可能性を抑えることができる。制御部120は、一定の場合(例えば、制御部120の処理能力が高い場合など)にはステップS110において目頭のズレ量に基づいて眼球運動データを補正を実行してもよい。 When it is determined that the amount of deviation of the inner corner of the eye is equal to or less than the threshold (YES in step S109), the control unit 120 corrects the eye movement data based on the amount of deviation of the inner corner of the eye (step S110). Here, the control unit 120 does not correct the eye movement when the deviation amount of the inner corner of the eye is zero. Note that the control unit 120 may correct the position of the eyeball in the image data based on the amount of deviation of the inner corner of the eye, and calculate the eye movement data from the corrected position of the eyeball. Further, when the processing load is heavy due to image processing, the control unit 120 does not correct eye movement data based on the amount of inner corner of the eye displacement in step S110, outputs only the inner corner of the eye displacement amount, and outputs the eye movement data after the examination. may be corrected. Thereby, the control unit 120 can suppress the possibility of adversely affecting the vertigo diagnosis function, which is the main function. In certain cases (for example, when the processing power of the control unit 120 is high), the control unit 120 may correct the eye movement data based on the amount of deviation of the inner corner of the eye in step S110.

制御部120は、術者1から検査終了の操作を受け付けたか否かを判断する(ステップS111)。術者1から検査終了の操作は、例えばディスプレイ300に表示されている検査終了ボタンをマウス502でクリックする操作などが含まれる。検査終了の操作を受け付けていないと判断した場合(ステップS111でNO)、制御部120は、N=N+1とN値を更新する(ステップS112)。制御部120は、ステップS112後に、処理をステップS106に戻し、検査を継続する。一方、検査終了の操作を受け付けたと判断した場合(ステップS111でYES)、制御部120は、検査を終了する。 The control unit 120 determines whether or not an operation to end the examination has been received from the operator 1 (step S111). The operation to end the examination by the operator 1 includes, for example, an operation of clicking an examination end button displayed on the display 300 with the mouse 502 . If it is determined that an operation to end the examination has not been received (NO in step S111), the control unit 120 updates the N value to N=N+1 (step S112). After step S112, the control unit 120 returns the process to step S106 and continues the inspection. On the other hand, when determining that an operation to end the examination has been received (YES in step S111), the control unit 120 ends the examination.

目頭のズレ量が閾値より大きいと判断した場合(ステップS109でNO)、制御部120は、ゴーグル(撮像装置400)のズレを術者1に報知する(ステップS113)。具体的に、被検者2からゴーグルがずれたことを示す警告音をスピーカから出力する、または警告表示をディスプレイ300に表示する。制御部120は、被検者2からゴーグルがずれて正しい検査ができないと判断して、ゴーグルのズレを術者1に報知した後、処理を終了する。なお、検査終了する際に、制御部120は、ゴーグルがずれた眼球運動データを自動的に記憶装置700から削除してもよい。逆に、制御部120は、導出したズレ量が閾値より大きいと判断した場合(ステップS109でNO)、そのタイミングで導出された眼球運動データと関連させて、その旨を示すデータを記憶装置700に記憶してもよい。 When determining that the amount of deviation of the inner corner of the eye is greater than the threshold (NO in step S109), the controller 120 notifies the operator 1 of the deviation of the goggles (imaging device 400) (step S113). Specifically, a warning sound indicating that the goggles have deviated from the subject 2 is output from the speaker, or a warning display is displayed on the display 300 . The control unit 120 determines that the goggles are out of alignment with the subject 2 and that correct examination cannot be performed, and after notifying the operator 1 of the goggle deviation, the process ends. Note that the control unit 120 may automatically delete the eye movement data in which the goggles are displaced from the storage device 700 when the examination ends. Conversely, if control unit 120 determines that the derived deviation amount is larger than the threshold value (NO in step S109), control unit 120 stores data indicating that in association with the eye movement data derived at that timing. may be stored in

撮像装置400は、筐体401内に第1撮像部411および第2撮像部412の2つの撮像部が保持され、被検者2のそれぞれの眼を個別に撮影している。そのため、制御部120は、第1撮像部411および第2撮像部412で撮像した個別の眼の画像に基づいて、被検者2の頭部と筐体401とのズレ量をそれぞれ導出することができる。前述の説明では、制御部120が、被検者2の左目の画像データBに基づいて、被検者2の頭部と筐体401とのズレ量を導出することを説明したが、被検者2の右目の画像データAについても右目の目頭を特異点として特定して被検者2の頭部と筐体401とのズレ量を同様に導出することができる。これにより、制御部120は、画像データAでのズレ量に基づいて、画像データAにおける眼球の位置、および頭部角速度のデータを補正し、画像データBでのズレ量に基づいて、画像データBにおける眼球の位置、および頭部角速度のデータを補正することが可能となる。 The imaging device 400 has two imaging units, a first imaging unit 411 and a second imaging unit 412, in a housing 401, and images each eye of the subject 2 individually. Therefore, the control unit 120 derives the displacement amount between the head of the subject 2 and the housing 401 based on the individual eye images captured by the first imaging unit 411 and the second imaging unit 412. can be done. In the above description, it was explained that the control unit 120 derives the displacement amount between the head of the subject 2 and the housing 401 based on the image data B of the left eye of the subject 2. As for the image data A of the right eye of the person 2, it is possible to similarly derive the amount of deviation between the head of the subject 2 and the housing 401 by specifying the inner corner of the right eye as a singular point. As a result, the control unit 120 corrects the eyeball position and head angular velocity data in the image data A based on the amount of deviation in the image data A, and corrects the image data It is possible to correct the eye position in B and the head angular velocity data.

もちろん、制御部120は、被検者2の右目または左目の一方の画像から目頭を特異点として特定して被検者2の頭部と筐体401とのズレ量を導出し、被検者2の両目の画像データにおける眼球の位置、および頭部角速度のデータを補正してもよい。 Of course, the control unit 120 identifies the inner corner of the eye from the image of one of the right eye or the left eye of the subject 2 as a singular point, derives the amount of deviation between the head of the subject 2 and the housing 401, The position of the eyeballs in the image data of both eyes of 2 and the data of the head angular velocity may be corrected.

(実施の形態2)
実施の形態1に係る眼球運動データ処理システム10では、データ処理装置100が画像のパターンマッチングで画像データCから被検者2の目頭の領域を探し出し、当該領域を特徴点として特定すると説明した。本実施の形態では、特徴点である被検者2の目頭の領域を特定するためにAI(Artificial Intelligence)を用いたデータの分析・学習を活用する。
(Embodiment 2)
In the eye movement data processing system 10 according to Embodiment 1, the data processing device 100 searches for the inner corner region of the subject 2 from the image data C by image pattern matching, and specifies the region as a feature point. In the present embodiment, data analysis/learning using AI (Artificial Intelligence) is utilized in order to specify the inner corner region of subject 2, which is a feature point.

実施の形態1に係る眼球運動データ処理システムは、図1~図3に示した眼球運動データ処理システム10の構成と同じ構成であり、同じ構成については同じ符号を付して詳細な説明を繰り返さない。データ処理装置100は、撮像装置400で撮像した画像データに基づき、画像の中から特徴点を推定する推定部を有している。なお、推定部は、制御部120において実行されるプログラムにより実現できる。 The eye movement data processing system according to Embodiment 1 has the same configuration as the configuration of the eye movement data processing system 10 shown in FIGS. do not have. The data processing device 100 has an estimation unit for estimating feature points in an image based on image data captured by the imaging device 400 . Note that the estimation unit can be realized by a program executed by the control unit 120. FIG.

図9は、実施の形態2に係るデータ処理装置において推定モデルを用いて特徴点を推定する処理を説明するためのブロック図である。推定部140は、撮像装置400で撮像した画像データCと、ニューラルネットワーク172を含む推定モデル171とに基づき、被検者2の目頭の領域を探し出し、当該領域を特徴点として推定する。推定部140は、推定した目頭の領域Rの枠を重畳した画像データCaを出力する。なお、画像データCは、被検者2の眼を含む画像データである。また、領域Rは、矩形の領域であり、図9で示すように長方形であってもよい。 FIG. 9 is a block diagram for explaining processing for estimating feature points using an estimation model in the data processing device according to the second embodiment. Based on the image data C captured by the imaging device 400 and the estimation model 171 including the neural network 172, the estimating unit 140 searches for the inner corner region of the subject 2 and estimates the region as a feature point. The estimation unit 140 outputs image data Ca on which the frame of the estimated inner corner region R is superimposed. Note that the image data C is image data including the eye of the subject 2 . Also, the region R is a rectangular region, and may be rectangular as shown in FIG.

ここで、推定モデル141は、ニューラルネットワーク142と、当該ニューラルネットワーク142によって用いられるパラメータ143とを含む。パラメータ143は、ニューラルネットワーク142による計算に用いられる重み付け係数と、推定の判定に用いられる判定値とのうち、少なくともいずれか1つを含む。 Here, the estimation model 141 includes a neural network 142 and parameters 143 used by the neural network 142 . The parameter 143 includes at least one of a weighting factor used for calculation by the neural network 142 and a judgment value used for estimation judgment.

ニューラルネットワーク142は、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)、リカレントニューラルネットワーク(再帰型ニューラルネットワーク)(RNN:Recurrent Neural Network)、あるいはLSTMネットワーク(Long Short Term Memory Network)など、ディープラーニングによる画像認識処理で用いられる公知のニューラルネットワークが適用される。 The neural network 142 is a convolution neural network (CNN: Convolution Neural Network), a recurrent neural network (RNN: Recurrent Neural Network), or an LSTM network (Long Short Term Memory Network) for image recognition by deep learning. A well-known neural network used in processing is applied.

推定モデル141は、学習段階において、被検者2の眼を含む画像データと、目頭の領域を特定した結果とに基づき学習されることで最適化(調整)される。具体的に、図10は、実施の形態2に係るデータ処理装置100において推定モデルの学習段階を説明するためのブロック図である。推定モデル141は、図10に示すように、教師データとして目頭の領域R1を特定した画像データCbが入力されると、当該画像データCbに基づきニューラルネットワーク142によって被検者2の眼の画像から目頭の領域を推定する。そして、推定モデル141は、自身の推定結果と、入力された画像データCbに関連付けられた正解データである目頭の領域R1とが一致するか否かを判定し、両者が一致すればパラメータ143を更新しない一方で、両者が一致しなければ両者が一致するようにパラメータ143を更新することで、パラメータ143を最適化する。なお、推定モデル141の学習は、学習段階に限らず、運用段階においても行われてもよい。 In the learning stage, the estimation model 141 is optimized (adjusted) through learning based on image data including the eye of the subject 2 and the result of identifying the inner corner region. Specifically, FIG. 10 is a block diagram for explaining the learning stage of the estimation model in data processing apparatus 100 according to the second embodiment. As shown in FIG. 10, the estimation model 141, when the image data Cb specifying the inner corner region R1 is input as teacher data, the neural network 142 based on the image data Cb extracts from the image of the eye of the subject 2 Estimate the area of the inner corner of the eye. Then, the estimation model 141 determines whether or not its own estimation result matches the inner corner region R1, which is the correct data associated with the input image data Cb. The parameter 143 is optimized by updating the parameter 143 so that the two match if they do not match while not updating. Note that learning of the estimation model 141 is not limited to the learning stage, and may be performed in the operation stage as well.

推定部140は、撮像装置400で撮像した画像データCと、ニューラルネットワーク172を含む推定モデル171とに基づき、被検者2の目頭の領域Rを推定する。制御部120は、特定した目頭の領域R、つまり、矩形の領域Rの左上の座標rを、被検者2の左目における目頭(特徴点)の位置データとして出力する。実施の形態1で説明したように、制御部120は、前フレーム(N-1フレーム)の特徴点から現フレーム(Nフレーム)の特徴点への変化から被検者2の頭部と筐体401とのズレ量を導出し、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正する。 The estimation unit 140 estimates the inner corner region R of the subject 2 based on the image data C captured by the imaging device 400 and the estimation model 171 including the neural network 172 . The control unit 120 outputs the identified inner corner region R, that is, the upper left coordinate r of the rectangular region R as the position data of the inner corner (feature point) of the left eye of the subject 2 . As described in Embodiment 1, the control unit 120 detects the head and body of the subject 2 from the change from the feature point of the previous frame (N−1 frame) to the feature point of the current frame (N frame). 401 is derived, and the position of the eyeball in the image data C and data of the head angular velocity are corrected from the derived deviation amount between the head of the subject 2 and the housing 401 .

これにより、推定部140は、ニューラルネットワークなどの所謂AI技術を用いて、画像データに基づき、正確かつ容易に被検者2の特徴点(目頭の領域R)を推定することができ、より利便性のある歯科診療を実現することができる。 As a result, the estimating unit 140 can accurately and easily estimate the feature points (the inner corner region R) of the subject 2 based on the image data using so-called AI technology such as a neural network. It is possible to realize effective dental treatment.

推定部140は、データ処理装置100内に設ける場合に限られず、データ処理装置100が設置された空間外に設置されたサーバなど、クラウドコンピューティングの態様で存在してもよい。この場合、推定部140は、データ処理装置100に接続されるとともに、他の場所に設置された複数のデータ処理装置100にも接続され、これら複数のデータ処理装置100の各々について、画像データに基づき被検者2の特徴点を推定してもよい。このようにすれば、推定部140による機械学習の頻度がさらに上がり、推定部140は、より精度良く被検者2の特徴点を推定することができる。 The estimating unit 140 is not limited to being provided in the data processing device 100, and may exist in a form of cloud computing such as a server installed outside the space in which the data processing device 100 is installed. In this case, the estimating unit 140 is connected to the data processing device 100 and is also connected to a plurality of data processing devices 100 installed at other locations. Based on this, feature points of the subject 2 may be estimated. By doing so, the frequency of machine learning by the estimating unit 140 is further increased, and the estimating unit 140 can estimate the feature points of the subject 2 with higher accuracy.

[変形例について]
実施の形態1および2に係る眼球運動データ処理システム10では、データ処理装置100が特徴点の変化から被検者2の頭部と筐体401とのズレ量を導出し、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正すると説明した。しかし、撮像装置400に設けた演算処理部420の処理能力が高ければ、演算処理部420が特徴点の変化から被検者2の頭部と筐体401とのズレ量を導出し、導出した被検者2の頭部と筐体401とのズレ量から、画像データCにおける眼球の位置、および頭部角速度のデータを補正してもよい。
[About modification]
In the eye movement data processing system 10 according to Embodiments 1 and 2, the data processing device 100 derives the displacement amount between the head of the subject 2 and the housing 401 from the change in the feature points, and the derived subject 2, the position of the eyeball in the image data C and the angular velocity data of the head are corrected based on the amount of deviation between the head and the housing 401 . However, if the processing capability of the arithmetic processing unit 420 provided in the imaging device 400 is high, the arithmetic processing unit 420 derives the amount of deviation between the head of the subject 2 and the housing 401 from the change in the feature points, and derives The position of the eyeballs in the image data C and the head angular velocity data may be corrected based on the amount of deviation between the head of the subject 2 and the housing 401 .

これにより、撮像装置400から出力される画像データCは、被検者2と筐体401とのずれが考慮された画像データとなり、データ処理装置100での処理負担が軽減される。 As a result, the image data C output from the imaging device 400 becomes image data in consideration of the displacement between the subject 2 and the housing 401, and the processing load on the data processing device 100 is reduced.

実施の形態1および2に係る眼球運動データ処理システム10では、目頭の形状を含む矩形の領域Rを探し出すことで目頭(特徴点)の位置データを特定すると説明したが、目頭または目尻の端部を探し出して、当該端部の位置を、目頭または目尻の特徴点の位置データとして特定してもよい。また、実施の形態1および2に係る眼球運動データ処理システム10では、目頭または目尻を含む領域Rを矩形で特定するのではなく他の形状(例えば、三角形、円など)で特定してもよい。例えば、目頭または目尻を含む領域Rを三角形で特定した場合、三角形の重心座標を、目頭または目尻を含む領域Rを円で特定した場合、円の中心座標をそれぞれ目頭または目尻の特徴点の位置データとして特定する。 In the eye movement data processing system 10 according to Embodiments 1 and 2, it has been described that the position data of the inner corner of the eye (feature point) is specified by searching for the rectangular region R including the shape of the inner corner of the eye. , and the position of the end may be specified as the position data of the feature point of the inner corner or the outer corner of the eye. Further, in the eye movement data processing system 10 according to Embodiments 1 and 2, the region R including the inner corner or the outer corner of the eye may be specified not by a rectangle but by another shape (for example, a triangle, a circle, etc.). . For example, if the region R including the inner corner or the outer corner of the eye is specified by a triangle, the barycentric coordinates of the triangle are specified, and if the region R that includes the inner corner or the outer corner of the eye is specified by a circle, the center coordinates of the circle are the positions of the feature points of the inner corner or the outer corner of the eye, respectively. Identify as data.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the scope and meaning of equivalents of the scope of claims.

1 術者、2 被検者、10 眼球運動データ処理システム、100 データ処理装置、110 I/Oインターフェイス、120 制御部、130 画像処理部、140 推定部、300 ディスプレイ、400 撮像装置、401,401a,401b 筐体、401c 接眼部、401d 開口部、402 遮光カバー、403 配線、410 ガラス板、411 第1撮像部、412 第2撮像部、420 演算処理部、450 頭部センサ、501 キーボード、502 マウス、600 刺激信号処理装置。 1 operator, 2 subject, 10 eye movement data processing system, 100 data processing device, 110 I/O interface, 120 control unit, 130 image processing unit, 140 estimation unit, 300 display, 400 imaging device, 401, 401a , 401b housing, 401c eyepiece, 401d opening, 402 light shielding cover, 403 wiring, 410 glass plate, 411 first imaging unit, 412 second imaging unit, 420 arithmetic processing unit, 450 head sensor, 501 keyboard, 502 mouse, 600 stimulus signal processor.

Claims (14)

医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置であって、
被検者の頭部に装着する前記撮像装置の筐体に保持された撮像部で撮像した前記被検者の眼の画像データが入力される入力部と、
前記入力部で入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出する導出部と、を備える、データ処理装置。
A data processing device for processing data from an imaging device that images an eye in medical care,
an input unit for inputting image data of the eye of the subject captured by an imaging unit held in a housing of the imaging device mounted on the head of the subject;
and a derivation unit that derives a deviation amount between the subject's head and the housing based on the image data input by the input unit.
前記導出部は、前記撮像部で撮像した画像データから前記被検者の特徴点を検出し、当該特徴点の移動量から前記被検者の頭部と前記筐体とのズレ量を導出する、請求項1に記載のデータ処理装置。 The derivation unit detects feature points of the subject from image data captured by the imaging unit, and derives a displacement amount between the subject's head and the housing from a movement amount of the feature points. 2. A data processing apparatus according to claim 1. 前記特徴点は、前記被検者の目頭および目尻のうち少なくとも一方を含む、請求項2に記載のデータ処理装置。 3. The data processing apparatus according to claim 2, wherein the feature point includes at least one of the inner and outer corners of the eye of the subject. 前記導出部は、少なくとも、前記撮像部で撮像した画像データと、機械学習によって生成された推定モデルとに基づき、前記被検者の目頭および目尻のうち少なくとも一方の位置を推定する、請求項3に記載のデータ処理装置。 4. The derivation unit estimates the position of at least one of the inner and outer corners of the eye of the subject based on at least image data captured by the imaging unit and an estimation model generated by machine learning. The data processing device according to . 前記推定モデルは、目頭および目尻のうち少なくとも一方を含む画像データと、当該画像データでの目頭および目尻のうち少なくとも一方の位置情報とに基づき、あらかじめ機械学習されている、請求項4に記載のデータ処理装置。 5. The estimating model according to claim 4, which is machine-learned in advance based on image data including at least one of the inner and outer corners of the eye and position information of at least one of the inner and outer corners of the eye in the image data. Data processing equipment. 前記撮像部は、前記筐体内に2つ保持され、前記被検者のそれぞれの眼を個別に撮影し、
前記導出部は、前記撮像部で撮像した個別の眼の画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量をそれぞれ導出する、請求項1~請求項5のいずれか1項に記載のデータ処理装置。
The two imaging units are held in the housing and individually photograph the eyes of the subject,
6. The derivation unit according to any one of claims 1 to 5, wherein the derivation unit derives a displacement amount between the subject's head and the housing based on image data of individual eyes captured by the imaging unit. 1. The data processing device according to claim 1.
前記導出部は、導出したズレ量に基づいて、前記撮像部で撮像した画像データにおける眼球の位置を補正する、請求項1~請求項6のいずれか1項に記載のデータ処理装置。 The data processing device according to any one of claims 1 to 6, wherein the deriving section corrects the position of the eyeball in the image data captured by the imaging section based on the derived displacement amount. 前記導出部は、導出したズレ量に基づいて、前記筐体に保持され、前記被検者の頭部の動きを検出する検出部からの検出データを補正する、請求項1~請求項7のいずれか1項に記載のデータ処理装置。 The derivation unit corrects detection data from a detection unit that is held in the housing and detects movement of the subject's head, based on the derived deviation amount. A data processing apparatus according to any one of claims 1 to 3. 前記導出部は、前記撮像部で時系列に撮像した複数の画像データから、前記被検者の眼球の水平方向、垂直方向、および回旋方向の動きのうち少なくとも1つの動きのデータを含む眼球運動データとして算出し、
導出したズレ量に基づいて、前記眼球運動データを補正する、請求項1~請求項8のいずれか1項に記載のデータ処理装置。
The derivation unit includes eye movement data including at least one motion data out of a horizontal direction, a vertical direction, and a rotational direction of the eyeball of the subject from a plurality of image data captured in time series by the imaging unit. calculated as data,
The data processing device according to any one of claims 1 to 8, wherein the eye movement data is corrected based on the derived deviation amount.
導出したズレ量が所定の閾値以上となった場合、前記筐体のズレを報知する報知部をさらに備える、請求項1~請求項9のいずれか1項に記載のデータ処理装置。 The data processing apparatus according to any one of claims 1 to 9, further comprising a notification unit that notifies the deviation of the housing when the derived deviation amount is greater than or equal to a predetermined threshold value. 前記導出部は、導出したズレ量が所定の閾値以上となった場合、そのタイミングで導出された前記眼球運動データと関連させて、その旨を示すデータを記憶部へ記憶する、請求項9に記載のデータ処理装置。 10. The method according to claim 9, wherein when the derived amount of deviation becomes equal to or greater than a predetermined threshold value, the derivation unit stores data indicating that effect in the storage unit in association with the eye movement data derived at that timing. Data processing apparatus as described. 平衡機能検査における眼球運動データを処理する眼球運動データ処理システムであって、
被検者の眼球を撮像する撮像装置と、
前記撮像装置からのデータが入力されて、当該データの処理を行うデータ処理装置と、を備え、
前記撮像装置は、
前記被検者の頭部に装着する筐体と、
前記筐体に保持され、前記被検者の眼を撮像する撮像部と、を含み、
前記データ処理装置は、
前記撮像部で撮像した前記被検者の眼の画像データが入力される入力部と、
前記入力部で入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出する導出部と、を含む、眼球運動データ処理システム。
An eye movement data processing system for processing eye movement data in a balance function test,
an imaging device for imaging an eyeball of a subject;
a data processing device that receives data from the imaging device and processes the data;
The imaging device is
a housing mounted on the subject's head;
an imaging unit that is held by the housing and captures an image of the subject's eye,
The data processing device is
an input unit into which image data of the subject's eye captured by the imaging unit is input;
an eye movement data processing system, comprising: a derivation unit for deriving a deviation amount between the subject's head and the housing based on the image data input by the input unit.
医療において眼を撮像する撮像装置からのデータを処理するデータ処理方法であって、
被検者の頭部に装着する前記撮像装置の筐体に保持された撮像部で撮像した前記被検者の眼の画像データが入力されるステップと、
入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出するステップと、を備える、データ処理方法。
A data processing method for processing data from an imaging device for imaging an eye in medicine, comprising:
a step of inputting image data of the eye of the subject captured by an imaging unit held in a housing of the imaging device mounted on the head of the subject;
A data processing method comprising: deriving an amount of deviation between the subject's head and the housing based on input image data.
医療において眼を撮像する撮像装置からのデータを処理するデータ処理装置で実行されるプログラムであって、
被検者の頭部に装着する前記撮像装置の筐体に保持された撮像部で撮像した前記被検者の眼の画像データが入力されるステップと、
入力された画像データに基づいて、前記被検者の頭部と前記筐体とのズレ量を導出するステップと、を備える、プログラム。
A program executed by a data processing device that processes data from an imaging device that images an eye in medical care,
a step of inputting image data of the eye of the subject captured by an imaging unit held in a housing of the imaging device mounted on the head of the subject;
and deriving an amount of displacement between the subject's head and the housing based on input image data.
JP2021167969A 2021-10-13 2021-10-13 DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM Active JP7510401B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021167969A JP7510401B2 (en) 2021-10-13 2021-10-13 DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021167969A JP7510401B2 (en) 2021-10-13 2021-10-13 DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2023058161A true JP2023058161A (en) 2023-04-25
JP7510401B2 JP7510401B2 (en) 2024-07-03

Family

ID=86068998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021167969A Active JP7510401B2 (en) 2021-10-13 2021-10-13 DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7510401B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024106139A1 (en) 2023-03-31 2024-10-02 Ngk Insulators, Ltd. SENSOR ELEMENT AND GAS SENSOR
JP7759070B1 (en) * 2024-08-05 2025-10-23 ニューロイヤーズ カンパニー リミテッド A balance function management system and method for tracking changes in eyeballs and head circumference in video to generate balance function status information and implement a balance function rehabilitation program, a recording medium on which a program for realizing the system is stored, and a computer program stored in the recording medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670884A (en) * 1992-07-09 1994-03-15 A T R Shichokaku Kiko Kenkyusho:Kk Medical diagnostic device using sight line detection
JP2009123042A (en) * 2007-11-16 2009-06-04 Nikon Corp Control device and head mounted display device
WO2012172719A1 (en) * 2011-06-16 2012-12-20 パナソニック株式会社 Head-mounted display and misalignment correction method thereof
JP2014011624A (en) * 2012-06-29 2014-01-20 Nikon Corp Information input/output device and head-mounted display device
WO2016170854A1 (en) * 2015-04-22 2016-10-27 ソニー株式会社 Information processing device, information processing method, and program
WO2016195066A1 (en) * 2015-06-05 2016-12-08 聖 星野 Method of detecting motion of eyeball, program for same, storage medium for program, and device for detecting motion of eyeball
JP2021501385A (en) * 2017-09-01 2021-01-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Detailed eye shape model for robust biometric applications
WO2021100553A1 (en) * 2019-11-20 2021-05-27 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
WO2021106502A1 (en) * 2019-11-29 2021-06-03 ソニーグループ株式会社 Head-mounted type display device, image display system, and image display method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670884A (en) * 1992-07-09 1994-03-15 A T R Shichokaku Kiko Kenkyusho:Kk Medical diagnostic device using sight line detection
JP2009123042A (en) * 2007-11-16 2009-06-04 Nikon Corp Control device and head mounted display device
WO2012172719A1 (en) * 2011-06-16 2012-12-20 パナソニック株式会社 Head-mounted display and misalignment correction method thereof
JP2014011624A (en) * 2012-06-29 2014-01-20 Nikon Corp Information input/output device and head-mounted display device
WO2016170854A1 (en) * 2015-04-22 2016-10-27 ソニー株式会社 Information processing device, information processing method, and program
WO2016195066A1 (en) * 2015-06-05 2016-12-08 聖 星野 Method of detecting motion of eyeball, program for same, storage medium for program, and device for detecting motion of eyeball
JP2021501385A (en) * 2017-09-01 2021-01-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Detailed eye shape model for robust biometric applications
WO2021100553A1 (en) * 2019-11-20 2021-05-27 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
WO2021106502A1 (en) * 2019-11-29 2021-06-03 ソニーグループ株式会社 Head-mounted type display device, image display system, and image display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102024106139A1 (en) 2023-03-31 2024-10-02 Ngk Insulators, Ltd. SENSOR ELEMENT AND GAS SENSOR
JP7759070B1 (en) * 2024-08-05 2025-10-23 ニューロイヤーズ カンパニー リミテッド A balance function management system and method for tracking changes in eyeballs and head circumference in video to generate balance function status information and implement a balance function rehabilitation program, a recording medium on which a program for realizing the system is stored, and a computer program stored in the recording medium

Also Published As

Publication number Publication date
JP7510401B2 (en) 2024-07-03

Similar Documents

Publication Publication Date Title
US10463250B1 (en) System and method for vision testing
US8371693B2 (en) Autism diagnosis support apparatus
AU2020351719B2 (en) Instant eye gaze calibration systems and methods
JP7209954B2 (en) Nystagmus analysis system
JP2022545615A (en) Eye-tracking fixation monitoring system and method
KR101978548B1 (en) Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same
JP7510401B2 (en) DATA PROCESSING APPARATUS, EYE MOVEMENT DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND PROGRAM
JP7564190B2 (en) Eye tracking fixation monitoring system and method
JP2023523371A (en) Methods, systems and devices for investigating or assessing eye or pupil movement
CN115590462A (en) Vision detection method and device based on camera
CN104814717B (en) The detection method of the nystagmus full figure of a kind of compensation elimination variant position error and device
CN111989030B (en) Image processing method, program and image processing device
US11684292B2 (en) Vestibular testing apparatus
US12245864B2 (en) Imaging device, ocular movement data processing system, and control method
CN113633257A (en) Vestibular function examination method, system, device and medium based on virtual reality
US12294779B2 (en) Imaging device, ocular movement data processing system, and control method
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
Smith et al. Eyesight: Eye Examination System with Intelligent Guidance and Human Tracking
Huang et al. Development a low-cost smart eyewear system for eye & head movement measurement and analysis
RU2847125C2 (en) Method for diagnosing strabismus using mobile application
US20240257969A1 (en) Methods and Systems for Providing Clinical States of an Ocular Disease Based on Genomic Data and Phenotypic Data of Subjects
US20250014221A1 (en) Patient-accessible calibration of video eyetracking apparatus
US20260038112A1 (en) Balance function management system and method for generating information on balance function status and performing balance function rehabilitation program by tracking eye and head position changes in videos, recording medium storing program for executing the same, and recording medium storing program for executing the same
CN112587083B (en) Visual processing method, device and computer storage medium
JPWO2021217218A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240621