WO2025142341A1 - 端末装置、収差感受性情報生成方法およびプログラム - Google Patents
端末装置、収差感受性情報生成方法およびプログラム Download PDFInfo
- Publication number
- WO2025142341A1 WO2025142341A1 PCT/JP2024/042725 JP2024042725W WO2025142341A1 WO 2025142341 A1 WO2025142341 A1 WO 2025142341A1 JP 2024042725 W JP2024042725 W JP 2024042725W WO 2025142341 A1 WO2025142341 A1 WO 2025142341A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- aberration
- image
- subject
- distribution
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/09—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
Definitions
- Patent Document 1 discloses a technology that allows the visual performance of eyeglass lenses to be evaluated for each eyeglass wearer.
- One embodiment of the present invention is an aberration sensitivity information generating method in which a computer outputs image information of a left eye image capable of setting a first aberration distribution, which is an aberration distribution for the left eye, to a left eye display unit that presents an image to the left eye of a subject, outputs image information of a right eye image capable of setting a second aberration distribution, which is an aberration distribution for the right eye, to a right eye display unit that presents an image to the right eye of the subject, acquires gaze information that detects the gaze movement of the subject to whom at least one of the left eye image and the right eye image is presented, and generates aberration sensitivity information that is information regarding the subject's sensitivity to aberrations based on the acquired gaze information and the aberration distribution.
- the terminal device 100 is, for example, a computer device, and includes a calculation unit 110, a communication unit 120, a memory unit 130, and an input unit 140.
- the input unit 140 accepts input for the program screen on the display screen of the terminal device, and accepts input of various parameters used in the aberration sensitivity test and measurement operations.
- the aberration sensitivity information generating unit 112 generates aberration sensitivity information, which is information regarding the subject's sensitivity to aberration, based on the acquired gaze information and aberration distribution.
- the aberration sensitivity information generation unit 112 generates aberration sensitivity information based on the acquired head position/posture information.
- the display control unit 113 generates an aberration image by applying various aberrations to an aberration-free image.
- the display control unit 113 outputs the generated aberration image to the image output unit 123.
- the first image output unit 1231 and the second image output unit 1232 may sequentially output a plurality of pieces of image information having different aberration distribution forms.
- the aberration sensitivity information generation unit 112 generates aberration sensitivity information for each of the aberration distribution forms that are sequentially output.
- the distribution pattern of aberration that the image output unit 123 applies to the aberration-free image may include a distribution pattern (first distribution pattern) in which the degree of aberration differs between the left and right eyes.
- the distribution form of aberration that the image output unit 123 applies to the aberration-free image may include a distribution form (third distribution form) in which the degree of aberration at the center position of the subject's line of sight is set smaller than the degree of aberration at the edge of the display range.
- the distribution form of aberration that the image output unit 123 applies to the aberration-free image may be read as "the distribution form of aberration of the image output by the image output unit 123, which is the distribution form of aberration applied to the aberration-free image by the display control unit 113.”
- FIG. 5 is a diagram showing an example of the flow of the operation of sensitivity assessment by the aberration sensitivity measurement system 5 of this embodiment.
- the aberration sensitivity measurement system 5 sequentially presents images to which an aberration distribution has been applied to the subject, and measures the aberration sensitivity of the subject.
- the images to which an aberration distribution has been applied include images to which distortion aberration has been applied and images to which blur aberration has been applied.
- images to which blur aberration has been applied are also presented in the same manner.
- an image to which a combination of distortion aberration and blur aberration has been applied may be presented to the subject.
- step S1111 a user of the terminal device 100 (e.g., a person in charge of testing the subject at an eyeglass store) has the subject wear a display device 50 such as an HMD, and positions the display screen 501 in the subject's field of vision.
- step S1111 the process proceeds to step S1112.
- step S1112 the examiner sequentially displays images Y (hereinafter referred to as images Y with distortion aberration applied, images Y with distortion aberration applied, or simply images Y) obtained by applying a plurality of distortion aberrations having different aberrations to an aberration-free image on the display screen 501 and has the subject view them, thereby obtaining the impression of the subject who viewed the images Y with distortion aberration applied.
- images Y with distortion aberration applied obtained by applying a plurality of distortion aberrations having different aberrations to an aberration-free image on the display screen 501 and has the subject view them, thereby obtaining the impression of the subject who viewed the images Y with distortion aberration applied.
- the examiner displays the images Y with distortion aberration applied in areas of the display screen 501 that correspond to the lateral portions La1 and La2 (not shown) of the progressive power lens.
- the aberration sensitivity measurement system 5 outputs the left eye image 501L and the right eye image 501R from the terminal device 100 to the display device 50 based on the operation of the examiner.
- the display device 50 presents the left eye image 501L and the right eye image 501R output from the terminal device 100 to the subject.
- the examiner fixes the distortion direction of the distortion aberration to be displayed, increases the degree of distortion, and identifies the distortion direction and/or degree of the distortion aberration for which the subject responded that the distortion aberration-applied image Y (i.e., image Y after the distortion aberration has been changed) is unacceptable.
- the aberration sensitivity measurement system 5 sets the degree of distortion based on the distortion degree setting operation of the examiner, and generates the left eye image 501L and the right eye image 501R having the set degree of distortion. Furthermore, the examiner fixes the distortion direction while changing the distortion direction, increases the degree of distortion, and identifies the distortion aberration applied image Y for which the examinee responded that it is unacceptable. In this manner, a plurality of distortion aberration applied images Y each having a different degree of distortion are displayed for one or a plurality of distortion directions. After step S1112 is completed, the process proceeds to step S1113. It should be noted that the order in which the distortion aberration applied images Y having different degrees of distortion are presented and the number of repetitions are not limited.
- the examiner evaluates the subject's sensitivity to distortion in the visual field of the subject who viewed the distortion aberration applied image Y. Based on the response from the subject who viewed the distortion aberration applied image Y obtained in step S1112, the examiner converts the subject's sensitivity to distortion into a numerical value according to a predetermined criterion and records it. For example, as described above, if the degree of distortion in the distortion aberration applied image Y is increased until the subject responds that it is unacceptable, the degree of distortion at which the subject initially responded that it is unacceptable and the maximum degree of distortion that the subject can tolerate are obtained as parameters indicating the subject's sensitivity to distortion (hereinafter referred to as sensitivity parameters). In other words, the sensitivity parameter is determined based on the distortion aberration applied image Y identified above.
- FIG. 6 is a diagram showing a first example of a measurement scene in the virtual space VS of this embodiment.
- the figure shows an example of a far-vision scene.
- the far-vision scene is a scene for measuring aberration sensitivity (e.g., blur sensitivity) in far-vision.
- a virtual display is placed in the virtual space VS at a position 3 [m] away from the subject in the depth direction (+z direction).
- the size of this virtual display is set to a range that the subject can view by changing only the line of sight without shaking his head left and right (i.e., without rotating in the yaw direction).
- a linear function is applied to the blur aberration function.
- a horizontally written text is displayed on the virtual display in the virtual space VS.
- the aberration sensitivity measurement system 5 presents an image of the horizontally written text to each of the left and right eyes of the subject, respectively.
- the figure shows an example of an intermediate distance vision scene.
- the intermediate distance vision scene is a scene for measuring aberration sensitivity (e.g., blur sensitivity) at an intermediate distance between far vision and near vision.
- aberration sensitivity e.g., blur sensitivity
- a virtual display is placed at a position 1 [m] away from the subject in the depth direction (+z direction) in the virtual space VS.
- a constant function is applied to the blur aberration function.
- FIG. 9 is a diagram showing a third example of a measurement scene in the virtual space VS of this embodiment.
- This figure shows a modified intermediate distance vision scene.
- a virtual figure e.g., a Landolt ring
- visual acuity e.g., spatial resolution
- the aberration sensitivity measurement system 5 does not display a guide object PG that guides the subject's line of sight in the blur sensitivity measurement scene.
- FIG. 11 is a diagram showing a fifth example of a measurement scene in the virtual space VS of this embodiment.
- the figure shows an example of a scene for measuring distortion sensitivity.
- the scene for measuring distortion sensitivity is, for example, a scene simulating the state of a desk during work.
- images of a personal computer, a display, and a tablet are placed at an intermediate distance (for example, within a distance of about 2.0 to 3.0 m from the subject) in the virtual space VS.
- the aberration sensitivity measurement system 5 presents an image PA2 to which distortion aberration has been applied in a virtual space VS to a subject.
- the image PA2 to which distortion aberration has been applied the amount of movement of the position of each point of an object due to distortion is given so that it differs at each position of a frustum with the viewpoint as the apex.
- FIG. 12 is a diagram showing an example of a gaze guide in the virtual space VS of this embodiment.
- the figure shows a spherical guide object PG (an example of a gaze guide object, any shape may be used) which is a virtual sphere floating in the virtual space VS as an example of a gaze guide.
- the aberration sensitivity measurement system 5 moves the guide object left and right (x-axis direction), up and down (y-axis direction), and front and back (z-axis direction) within the virtual space VS.
- the subject follows the guide object PG moving left and right, up and down, and front and back by moving their eyes or head.
- the aberration sensitivity measurement system 5 can obtain measurement results when the subject views the guide object PG moving left and right, up and down, and front and back with distortion.
- FIG. 13 is a diagram showing a sixth example of a measurement scene in the virtual space VS of this embodiment.
- the figure shows a view from inside a car driven by a subject, as an example of a scene for measuring distortion sensitivity.
- gaze data can be obtained when looking near (driving panel area VS61) and far away (forward vision area VS62, including signs and towns) depending on the state of distortion and blur aberration.
- the aberration sensitivity measurement system 5 can present a virtual space VS including various types of aberrations.
- the aberration of a spectacle lens includes blur and distortion.
- the aberration sensitivity measurement system 5 presents blur, distortion, and a combination of blur and distortion as aberrations to the subject.
- blur is a phenomenon in which an optical wavefront emitted from a point on an object spreads out without converging to a single point at the retina.
- the aberration sensitivity measurement system 5 reproduces the blur phenomenon in the virtual space VS by image processing.
- distortion refers to a phenomenon in which the path of light rays is changed by a spectacle lens, causing the shape of an object to appear to be different from its original shape.
- the aberration sensitivity measurement system 5 reproduces the phenomenon of distortion in the virtual space VS by image processing.
- the aberration sensitivity measurement system 5 expresses the distortion in the virtual space VS by applying an arbitrary aberration function f(x, y) or a value calculated from the design data of the spectacle lens to the amount of distortion (for example, the amount of change in the position at which an object appears due to a change in the path of light rays).
- [Definition of aberration function] 14 is a diagram showing an example of a clipping plane of a view frustum.
- the aberration-sensitive measurement system 5 generates an image of the measurement scene projected onto the near clipping plane.
- the near clipping plane is a coordinate system normalized to the range of ⁇ 1 to +1 for the x-axis and y-axis.
- the aberration function f(x, y) is defined with the variables x and y in the range of ⁇ 1 to +1.
- an aberration is defined as a function with variables being position (xg, yg) and angle ( ⁇ h, ⁇ v) in a three-dimensional space.
- FIG. 18 is a diagram showing an example of conversion from an angle to normalized coordinates of a clipping plane.
- FIG. 18A shows an example of conversion in the horizontal direction.
- FIG. 18B shows an example of conversion in the vertical direction. Based on equations (1) and (2), the horizontal angle ⁇ h and the vertical angle ⁇ v are converted into normalized coordinate values (x, y).
- the blur aberration function defines the size of the circle or ellipse that is the blur range for each position or angle. It can be converted from the physical size W ⁇ H of the plane and the size of the circle or ellipse that is the blur range to the size of the blur range in the image processing coordinate system.
- the shape of the aberration function is a constant value and is shown by equation (10).
- the blur aberration function can also be expressed by equation (11), which is a linear function where a and b are arbitrary constants and xo and yo are the central position offset amounts.
- the blur aberration function can also be expressed in the form of equation (13).
- the aberration sensitivity measurement system 5 can also store a table of the size of the blur range calculated by ray tracing of the eyeglass lens.
- the distortion aberration function defines the amount of displacement [ ⁇ x, ⁇ y] of an object as seen due to the distortion of the eyeglass lens for each position or angle.
- the shape of the aberration function is expressed by equation (15) when a is an arbitrary constant, xo and yo are the central position offset amounts, and the distance r from the center is expressed as equation (14).
- the aberration sensitivity measurement system 5 can also have a table of displacements [ ⁇ x, ⁇ y] calculated by ray tracing of the eyeglass lens.
- the aberration sensitivity measurement system 5 determines in advance the center of the aberration distribution by the following procedure.
- the aberration sensitivity measurement system 5 displays a guide object PG (also called a line-of-sight guide object) in the virtual space VS and asks the subject to fixate the guide object PG for about 15 seconds. At this time, the aberration sensitivity measurement system 5 does not change the position of the guide object PG in the virtual space VS.
- the aberration sensitivity measurement system 5 detects the direction of gaze of the subject.
- the aberration sensitivity measurement system 5 calculates the intersection position of the subject's gaze direction with the near clipping plane of the viewing frustum.
- FIG. 21 is an example of a change over time in the intersection position between the subject's line of sight and the near clipping plane of the viewing frustum.
- the figure illustrates the x-axis coordinate among the coordinates (xy) indicating the intersection position between the subject's line of sight and the near clipping plane of the viewing frustum.
- FIG. 21 (A) shows the coordinates for the subject's left eye.
- FIG. 21 (B) shows the coordinates for the subject's left eye.
- the aberration sensitivity measurement system 5 does not change the position of the guide object PG in the virtual space VS.
- the aberration sensitivity measurement system 5 does not adopt the coordinate data for the first 6 seconds or so after the guide object PG is displayed out of the coordinate data of the intersection position during the 15 seconds or so that the subject is fixating on the guide object PG, but adopts the coordinate data for 5 seconds from 6 seconds after the start to 11 seconds after the start as the effective coordinate data VD1.
- the aberration sensitivity measurement system 5 rearranges the coordinates in the x-axis direction and the y-axis direction of the acquired effective coordinate data VD1 in ascending (or descending) order.
- the aberration sensitivity measurement system 5 converts the effective coordinate data VD1 acquired on the time axis for the coordinates of the line of sight center into a histogram in which the coordinates are arranged in order according to the distance from the center of the coordinates.
- the aberration sensitivity measurement system 5 does not adopt the coordinate data in the upper and lower 5% range in the coordinate axis direction from the distribution of the gaze center coordinates for each x and y coordinate, but adopts the coordinate data in the central 90% range in the coordinate axis direction as effective coordinate data VD2.
- the aberration sensitivity measurement system 5 adopts the coordinate data included in the effective coordinate data VD2Lx in the x-axis direction and the effective coordinate data VD2Ly in the y-axis direction of the subject's left eye as the effective coordinate data VD2L of the subject's left eye, and adopts the coordinate data included in the effective coordinate data VD2Rx in the x-axis direction and the effective coordinate data VD2Ry in the y-axis direction of the subject's right eye as the effective coordinate data VD2R of the subject's right eye.
- the aberration sensitivity measurement system 5 determines the aberration origin CL of the subject's left eye and the aberration origin CR of the subject's right eye independently of each other.
- the aberration sensitivity measurement system 5 generates an image PA1L to which the left-eye blur aberration is applied and presented to the left eye of the subject based on the aberration origin CL of the left eye.
- the aberration sensitivity measurement system 5 generates an image PA1R to which the right-eye blur aberration is applied and presented to the right eye of the subject based on the aberration origin CL of the left eye. Therefore, the aberration sensitivity measuring system 5 can align the center of the aberration distribution with the center of the line of sight depending on the left and right eyes of the individual subject.
- [Aberration condition (1) Binocular blur sensitivity test] 24 is a diagram showing an example of aberration conditions for blur aberration in this embodiment.
- the aberration sensitivity measurement system 5 measures binocular blur sensitivity under the conditions shown in the figure.
- the measurement stages are the order of aberration conditions that the aberration sensitivity measurement system 5 presents to the subject.
- the aberration sensitivity measurement system 5 may perform the measurement stages (i.e., the order) randomly, not in the order shown in the figure.
- the aberration sensitivity measurement system 5 may repeatedly present the same measurement stages to the subject.
- the aberration sensitivity measurement system 5 of this embodiment can present images to which different aberration conditions are applied individually to the left and right eyes of the subject.
- [Aberration condition (2) Binocular distortion sensitivity test] 25 is a diagram showing an example of aberration conditions for distortion aberration in this embodiment.
- the aberration sensitivity measurement system 5 measures binocular distortion sensitivity under the conditions shown in the figure.
- the aberration sensitivity measurement system 5 may perform the measurement steps (i.e., the order) randomly instead of in the order shown in the figure.
- the aberration sensitivity measurement system 5 may repeatedly present the same measurement steps to the subject.
- FIG. 26 is a diagram showing an example of the conditions of the astigmatism axis of the left eye and the astigmatism axis of the right eye in a binocular distortion sensitivity test.
- the aberration sensitivity measurement system 5 of the present embodiment can present images to which different aberration conditions are applied individually to the left eye and the right eye of the subject. Therefore, the aberration sensitivity measurement system 5 can present images to which different aberration conditions are applied individually according to the astigmatism axis of the left eye and the astigmatism axis of the right eye of the subject, for example.
- the above example shows an example of the aberration condition when the astigmatism axis is kept constant and the astigmatism power is changed.
- the astigmatism axis may be changed while the astigmatism power is kept constant.
- FIG. 27 is a diagram showing modified examples of the aberration conditions for distortion aberration in this embodiment.
- FIG. 28 is a diagram showing modified conditions of the left eye astigmatism axis and the right eye astigmatism axis in a binocular distortion sensitivity test.
- the aberration sensitivity measurement system 5 may perform measurements by acquiring the condition of the astigmatism axis that the subject feels is most uncomfortable to view, and then changing the astigmatism power for that astigmatism axis.
- the aberration sensitivity measurement system 5 may also perform a binocular sensitivity test combining both blur and distortion aberrations.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Dentistry (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Eye Examination Apparatus (AREA)
Abstract
端末装置は、左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力する第1画像出力部と、右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、被験者の右眼に画像を提示する右眼表示部に対して出力する第2画像出力部と、左眼用画像および右眼用画像の少なくとも一方が提示された被験者の視線の動きが検出された視線情報を取得する視線情報取得部と、取得された視線情報と、収差分布とに基づいて、被験者の収差に対する感受性に関する情報である収差感受性情報を生成する収差感受性情報生成部と、を備える。
Description
本発明は、端末装置、収差感受性情報生成方法およびプログラムに関する。
本願は、2023年12月25日に出願された日本国特願2023-217569号に基づき優先権を主張し、その内容をここに援用する。
本願は、2023年12月25日に出願された日本国特願2023-217569号に基づき優先権を主張し、その内容をここに援用する。
従来、眼鏡レンズの視性能を眼鏡の装用者ごとに評価可能にする技術が開示されている(例えば、特許文献1を参照)。
本発明の一実施形態は、左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力する第1画像出力部と、右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、前記被験者の右眼に画像を提示する右眼表示部に対して出力する第2画像出力部と、前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の視線の動きが検出された視線情報を取得する視線情報取得部と、取得された前記視線情報と、前記収差分布とに基づいて、前記被験者の収差に対する感受性に関する情報である収差感受性情報を生成する収差感受性情報生成部と、を備える端末装置である。
本発明の一実施形態は、コンピュータが、左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力することと、右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、前記被験者の右眼に画像を提示する右眼表示部に対して出力することと、前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の視線の動きが検出された視線情報を取得することと、取得された前記視線情報と、前記収差分布とに基づいて、前記被験者の収差に対する感受性に関する情報である収差感受性情報を生成することと、を実行する収差感受性情報生成方法である。
本発明の一実施形態は、コンピュータに、左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力することと、右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、前記被験者の右眼に画像を提示する右眼表示部に対して出力することと、前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の視線の動きが検出された視線情報を取得することと、取得された前記視線情報と、前記収差分布とに基づいて、前記被験者の収差に対する感受性に関する情報である収差感受性情報を生成することと、を実行させるためのプログラムである。
以下、図面を参照しながら本実施形態の収差感受性測定システム5について説明する。
収差感受性測定システム5は、端末装置100と、表示装置50とを備えている。図1~図2を参照して表示装置50の構成について説明する。
収差感受性測定システム5は、端末装置100と、表示装置50とを備えている。図1~図2を参照して表示装置50の構成について説明する。
図1は、本実施形態の表示装置50の外観を示す斜視図である。表示装置50は、表示画面を含む本体51と、被験者の顔と表示装置50との位置関係を維持するように本体51を被験者の頭部に固定する支持部52とを備える。本体51は、レンズ保持部53と、レンズ保持部53の前面に配置された表示画面保持部54とを備える。
レンズ保持部53は、表示画面からの光を被験者の左眼および右眼にそれぞれ結像させるための結像レンズ56L,56Rを保持する。結像レンズは一または複数のレンズを含んで構成される。表示画面保持部54は、表示ユニット500として説明する。
表示ユニット500は、被験者の左眼に左眼用画像501Lを表示する左眼表示部500Lと、被験者の右眼に対して右眼用画像501Rを表示する右眼表示部500Rとを備える。
表示装置50は、接続ケーブル55によって端末装置100と接続される。接続ケーブル55を介して、端末装置100から表示装置50に対して画像情報が送信される。表示装置50は、端末装置100から送信された画像情報に基づいて、表示ユニット500に左眼用画像501Lおよび右眼用画像501Rを表示する。また、接続ケーブル55を介して、表示装置50から端末装置100に対して、後述する各種の測定情報が送信される。端末装置100は、表示装置50から送信された測定情報に基づいて、後述する各種の演算を行う。
なお、表示装置50と端末装置100とは、上述した有線通信ではなく(あるいは有線通信に加えて)、無線通信によって接続されていてもよい。
なお、表示装置50と端末装置100とは、上述した有線通信ではなく(あるいは有線通信に加えて)、無線通信によって接続されていてもよい。
図2は、表示装置50の本体51のA-A断面(図1)を模式的に示した図である。表示装置50は、被験者の眼Eが結像レンズ56に対向するように、被験者の眼Eの高さに基づいて配置されている。表示ユニット500から出射した光は、結像レンズ56を通過し、被験者の眼Eに入射する。結像レンズ56は正の屈折力を有し、これにより被験者はHMD(Head Mounted Display)に配置された表示ユニット500に眼Eを容易に合焦することができる。
図3は、オイラー角を説明する図である。被験者の頭部の方向をオイラー角で示す場合、同図のように座標軸を定める。すなわち、被験者の正面方向をz軸、上方向をy軸、右方向をx軸としたローカル座標系において、Yaw(ヨー)がy軸周りの回転(左右)、Pitch(ピッチ)がx軸周りの回転(上下)、Roll(ロール)がz軸周りの回転となる。被験者の視線の方向をオイラー角で示す場合は、xyz座標系の中心を眼の回旋中心位置とする。
[収差感受性測定システムの機能構成]
図4は、本実施形態の収差感受性測定システム5の機能構成の一例を示す図である。本実施形態では、上述の支持部52や結像レンズ56等が有する機能以外の、画像表示に関する機能は表示ユニット500が有する。
図4は、本実施形態の収差感受性測定システム5の機能構成の一例を示す図である。本実施形態では、上述の支持部52や結像レンズ56等が有する機能以外の、画像表示に関する機能は表示ユニット500が有する。
表示ユニット500は、表示画面501と、角度検出部502と、通信部505と、視線検出部506と、画像表示制御部510とを備える。
角度検出部502は、加速度センサ、地磁気センサおよび/またはジャイロセンサを備え、表示ユニット500の向き、角度および/または角速度等の値を検出する。検出したこれらの値から、後述の画像表示制御部510は、被験者が頭部を回転させた角度や、被験者がどの方向を向いているかを算出する。
視線検出部506は、被験者の眼を撮像するカメラ等を備えており、被験者の左右眼の画像から、被験者の左眼の視線方向および右眼の視線方向を、左右個別に検出する。
通信部505は、表示装置と通信を行うための通信装置を含んで構成され、端末装置100から提供される収差感受性検査で使用される画像を取得したり、視線情報などを送信するなどの処理を行う。
画像表示制御部510は、CPU等のプロセッサを含んで構成され、記憶部(不図示)に記憶されたプログラムを実行し、表示画面501に、以下に説明される収差を適用した画像を表示する。
端末装置100は、例えば、コンピュータ装置であり、演算部110と、通信部120と、記憶部130と、入力部140とを備える。
入力部140は、端末装置の表示画面上のプログラム画面の入力を受付け、収差感受性検査で用いる各種パラメータの入力や測定の操作を受け付ける。
通信部120は、所定の通信プロトコルに基づいて表示装置50の通信部505との通信を行う。通信部120は、その機能部として、視線情報取得部121と、頭部位置・姿勢情報取得部122と、画像出力部123とを備える。
頭部位置・姿勢情報取得部122は、左眼用画像501Lおよび右眼用画像501Rの少なくとも一方が提示された被験者の頭部の動きが検出された頭部位置・姿勢情報を取得する。
視線情報取得部121は、左眼用画像501Lおよび右眼用画像501Rの少なくとも一方が提示された被験者の視線の動きが検出された視線情報を取得する。
画像出力部123は、第1画像出力部1231と、第2画像出力部1232とを備える。
第1画像出力部1231は、左眼用画像501Lの画像情報を、被験者の左眼に画像を提示する表示画面501(左眼表示部)に対して出力する。左眼用画像501Lには、左眼用の収差分布である第1の収差分布を設定可能である。
第2画像出力部1232は、右眼用画像501Rの画像情報を、被験者の右眼に画像を提示する表示画面501(右眼表示部)に対して出力する。右眼用画像501Rには、右眼用の収差分布である第2の収差分布を設定可能である。
第1画像出力部1231は、左眼用画像501Lの画像情報を、被験者の左眼に画像を提示する表示画面501(左眼表示部)に対して出力する。左眼用画像501Lには、左眼用の収差分布である第1の収差分布を設定可能である。
第2画像出力部1232は、右眼用画像501Rの画像情報を、被験者の右眼に画像を提示する表示画面501(右眼表示部)に対して出力する。右眼用画像501Rには、右眼用の収差分布である第2の収差分布を設定可能である。
つまり、画像出力部123は、左眼用画像501Lと、右眼用画像501Rとを個別に出力可能である。
左眼用画像501Lの画像情報および右眼用画像501Rの画像情報は、いずれも、演算部110によって生成される。
左眼用画像501Lの画像情報および右眼用画像501Rの画像情報は、いずれも、演算部110によって生成される。
記憶部130は、不揮発性の記憶媒体を含んで構成され、収差感受性検査で使用される画像表示用のプログラム等の各種プログラムや、表示する画像等を記憶する。
演算部110は、例えば、CPU(Central Processing Unit)を備えており、記憶部130に記憶されているプログラムおよびデータに基づいて動作し、各種の機能を提供する。演算部110は、その機能部として、視線中央位置算出部111と、収差感受性情報生成部112と、表示制御部113とを備える。
視線中央位置算出部111は、被験者の視線情報に基づいて、視線中央位置を算出する。
左眼用画像501Lに設定される収差分布、すなわち、左眼用の収差分布(第1の収差分布)は、被験者の左眼の視線中央位置を原点位置とする収差分布(関数)である。
ここで、収差分布(関数)とは、収差を定義する関数によって示される収差分布を意味する。
右眼用画像501Rに設定される収差分布、すなわち、右眼用の収差分布(第2の収差分布)は、被験者の右眼の視線中央位置に基づいた収差分布である。
左眼用画像501Lに設定される収差分布、すなわち、左眼用の収差分布(第1の収差分布)は、被験者の左眼の視線中央位置を原点位置とする収差分布(関数)である。
ここで、収差分布(関数)とは、収差を定義する関数によって示される収差分布を意味する。
右眼用画像501Rに設定される収差分布、すなわち、右眼用の収差分布(第2の収差分布)は、被験者の右眼の視線中央位置に基づいた収差分布である。
視線中央位置算出部111は、被験者の視線情報が示す視線の頻度分布に基づいて、視線中央位置を算出する。例えば、視線中央位置算出部111は、被験者の視線情報が示す視線の頻度分布の所定の範囲(例えば、視線の分布のうち、上限の10%および下限の10%を除外した、中央の90%の範囲)に基づいて、視線中央位置を算出する。
収差感受性情報生成部112は、取得された視線情報と、収差分布とに基づいて、被験者の収差に対する感受性に関する情報である収差感受性情報を生成する。
端末装置100が頭部位置・姿勢情報取得部122を備える場合、収差感受性情報生成部112は、取得された頭部位置・姿勢情報に基づいて、収差感受性情報を生成する。
表示制御部113は、無収差画像に対して種々の収差を適用した収差画像を生成する。表示制御部113は、生成した収差画像を、画像出力部123に対して出力する。
また、第1画像出力部1231および第2画像出力部1232は、収差の分布形態が異なる複数の画像情報を順次出力してもよい。この場合、収差感受性情報生成部112は、順次出力される収差の分布形態ごとに、収差感受性情報を生成する。
画像出力部123が無収差画像に適用する収差の分布形態には、左右眼で収差の程度が互いに異なる分布形態(第1分布形態)が含まれてもよい。
画像出力部123が無収差画像に適用する収差の分布形態には、表示範囲内での収差の程度が一様である分布形態(第2分布形態)が含まれてもよい。
画像出力部123が無収差画像に適用する収差の分布形態には、被験者の視線の中央位置の収差の程度が、表示範囲の縁部での収差の程度よりも小さく設定された分布形態(第3分布形態)が含まれてもよい。
なお、上述において、「画像出力部123が無収差画像に適用する収差の分布形態」とは、「画像出力部123が出力する画像の収差の分布形態であって、表示制御部113によって無収差画像に適用された収差の分布形態」と読み替えてもよい。
図5は、本実施形態の収差感受性測定システム5による感受性評価の動作の流れの一例を示す図である。収差感受性測定システム5は、被験者に対して、順次、収差分布を適用した画像を提示して、被験者の収差感受性を測定する。なお、収差分布を適用した画像には、歪み収差を適用した画像と、ボケ収差を適用した画像とが含まれる。以下の説明において、収差分布を適用した画像の一例として、歪み収差を適用した画像が提示される場合について説明するが、ボケ収差を適用した画像についても同様に提示される。また、歪み収差とボケ収差とを組み合わせて適用した画像が被験者に提示されてもよい。
ステップS1111において、端末装置100の利用者(例えば、眼鏡店舗における被験者の検査担当者)は、被験者にHMD等の表示装置50を着用させ、被験者の視野に表示画面501を配置する。ステップS1111が終了したら、ステップS1112に進む。
ステップS1112において、検査担当者は、異なる収差を備える複数の歪み収差を無収差画像に対して適用した画像Y(以下、歪み収差を適用した画像Y、歪み収差適用画像Y、または単に画像Yともいう。)を、表示画面501に順次表示して、被験者に視認させ、歪み収差適用画像Yを視認した被験者の印象を取得する。検査担当者は、例えば、累進屈折力レンズの側方部La1,La2(不図示)に対応する表示画面501の領域に歪み収差適用画像Yを表示する。
ここで、収差感受性測定システム5は、検査担当者の操作に基づいて、端末装置100から表示装置50に左眼用画像501Lおよび右眼用画像501Rを出力する。表示装置50は、端末装置100から出力された左眼用画像501Lおよび右眼用画像501Rを被験者に提示する。
検査担当者は、表示する歪み収差の歪み方向を固定し、歪み度合を増加させていき、被験者が、その歪み収差適用画像Y(すなわち、歪み収差の変更後の画像Y)を許容できないと回答した歪み収差の歪み方向または(および)歪み度合いを特定する。
ここで、収差感受性測定システム5は、検査担当者の歪み度合の設定操作に基づいて歪み度合を設定し、設定した歪み度合いの左眼用画像501Lおよび右眼用画像501Rを生成する。
さらに、検査担当者は、歪み方向を変えた状態で歪み方向を固定し、歪み度合を増加させていき、被験者が、許容できないと回答した歪み収差適用画像Yを特定する。このように、1つまたは複数の歪み方向について、それぞれ歪み度合の異なる複数の歪み収差適用画像Yを表示する。ステップS1112が終了したら、ステップS1113に進む。
なお、異なる歪み度合を有する歪み収差適用画像Yを提示する順番および反復回数は限定されない。
ここで、収差感受性測定システム5は、検査担当者の操作に基づいて、端末装置100から表示装置50に左眼用画像501Lおよび右眼用画像501Rを出力する。表示装置50は、端末装置100から出力された左眼用画像501Lおよび右眼用画像501Rを被験者に提示する。
検査担当者は、表示する歪み収差の歪み方向を固定し、歪み度合を増加させていき、被験者が、その歪み収差適用画像Y(すなわち、歪み収差の変更後の画像Y)を許容できないと回答した歪み収差の歪み方向または(および)歪み度合いを特定する。
ここで、収差感受性測定システム5は、検査担当者の歪み度合の設定操作に基づいて歪み度合を設定し、設定した歪み度合いの左眼用画像501Lおよび右眼用画像501Rを生成する。
さらに、検査担当者は、歪み方向を変えた状態で歪み方向を固定し、歪み度合を増加させていき、被験者が、許容できないと回答した歪み収差適用画像Yを特定する。このように、1つまたは複数の歪み方向について、それぞれ歪み度合の異なる複数の歪み収差適用画像Yを表示する。ステップS1112が終了したら、ステップS1113に進む。
なお、異なる歪み度合を有する歪み収差適用画像Yを提示する順番および反復回数は限定されない。
ステップS1113において、検査担当者は、歪み収差適用画像Yを視認した被験者の視野における歪みに対する感受性を評価する。検査担当者は、ステップS1112で得られた、歪み収差適用画像Yを視認した被験者からの回答に基づいて、被験者の歪みに対する感受性を、予め定められた基準により数値に変換して記録する。例えば、上述のように歪み収差適用画像Yの歪み度合を、被験者が許容できないと回答するまで増加させていった場合、被験者が最初に許容できないと回答した歪み度合や、被験者が許容できる限界の歪み度合を、被験者の歪みに対する感受性を示すパラメータ(以下、感受性パラメータと呼ぶ)として取得する。すなわち、上記の特定した歪み収差適用画像Yに基づいて感受性パラメータを決定する。
[測定シーン]
次に、収差感受性測定システム5による測定シーンについて説明する。測定シーンとは、収差感受性測定システム5が表示装置50を介して被験者に提示する仮想空間VSの種類のことである。以下の説明において、測定シーンのことを単に”シーン”ともいう。
次に、収差感受性測定システム5による測定シーンについて説明する。測定シーンとは、収差感受性測定システム5が表示装置50を介して被験者に提示する仮想空間VSの種類のことである。以下の説明において、測定シーンのことを単に”シーン”ともいう。
[測定シーン(1)ボケ感度の測定]
収差感度の測定のうち、ボケ感度を測定する際の測定シーンについて説明する。ボケ感度の測定シーンには、一例として、遠用視シーン(または、遠距離視シーン。以下同じ。)、中間距離視シーン、近用視シーン(または、近距離視シーン)などがある。
収差感度の測定のうち、ボケ感度を測定する際の測定シーンについて説明する。ボケ感度の測定シーンには、一例として、遠用視シーン(または、遠距離視シーン。以下同じ。)、中間距離視シーン、近用視シーン(または、近距離視シーン)などがある。
図6は、本実施形態の仮想空間VSにおける測定シーンの第1の例を示す図である。同図には、遠用視シーンの一例を示す。遠用視シーンとは、遠用視における収差感度(例えば、ボケ感度)を測定するためのシーンである。遠用視シーンでは、仮想空間VS内において、被験者から奥行方向(+z方向)に3[m]離れた位置に、仮想ディスプレイが配置されている。この仮想ディスプレイの大きさは、被験者が頭を左右方向に振らずに(つまり、ヨー方向に回転させずに)、視線方向の変更のみで視認できる範囲に設定されている。この一例では、ボケ収差関数には、線形関数が適用される。
仮想空間VS内の仮想ディスプレイには、一例として、横書き文章が表示される。収差感受性測定システム5は、横書き文章の画像を、被験者の左右の眼に個別に提示する。
仮想空間VS内の仮想ディスプレイには、一例として、横書き文章が表示される。収差感受性測定システム5は、横書き文章の画像を、被験者の左右の眼に個別に提示する。
図7は、本実施形態の収差感受性測定システム5が提示するボケ収差を適用した画像PA1の一例を示す図である。同図(A)には、左眼用ボケ収差を適用した画像PA1Lを示す。同図(B)には、右眼用ボケ収差を適用した画像PA1Rを示す。被験者は、左眼用ボケ収差を適用した画像PA1Lを左眼で、右眼用ボケ収差を適用した画像PA1Rを右眼で、それぞれ視認することにより、仮想空間VSにおいて、被験者から奥行方向(+z方向)に3[m]離れた位置に横書きの文章が配置されているように認識する。
収差感受性測定システム5は、左眼用ボケ収差を適用した画像PA1Lのボケの状態と、右眼用ボケ収差を適用した画像PA1Rのボケの状態とを個別に設定可能である。
収差感受性測定システム5は、左眼用ボケ収差を適用した画像PA1Lのボケの状態と、右眼用ボケ収差を適用した画像PA1Rのボケの状態とを個別に設定可能である。
図8は、本実施形態の仮想空間VSにおける測定シーンの第2の例を示す図である。同図には、中間距離視シーンの一例を示す。中間距離視シーンとは、遠用視と近用視との中間の距離である、中間距離における収差感度(例えば、ボケ感度)を測定するためのシーンである。中間距離視シーンでは、仮想空間VS内において、被験者から奥行方向(+z方向)に1[m]離れた位置に、仮想ディスプレイが配置されている。
この一例では、ボケ収差関数には、定数関数が適用される。
この一例では、ボケ収差関数には、定数関数が適用される。
図9は、本実施形態の仮想空間VSにおける測定シーンの第3の例を示す図である。同図には、中間距離視シーンの変形例を示す。この変形例においては、仮想空間VS内において、被験者から奥行方向(+z方向)に1[m]離れた位置に、仮想的な視力(例えば、空間分解能)測定用の図形(例えば、ランドルト環)が配置されている。
図10は、本実施形態の仮想空間VSにおける測定シーンの第4の例を示す図である。同図には、近用視シーンの一例を示す。近用視シーンとは、近距離における収差感度(例えば、ボケ感度)を測定するためのシーンである。近用視シーンでは、仮想空間VS内において、被験者から1.0m程度以内の距離に、仮想の表示デバイスや新聞、書籍などの物体が配置されている。
なお、ボケ感度の測定においては、被験者の視線を誘導する必要がない。このため、収差感受性測定システム5は、ボケ感度の測定シーンには被験者の視線を誘導するガイド物体PGを表示させない。
[測定シーン(2)歪み感度の測定]
収差感度の測定のうち、歪み感度を測定する際の測定シーンについて説明する。歪み感度の測定では、被験者の視線や頭をヨー軸周りに回旋させた状態での、被験者の歪みに対する感受性を測定する。このため、上述したボケ感度の測定シーンとは異なり、歪み感度の測定シーンでは、収差感受性測定システム5は、被験者の視線を誘導する球体などのガイド物体PGをシーンに配置する。
収差感度の測定のうち、歪み感度を測定する際の測定シーンについて説明する。歪み感度の測定では、被験者の視線や頭をヨー軸周りに回旋させた状態での、被験者の歪みに対する感受性を測定する。このため、上述したボケ感度の測定シーンとは異なり、歪み感度の測定シーンでは、収差感受性測定システム5は、被験者の視線を誘導する球体などのガイド物体PGをシーンに配置する。
図11は、本実施形態の仮想空間VSにおける測定シーンの第5の例を示す図である。同図には、歪み感度測定用シーンの一例を示す。歪み感度測定用シーンは、例えば、作業中の机上の様子を模したシーンである。歪み感度測定用シーンでは、仮想空間VS内の中間距離(例えば、被験者から2.0~3.0m程度以内の距離)に、パソコンやディスプレイ、タブレットの画像が、配置されている。
歪み感度測定用シーンにおいて、収差感受性測定システム5は、仮想空間VS内に歪みを歪み収差を適用した画像PA2を被験者に提示する。例えば、歪み収差を適用した画像PA2には、歪みによる物体の各点の位置の移動量が、視点を頂点とする錐台の各位置において異なるように与えられている。
歪み感度測定用シーンにおいて、収差感受性測定システム5は、仮想空間VS内に歪みを歪み収差を適用した画像PA2を被験者に提示する。例えば、歪み収差を適用した画像PA2には、歪みによる物体の各点の位置の移動量が、視点を頂点とする錐台の各位置において異なるように与えられている。
図12は、本実施形態の仮想空間VSにおける視線ガイドの一例を示す図である。同図には、視線ガイドの一例として、仮想空間VS内に浮かぶ仮想球体である球体のガイド物体PG(視線ガイド物体の一例で任意の形状を用いて良い)を示す。収差感受性測定システム5は、ガイド物体を、仮想空間VS内において、左右(x軸方向)・上下(y軸方向)・前後(z軸方向)に移動させる。被験者は、左右・上下・前後に動くガイド物体PGを視線移動あるいは頭の移動によって追いかける。収差感受性測定システム5は、被験者が左右・上下・前後に動くガイド物体PGを、歪みを伴いながら見た場合の測定結果を得ることができる。
図13は、本実施形態の仮想空間VSにおける測定シーンの第6の例を示す図である。同図には、歪み感度測定用シーンの一例として、被験者が運転する自動車の車内からみた様子を示している。同図に示す車内のシーンでは、歪みとボケ収差の状態によって近く(運転パネル部VS61)と遠く(標識や街などの前方視界部VS62)を見たときの視線データを得ることができる。
[収差感受性測定システムが提示する収差の種類]
収差感受性測定システム5は、様々な種類の収差を含む仮想空間VSを提示可能である。例えば、眼鏡レンズの収差には、ボケと歪みとがある。この場合、収差感受性測定システム5は、ボケ、歪み、およびボケと歪みとの組み合わせを、収差として被験者に提示する。
(1)ボケ
本実施形態におけるボケとは、物体の一点から出た光波面が網膜位置で一点に収束せずに広がる現象である。収差感受性測定システム5は、画像処理によって、ボケの現象を仮想空間VSに再現する。
(2)歪み
本実施形態における歪みとは、眼鏡レンズによって光線の進路が変化して、物体の形状が本来の形状から変化して見える現象である。収差感受性測定システム5は、画像処理によって、歪みの現象を仮想空間VSに再現する。収差感受性測定システム5は、歪みの量(例えば、光線の進路の変化による物体の見える位置の変化量)は任意の収差関数f(x,y)や、眼鏡レンズの設計データから計算した値などを適用して、仮想空間VSに歪みを表現する。
収差感受性測定システム5は、様々な種類の収差を含む仮想空間VSを提示可能である。例えば、眼鏡レンズの収差には、ボケと歪みとがある。この場合、収差感受性測定システム5は、ボケ、歪み、およびボケと歪みとの組み合わせを、収差として被験者に提示する。
(1)ボケ
本実施形態におけるボケとは、物体の一点から出た光波面が網膜位置で一点に収束せずに広がる現象である。収差感受性測定システム5は、画像処理によって、ボケの現象を仮想空間VSに再現する。
(2)歪み
本実施形態における歪みとは、眼鏡レンズによって光線の進路が変化して、物体の形状が本来の形状から変化して見える現象である。収差感受性測定システム5は、画像処理によって、歪みの現象を仮想空間VSに再現する。収差感受性測定システム5は、歪みの量(例えば、光線の進路の変化による物体の見える位置の変化量)は任意の収差関数f(x,y)や、眼鏡レンズの設計データから計算した値などを適用して、仮想空間VSに歪みを表現する。
上述した、ボケや歪みなどの収差について、視錐台内の収差の分布をあらかじめ計算しておくことにより、物体の距離に応じた収差量を適用することもできる。
[収差関数の定義]
図14は、視錐台のクリッピング面の一例を示す図である。収差感受性測定システム5は、測定シーンを近クリッピング面に投影した画像を生成する。
図14は、視錐台のクリッピング面の一例を示す図である。収差感受性測定システム5は、測定シーンを近クリッピング面に投影した画像を生成する。
図15は、近クリッピング面の座標系の一例を示す図である。近クリッピング面は、x軸、y軸について、-1から+1の範囲に正規化された座標系である。収差関数f(x,y)は、変数x、変数yが、-1から+1の範囲で定義される。
一般に収差は、3次元空間内での、位置(xg,yg)や角度(θh,θv)を変数とした関数で定義される。
一般に収差は、3次元空間内での、位置(xg,yg)や角度(θh,θv)を変数とした関数で定義される。
図16は、テクスチャ座標系の一例を示す図である。テクスチャ座標系とは、画像データの座標を表すのに座標系である。画像データがテクスチャ座標系(UV座標系)で定義される場合、収差関数f(u,v)は変数uおよび変数vが、0から1の範囲で定義される。
収差感受性測定システム5は、収差関数による画像処理を、テクスチャ座標系の中心位置を原点とした座標系(つまり、画像処理座標系)で行う。
収差感受性測定システム5は、収差関数による画像処理を、テクスチャ座標系の中心位置を原点とした座標系(つまり、画像処理座標系)で行う。
図17は、画像処理座標系の一例を示す図である。収差関数は、同図に示す画像処理座標系(U’V’座標系)での各面内位置における収差値を規定する。
[クリッピング面の座標変換]
位置や角度を変数とした関数を画像処理座標系に変換する手順について説明する。
視錐台の垂直方向視野角をfovy、水平方向視野角をfovx、視点からクリッピング面までの距離をdとする。
位置や角度を変数とした関数を画像処理座標系に変換する手順について説明する。
視錐台の垂直方向視野角をfovy、水平方向視野角をfovx、視点からクリッピング面までの距離をdとする。
[(1)角度からクリッピング面の正規化座標への変換]
図18は、角度からクリッピング面の正規化座標への変換の一例を示す図である。同図(A)には、水平方向についての変換の一例を示す。同図(B)には、垂直方向についての変換の一例を示す。式(1)および式(2)に基づいて、水平方向の角度θh、および垂直方向の角度θvを、正規化座標値(x,y)に変換する。
図18は、角度からクリッピング面の正規化座標への変換の一例を示す図である。同図(A)には、水平方向についての変換の一例を示す。同図(B)には、垂直方向についての変換の一例を示す。式(1)および式(2)に基づいて、水平方向の角度θh、および垂直方向の角度θvを、正規化座標値(x,y)に変換する。
[(2)クリッピング面の正規化座標から角度への変換]
図19は、クリッピング面の正規化座標から角度への変換の一例を示す図である。同図(A)には、水平方向についての変換の一例を示す。同図(B)には、垂直方向についての変換の一例を示す。式(3)および式(4)に基づいて、正規化座標値(x,y)から、水平方向の角度θhおよび垂直方向の角度θvに変換する。この式は、収差関数の変換ではなく、クリッピング座標の測定結果から角度を逆算する場合に用いる。
図19は、クリッピング面の正規化座標から角度への変換の一例を示す図である。同図(A)には、水平方向についての変換の一例を示す。同図(B)には、垂直方向についての変換の一例を示す。式(3)および式(4)に基づいて、正規化座標値(x,y)から、水平方向の角度θhおよび垂直方向の角度θvに変換する。この式は、収差関数の変換ではなく、クリッピング座標の測定結果から角度を逆算する場合に用いる。
[(3)位置からクリッピング面の正規化座標への変換]
画像のピクセル数をw×hとする。画像の物理サイズは物体までの距離をdobjとすると、距離dobjにおける平面の物理サイズはW×Hは、式(5)によって示される。
画像のピクセル数をw×hとする。画像の物理サイズは物体までの距離をdobjとすると、距離dobjにおける平面の物理サイズはW×Hは、式(5)によって示される。
単位ピクセル当たりの物理サイズは、式(6)によって示される。
位置(xg,yg)からクリッピング面の正規化座標(x,y)は、式(7)によって示される。
[(4)クリッピング座標からテクスチャ座標への変換]
クリッピング面の正規化座標(x,y)からテクスチャUV座標系への変換は、式(8)によって示される。
クリッピング面の正規化座標(x,y)からテクスチャUV座標系への変換は、式(8)によって示される。
[(5)テクスチャUV座標系から画像処理座標系への変換]
テクスチャUV座標系から画像処理座標系への変換は、式(9)によって示される。
テクスチャUV座標系から画像処理座標系への変換は、式(9)によって示される。
[ボケ収差関数]
ボケ収差関数はボケの範囲である円または楕円の大きさを位置または角度ごとに定義する。平面の物理サイズW×Hとボケの範囲である円または楕円の大きさから画像処理座標系でのボケ範囲の大きさに変換できる。収差関数の形状は一定値であり、式(10)によって示される。
ボケ収差関数はボケの範囲である円または楕円の大きさを位置または角度ごとに定義する。平面の物理サイズW×Hとボケの範囲である円または楕円の大きさから画像処理座標系でのボケ範囲の大きさに変換できる。収差関数の形状は一定値であり、式(10)によって示される。
なお、ボケ収差関数は、a,bを任意の定数、xo、yoを中心位置オフセット量として線形関数である式(11)によって示すこともできる。
ここで、中心からの距離rを式(12)として表現した場合、ボケ収差関数は、式(13)の表現形式によっても示すことができる。
なお、収差感受性測定システム5は、眼鏡レンズを光線追跡により計算したボケ範囲の大きさをテーブルとして持つこともできる。
[歪み収差関数]
歪み収差関数は眼鏡レンズの歪みにより、見た目の物体がずれる変移量[Δx,Δy]を位置または角度ごとに定義する。収差関数の形状は、aを任意の定数、xo、yoを中心位置オフセット量とし、中心からの距離rを式(14)として示した場合、式(15)によって示される。
歪み収差関数は眼鏡レンズの歪みにより、見た目の物体がずれる変移量[Δx,Δy]を位置または角度ごとに定義する。収差関数の形状は、aを任意の定数、xo、yoを中心位置オフセット量とし、中心からの距離rを式(14)として示した場合、式(15)によって示される。
なお、収差感受性測定システム5は、眼鏡レンズを光線追跡により計算した変移量[Δx,Δy]をテーブルとして持つこともできる。
[収差関数の中心位置の計測]
収差感受性測定システム5は、画像処理により任意の収差分布を適用するときに、事前に収差分布の中心を以下の手順で求める。
収差感受性測定システム5は、画像処理により任意の収差分布を適用するときに、事前に収差分布の中心を以下の手順で求める。
図20は、本実施形態の収差分布の中心を求める際の仮想空間VSの一例を示す図である。収差感受性測定システム5は、仮想空間VS内にガイド物体PG(あるいは、視線ガイド物体ともいう。)を表示させ、被験者に15秒程度、固視してもらう。このとき、収差感受性測定システム5は、仮想空間VS内におけるガイド物体PGの位置を変化させない。
収差感受性測定システム5は、被験者の視線の方向を検出する。収差感受性測定システム5は、被験者の視線の方向と、視錐台の近クリッピング面との交点位置を算出する。
収差感受性測定システム5は、被験者の視線の方向を検出する。収差感受性測定システム5は、被験者の視線の方向と、視錐台の近クリッピング面との交点位置を算出する。
図21は、被験者の視線の方向と視錐台の近クリッピング面との交点位置の経過時間における変化の一例である。同図には、被験者の視線の方向と視錐台の近クリッピング面との交点位置を示す座標(xy)のうち、x軸の座標を例示している。なお、同図(A)は、被験者の左眼についての座標を示す。同図(B)は、被験者の左眼についての座標を示す。
上述したように、収差分布の中心を求める際には、収差感受性測定システム5は、仮想空間VS内におけるガイド物体PGの位置を変化させない。一方で、被験者によっては、ガイド物体PGの位置に視線を合わせ、その位置に視線を維持するまで(すなわち、ガイド物体PGを固視するまで)に時間を要する場合がある。
収差感受性測定システム5は、被験者がガイド物体PGを固視している15秒程度の交点位置の座標データのなかから、ガイド物体PGを表示してから最初の6秒間程度の座標データを採用せず、開始6秒後から11秒後までの5秒間の座標データを、有効座標データVD1として採用する。
上述したように、収差分布の中心を求める際には、収差感受性測定システム5は、仮想空間VS内におけるガイド物体PGの位置を変化させない。一方で、被験者によっては、ガイド物体PGの位置に視線を合わせ、その位置に視線を維持するまで(すなわち、ガイド物体PGを固視するまで)に時間を要する場合がある。
収差感受性測定システム5は、被験者がガイド物体PGを固視している15秒程度の交点位置の座標データのなかから、ガイド物体PGを表示してから最初の6秒間程度の座標データを採用せず、開始6秒後から11秒後までの5秒間の座標データを、有効座標データVD1として採用する。
さらに、収差感受性測定システム5は、取得した有効座標データVD1について、x軸方向およびy軸方向のそれぞれの座標を、昇順(あるいは降順)に並べかえる。すなわち、収差感受性測定システム5は、視線中心の座標について、時間軸で取得された有効座標データVD1を、座標の中心からの距離に応じた順に並べたヒストグラムに変換する。
図22は、本実施形態の収差感受性測定システム5が算出する視線中心座標のクリッピング座標上での分布の一例である。同図(A)は、被験者の左眼の視線中心座標の分布を示す。同図(B)は、被験者の右眼の視線中心座標の分布を示す。
収差感受性測定システム5は、x,y座標別の視線中心座標の分布のうち、座標軸方向の上下5%ずつの座標データを採用せず、座標軸方向の中央90%の範囲の座標データを有効座標データVD2として採用する。
同図に示す一例では、収差感受性測定システム5は、被験者の左眼のx軸方向の有効座標データVD2Lxおよびy軸方向の有効座標データVD2Lyに含まれる座標データを、被験者の左眼の有効座標データVD2Lとして採用する。また、収差感受性測定システム5は、被験者の右眼のx軸方向の有効座標データVD2Rxおよびy軸方向の有効座標データVD2Ryに含まれる座標データを、被験者の右眼の有効座標データVD2Rとして採用する。
同図に示す一例では、収差感受性測定システム5は、被験者の左眼のx軸方向の有効座標データVD2Lxおよびy軸方向の有効座標データVD2Lyに含まれる座標データを、被験者の左眼の有効座標データVD2Lとして採用する。また、収差感受性測定システム5は、被験者の右眼のx軸方向の有効座標データVD2Rxおよびy軸方向の有効座標データVD2Ryに含まれる座標データを、被験者の右眼の有効座標データVD2Rとして採用する。
被験者によっては、ガイド物体PGの位置に視線を合わせる際に、視線のブレ幅が大きくなる場合がある。視線のブレ幅が大きくなると、視線中心座標のブレ幅も大きくなる。収差感受性測定システム5は、座標軸方向の上下5%ずつの座標データを採用せず、90%区間の座標データを採用する構成としている。このため、収差感受性測定システム5によれば、視線のブレ幅が大きい場合でも、測定時のノイズやまばたきなどにより発生する異常な座標値を除去することによって、測定の精度を高めることができる。
収差感受性測定システム5は、採用した有効座標データVD2(つまり、90%区間の座標データ)の中心値の座標値(クリップ座標[-1,1])を収差関数の原点Oとする。
すなわち、収差感受性測定システム5は、左眼の有効座標データVD2Lの分布の中心を左眼の収差原点CLとし、右眼の有効座標データVD2Rの分布の中心を右眼の収差原点CRとする。
すなわち、収差感受性測定システム5は、左眼の有効座標データVD2Lの分布の中心を左眼の収差原点CLとし、右眼の有効座標データVD2Rの分布の中心を右眼の収差原点CRとする。
つまり、収差感受性測定システム5は、被験者の左眼の収差原点CLと、右眼の収差原点CRとを、互いに独立に求める。
図23は、本実施形態の収差感受性測定システム5が提示するボケ収差適用画像PA1の一例を示す図である。収差感受性測定システム5は、被験者の左眼と右眼とにそれぞれ個別に生成したボケ収差を適用した画像PA1を提示する。同図には、左眼用ボケ収差適用画像PA1Lと、右眼用ボケ収差適用画像PA1Rとの一例を示す。これらのボケ収差適用画像PA1では、収差原点CLの付近に比べてボケ領域Bの収差の量(ボケ量)が大きくなるように収差強度が設定されている。
収差感受性測定システム5は、被験者の左眼に提示する左眼用ボケ収差を適用した画像PA1Lを、左眼の収差原点CLに基づいて生成する。収差感受性測定システム5は、被験者の右眼に提示する右眼用ボケ収差を適用した画像PA1Rを、左眼の収差原点CLに基づいて生成する。
したがって、収差感受性測定システム5によれば、被験者個人の左右の眼に応じて、収差分布の中心を視線の中心に合わせることができる。
収差感受性測定システム5は、被験者の左眼に提示する左眼用ボケ収差を適用した画像PA1Lを、左眼の収差原点CLに基づいて生成する。収差感受性測定システム5は、被験者の右眼に提示する右眼用ボケ収差を適用した画像PA1Rを、左眼の収差原点CLに基づいて生成する。
したがって、収差感受性測定システム5によれば、被験者個人の左右の眼に応じて、収差分布の中心を視線の中心に合わせることができる。
[収差条件]
収差感受性測定システム5は、左右のディスプレイの収差条件を変えて、被験者にシーンを体験してもらい、視線や頭部姿勢のデータおよび主観レベルの見え方を記録する。収差条件の具体例について、図24~図28に示す。
収差感受性測定システム5は、左右のディスプレイの収差条件を変えて、被験者にシーンを体験してもらい、視線や頭部姿勢のデータおよび主観レベルの見え方を記録する。収差条件の具体例について、図24~図28に示す。
[収差条件(1)両眼ボケ感度テスト]
図24は、本実施形態のボケ収差についての収差条件の一例を示す図である。一例として、収差感受性測定システム5は、両眼ボケ感度の測定を同図に示した条件で行う。測定段階とは、収差感受性測定システム5が被験者に示す収差条件の順番である。収差感受性測定システム5は、測定段階(つまり、順番)を同図に示す順番ではなく、ランダムに行ってもよい。また、収差感受性測定システム5は、同じ測定段階を繰り返し被験者に提示してもよい。
同図に示した測定段階5や測定段階6のように、本実施形態の収差感受性測定システム5は、被験者の左眼および右眼に、個別に互いに異なる収差条件を適用した画像を提示することができる。
図24は、本実施形態のボケ収差についての収差条件の一例を示す図である。一例として、収差感受性測定システム5は、両眼ボケ感度の測定を同図に示した条件で行う。測定段階とは、収差感受性測定システム5が被験者に示す収差条件の順番である。収差感受性測定システム5は、測定段階(つまり、順番)を同図に示す順番ではなく、ランダムに行ってもよい。また、収差感受性測定システム5は、同じ測定段階を繰り返し被験者に提示してもよい。
同図に示した測定段階5や測定段階6のように、本実施形態の収差感受性測定システム5は、被験者の左眼および右眼に、個別に互いに異なる収差条件を適用した画像を提示することができる。
[収差条件(2)両眼歪み感度テスト]
図25は、本実施形態の歪み収差についての収差条件の一例を示す図である。一例として、収差感受性測定システム5は、両眼歪み感度の測定を同図に示した条件で行う。収差感受性測定システム5は、測定段階(つまり、順番)を同図に示す順番ではなく、ランダムに行ってもよい。また、収差感受性測定システム5は、同じ測定段階を繰り返し被験者に提示してもよい。
図25は、本実施形態の歪み収差についての収差条件の一例を示す図である。一例として、収差感受性測定システム5は、両眼歪み感度の測定を同図に示した条件で行う。収差感受性測定システム5は、測定段階(つまり、順番)を同図に示す順番ではなく、ランダムに行ってもよい。また、収差感受性測定システム5は、同じ測定段階を繰り返し被験者に提示してもよい。
図26は、両眼歪み感度テストにおける左眼の乱視軸および右眼の乱視軸の条件の一例を示す図である。
本実施形態の収差感受性測定システム5は、被験者の左眼と右眼とに、個別に互いに異なる収差条件を適用した画像を提示することができる。したがって、収差感受性測定システム5は、例えば、被験者の左眼の乱視軸および右眼の乱視軸に応じた、個別に互いに異なる収差条件を適用した画像を提示することができる。
本実施形態の収差感受性測定システム5は、被験者の左眼と右眼とに、個別に互いに異なる収差条件を適用した画像を提示することができる。したがって、収差感受性測定システム5は、例えば、被験者の左眼の乱視軸および右眼の乱視軸に応じた、個別に互いに異なる収差条件を適用した画像を提示することができる。
上述した一例では、乱視軸を一定にして、乱視度数を変化させた場合の収差条件の一例を示した。変形例として、乱視度数を一定にして、乱視軸を変化させてもよい。
図27は、本実施形態の歪み収差についての収差条件の変形例を示す図である。
図28は、両眼歪み感度テストにおける左眼の乱視軸および右眼の乱視軸の条件の変形例を示す図である。
収差感受性測定システム5は、変形例において、被験者が最も見え心地の悪いと感じる乱視軸の条件を取得したうえで、当該乱視軸について乱視度数を変化させる、という組み合わせによって測定してもよい。
また、収差感受性測定システム5は、ボケ収差と、歪み収差とのの両方を組み合わせて両眼感度テストを実施してもよい。
図28は、両眼歪み感度テストにおける左眼の乱視軸および右眼の乱視軸の条件の変形例を示す図である。
収差感受性測定システム5は、変形例において、被験者が最も見え心地の悪いと感じる乱視軸の条件を取得したうえで、当該乱視軸について乱視度数を変化させる、という組み合わせによって測定してもよい。
また、収差感受性測定システム5は、ボケ収差と、歪み収差とのの両方を組み合わせて両眼感度テストを実施してもよい。
[測定結果の一例]
図29は、本実施形態の収差感受性測定システム5による測定結果の一例を示す図である。測定結果には、表示装置50から取得する数値データと、被験者に質問して取得する主観の見え心地レベルのデータがある。
図29は、本実施形態の収差感受性測定システム5による測定結果の一例を示す図である。測定結果には、表示装置50から取得する数値データと、被験者に質問して取得する主観の見え心地レベルのデータがある。
[解析結果の一例]
次に、収差感受性測定システム5による解析結果の一例について説明する。
次に、収差感受性測定システム5による解析結果の一例について説明する。
[解析結果(1)頭部方向延長線と仮想物体との衝突位置変化]
図30は、本実施形態の収差感受性測定システム5による解析結果の第1の例を示す図である。収差感受性測定システム5は、仮想空間VSに提示した仮想物体と、仮想空間VS内における被験者の頭部の方向の延長線との交点を算出する。同図(A)には、収差が比較的小さい状態(例えば、収差がゼロの状態)における、交点のx軸方向、y軸方向の動きの時間変化を示す。同図(B)には、収差が比較的大きい状態における、交点のx軸方向、y軸方向の動きの時間変化を示す。
この一例の被験者は、収差が増えると頭部を左右に大きく振る傾向があると解析される。このように、収差感受性測定システム5は、収差の量と頭部の移動の状態との関係性を解析することができる。
図30は、本実施形態の収差感受性測定システム5による解析結果の第1の例を示す図である。収差感受性測定システム5は、仮想空間VSに提示した仮想物体と、仮想空間VS内における被験者の頭部の方向の延長線との交点を算出する。同図(A)には、収差が比較的小さい状態(例えば、収差がゼロの状態)における、交点のx軸方向、y軸方向の動きの時間変化を示す。同図(B)には、収差が比較的大きい状態における、交点のx軸方向、y軸方向の動きの時間変化を示す。
この一例の被験者は、収差が増えると頭部を左右に大きく振る傾向があると解析される。このように、収差感受性測定システム5は、収差の量と頭部の移動の状態との関係性を解析することができる。
[解析結果(2)視線方向延長線と仮想物体との衝突位置変化]
図31は、本実施形態の収差感受性測定システム5による解析結果の第2の例を示す図である。収差感受性測定システム5は、仮想空間VSに提示した仮想物体と、仮想空間VS内における被験者の視線の方向の延長線との交点を算出する。同図(A)には、収差が比較的小さい状態(例えば、収差がゼロの状態)における、交点のx軸方向、y軸方向の動きの時間変化を示す。同図(B)には、収差が比較的大きい状態における、交点のx軸方向、y軸方向の動きの時間変化を示す。
この一例の被験者は、収差の大小に関わらず仮想物体を見る範囲はほぼ同じである。上述した解析結果(1)の結果から類推すると、収差が少ないときは視線を左右に大きく振り、収差が大きいときは視線を小さく振る傾向があると解析される。このように、収差感受性測定システム5は、収差の量と視線の移動の状態との関係性(例えば、視線が目標物体を正しく追跡しているか否か)を解析することができる。
図31は、本実施形態の収差感受性測定システム5による解析結果の第2の例を示す図である。収差感受性測定システム5は、仮想空間VSに提示した仮想物体と、仮想空間VS内における被験者の視線の方向の延長線との交点を算出する。同図(A)には、収差が比較的小さい状態(例えば、収差がゼロの状態)における、交点のx軸方向、y軸方向の動きの時間変化を示す。同図(B)には、収差が比較的大きい状態における、交点のx軸方向、y軸方向の動きの時間変化を示す。
この一例の被験者は、収差の大小に関わらず仮想物体を見る範囲はほぼ同じである。上述した解析結果(1)の結果から類推すると、収差が少ないときは視線を左右に大きく振り、収差が大きいときは視線を小さく振る傾向があると解析される。このように、収差感受性測定システム5は、収差の量と視線の移動の状態との関係性(例えば、視線が目標物体を正しく追跡しているか否か)を解析することができる。
[解析結果(3)視線分布]
図32は、本実施形態の収差感受性測定システム5による解析結果の第3の例を示す図である。収差感受性測定システム5は、仮想空間VSにおける左右の眼前の平面と、被験者の視線の交点の分布(視線分布)を算出する。
同図(A1)は、収差が比較的小さい状態(例えば、収差がゼロの状態)における、被験者の左眼の視線分布を示す。同図(B1)は、収差が比較的小さい状態(例えば、収差がゼロの状態)における、被験者の右眼の視線分布を示す。
同図(A2)は、収差が比較的大きい状態における、被験者の左眼の視線分布を示す。同図(B2)は、収差が比較的大きい状態における、被験者の右眼の視線分布を示す。
視線分布には、90%分布範囲(上述した有効座標データVD2が示す分布範囲)が用いられる。
図32は、本実施形態の収差感受性測定システム5による解析結果の第3の例を示す図である。収差感受性測定システム5は、仮想空間VSにおける左右の眼前の平面と、被験者の視線の交点の分布(視線分布)を算出する。
同図(A1)は、収差が比較的小さい状態(例えば、収差がゼロの状態)における、被験者の左眼の視線分布を示す。同図(B1)は、収差が比較的小さい状態(例えば、収差がゼロの状態)における、被験者の右眼の視線分布を示す。
同図(A2)は、収差が比較的大きい状態における、被験者の左眼の視線分布を示す。同図(B2)は、収差が比較的大きい状態における、被験者の右眼の視線分布を示す。
視線分布には、90%分布範囲(上述した有効座標データVD2が示す分布範囲)が用いられる。
収差感受性測定システム5は、眼をどのくらい左右・上下に動かしているかを解析する。同図に示す一例では、被験者の視線が収差の大きい部分を避けるために、90%分布範囲の幅が狭くなっている例を示す。
[解析結果(4)頭部回旋角度範囲]
図33は、本実施形態の収差感受性測定システム5による解析結果の第4の例を示す図である。収差感受性測定システム5は、頭部方向延長線と物体(ディスプレイ)との衝突位置の分布を角度の分布に変換したときの、角度分布の90%区間幅を算出する。
図33は、本実施形態の収差感受性測定システム5による解析結果の第4の例を示す図である。収差感受性測定システム5は、頭部方向延長線と物体(ディスプレイ)との衝突位置の分布を角度の分布に変換したときの、角度分布の90%区間幅を算出する。
図34は、頭部回旋角度の角度分布の算出結果の第1の例を示す図である。
図35は、頭部回旋角度の角度分布の算出結果の第2の例を示す図である。
収差感受性測定システム5は、頭部の基準方向(例えば、正面方向)と、被験者の現在の頭部の方向とに基づいて、被験者の頭部のオイラー角を算出する。同図に示す一例では、収差感受性測定システム5は、オイラー角のヨー成分と、ピッチ成分の回旋角度とを算出する。
収差感受性測定システム5は、算出した回旋角度の最大値・最小値を、収差条件ごとに、グラフ形式にして提示する。
図35は、頭部回旋角度の角度分布の算出結果の第2の例を示す図である。
収差感受性測定システム5は、頭部の基準方向(例えば、正面方向)と、被験者の現在の頭部の方向とに基づいて、被験者の頭部のオイラー角を算出する。同図に示す一例では、収差感受性測定システム5は、オイラー角のヨー成分と、ピッチ成分の回旋角度とを算出する。
収差感受性測定システム5は、算出した回旋角度の最大値・最小値を、収差条件ごとに、グラフ形式にして提示する。
[解析結果(5)左右眼回旋角度]
図36は、左右眼回旋角度の角度分布の算出結果の第1の例を示す図である。
図37は、左右眼回旋角度の角度分布の算出結果の第2の例を示す図である。
収差感受性測定システム5は、左眼と右眼それぞれの視線分布の横方向(ヨー成分)と縦方向(ピッチ成分)の回旋角度を算出する。収差感受性測定システム5は、算出した回旋角度の最大値・最小値を、収差条件ごとに、グラフ形式にして提示する。
図36は、左右眼回旋角度の角度分布の算出結果の第1の例を示す図である。
図37は、左右眼回旋角度の角度分布の算出結果の第2の例を示す図である。
収差感受性測定システム5は、左眼と右眼それぞれの視線分布の横方向(ヨー成分)と縦方向(ピッチ成分)の回旋角度を算出する。収差感受性測定システム5は、算出した回旋角度の最大値・最小値を、収差条件ごとに、グラフ形式にして提示する。
[解析結果(6)両眼視線回旋幅]
図38は、両眼視線回旋幅の算出結果の第1の例を示す図である。
図39は、両眼視線回旋幅の算出結果の第2の例を示す図である。
ここで、両眼回旋幅とは、左眼の視線回旋幅と、右眼の視線回旋幅とが重なり合った範囲の幅である。収差感受性測定システム5は、回旋幅の開始・終了値、大きさ、収差による影響を解析する。例えば、収差感受性測定システム5は、収差ありの結果から、収差なしの結果を差し引くことにより、収差による影響を算出する。この影響量が小さいほど収差の影響を受けないので、閾値により影響を受ける収差条件を取り出して設計の許容収差レベルとして利用できる。
図38は、両眼視線回旋幅の算出結果の第1の例を示す図である。
図39は、両眼視線回旋幅の算出結果の第2の例を示す図である。
ここで、両眼回旋幅とは、左眼の視線回旋幅と、右眼の視線回旋幅とが重なり合った範囲の幅である。収差感受性測定システム5は、回旋幅の開始・終了値、大きさ、収差による影響を解析する。例えば、収差感受性測定システム5は、収差ありの結果から、収差なしの結果を差し引くことにより、収差による影響を算出する。この影響量が小さいほど収差の影響を受けないので、閾値により影響を受ける収差条件を取り出して設計の許容収差レベルとして利用できる。
[解析結果(7)平均被収差レベル]
図40は、平均被収差レベルの算出結果の第1の例を示す図である。
図41は、平均被収差レベルの算出結果の第2の例を示す図である。
平均被収差レベルは、視線が視野内において、どの収差量部分を使って見ているかを示す。収差感受性測定システム5は、各サンプル時間ごとに、視線位置の収差量を算出する。収差感受性測定システム5は、算出した収差量グラフを積分して、積分値を時間で割った値を平均被収差レベルとする。両眼が同じ収差の場合は、被験者のボケに対する感度視標として利用できる。
図40は、平均被収差レベルの算出結果の第1の例を示す図である。
図41は、平均被収差レベルの算出結果の第2の例を示す図である。
平均被収差レベルは、視線が視野内において、どの収差量部分を使って見ているかを示す。収差感受性測定システム5は、各サンプル時間ごとに、視線位置の収差量を算出する。収差感受性測定システム5は、算出した収差量グラフを積分して、積分値を時間で割った値を平均被収差レベルとする。両眼が同じ収差の場合は、被験者のボケに対する感度視標として利用できる。
[解析結果(8)平均被収差レベル]
図42は、仮想空間VS内におけるのオイラー角の一例を示す図である。
図43は、視線ガイド物体を注視した際の視線角度の変化の一例を示す図である。
図44は、視線ガイド物体を注視した際の頭部角度の変化の一例を示す図である。
図45は、視線角度の変化と、頭部角度の変化とを合成した結果の一例を示す図である。
収差感受性測定システム5は、測定シーン内で視覚目標(視線ガイド物体)を表示して動かす試験の場合は、視覚目標と被験者の視線の間のズレ量を時間軸で解析する。ズレ量の大小が感度の大小に比例する。ズレ量は視線に対して直交する面内での視覚目標と視線交点の距離、または、視線のオイラー回転(ヨー軸周り、ピッチ軸周り、ロール軸周り)の差異として表す。
収差感受性測定システム5は、視線ガイドのオイラー角度から頭部と視線を合わせたオイラー角度の差分を時間軸で積分した値を視覚目標と視線のズレ量とする。
図42は、仮想空間VS内におけるのオイラー角の一例を示す図である。
図43は、視線ガイド物体を注視した際の視線角度の変化の一例を示す図である。
図44は、視線ガイド物体を注視した際の頭部角度の変化の一例を示す図である。
図45は、視線角度の変化と、頭部角度の変化とを合成した結果の一例を示す図である。
収差感受性測定システム5は、測定シーン内で視覚目標(視線ガイド物体)を表示して動かす試験の場合は、視覚目標と被験者の視線の間のズレ量を時間軸で解析する。ズレ量の大小が感度の大小に比例する。ズレ量は視線に対して直交する面内での視覚目標と視線交点の距離、または、視線のオイラー回転(ヨー軸周り、ピッチ軸周り、ロール軸周り)の差異として表す。
収差感受性測定システム5は、視線ガイドのオイラー角度から頭部と視線を合わせたオイラー角度の差分を時間軸で積分した値を視覚目標と視線のズレ量とする。
[解析結果(9)平均瞳孔径]
収差感受性測定システム5は、瞳孔径を算出してもよい。具体的には、収差感受性測定システム5は、瞳孔径の測定結果を昇順または降順に並べ替えて、並び順の中央部分の所定範囲(例えば、90%範囲)を有効データとして採用する。収差感受性測定システム5は、採用した有効データの中間値(例えば、中央値や平均値)を平均瞳孔径とする。
収差感受性測定システム5は、瞳孔径を算出してもよい。具体的には、収差感受性測定システム5は、瞳孔径の測定結果を昇順または降順に並べ替えて、並び順の中央部分の所定範囲(例えば、90%範囲)を有効データとして採用する。収差感受性測定システム5は、採用した有効データの中間値(例えば、中央値や平均値)を平均瞳孔径とする。
[解析結果(10)まばたき回数]
収差感受性測定システム5は、まばたき回数を算出してもよい。具体的には、収差感受性測定システム5は、眼の開放度合いの時間変化に基づいてまばたきの有無を判定することにより、まばたき回数をカウントする。収差感受性測定システム5は、カウントしたまばたき回数を計測時間で割ることにより、単位時間当たりのまばたき回数として評価する。
収差感受性測定システム5は、まばたき回数を算出してもよい。具体的には、収差感受性測定システム5は、眼の開放度合いの時間変化に基づいてまばたきの有無を判定することにより、まばたき回数をカウントする。収差感受性測定システム5は、カウントしたまばたき回数を計測時間で割ることにより、単位時間当たりのまばたき回数として評価する。
[眼鏡レンズの設計視標への利用]
収差感受性測定システム5は、上述した解析結果を、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
収差感受性測定システム5は、上述した解析結果を、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
[眼鏡レンズの設計視標への利用(1)左右感度バランス]
図46は、左右感度バランスの解析結果の第1の例を示す図である。
図47は、左右感度バランスの解析結果の第2の例を示す図である。
収差感受性測定システム5は、右眼と左眼の回旋角度を収差条件ごとに比較した結果を、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
図46は、左右感度バランスの解析結果の第1の例を示す図である。
図47は、左右感度バランスの解析結果の第2の例を示す図である。
収差感受性測定システム5は、右眼と左眼の回旋角度を収差条件ごとに比較した結果を、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
[眼鏡レンズの設計視標への利用(2)視線移動における許容ボケ量]
図48は、収差量と被験者の視線範囲との対応関係の一例を示す図である。収差感受性測定システム5は、回旋幅が大きく落ち込んでいる(つまり、収差を回避して頭部を振って見ている)条件を検出する。収差感受性測定システム5は、該当条件の収差分布のどの部分まで、眼を回旋させているかを算出する。
なお、視線範囲の判定閾値は、視線範囲の開始位置、または、終了位置の値のいずれか(例えば、小さいほう)の収差量とすることができる。
図48は、収差量と被験者の視線範囲との対応関係の一例を示す図である。収差感受性測定システム5は、回旋幅が大きく落ち込んでいる(つまり、収差を回避して頭部を振って見ている)条件を検出する。収差感受性測定システム5は、該当条件の収差分布のどの部分まで、眼を回旋させているかを算出する。
なお、視線範囲の判定閾値は、視線範囲の開始位置、または、終了位置の値のいずれか(例えば、小さいほう)の収差量とすることができる。
[眼鏡レンズの設計視標への利用(3)視線使用比率]
被験者が、モノを見るために頭部と視線を回転させたときの、視線の割合を視線使用比率として定義する。収差感受性測定システム5は、両眼ともクリアに見える場合(00/00)に対して、収差の条件を変えた場合の比率の変化を算出する。
視線使用比率の算出式を式(16)に示す。
被験者が、モノを見るために頭部と視線を回転させたときの、視線の割合を視線使用比率として定義する。収差感受性測定システム5は、両眼ともクリアに見える場合(00/00)に対して、収差の条件を変えた場合の比率の変化を算出する。
視線使用比率の算出式を式(16)に示す。
図49は、視線使用比率の解析結果の第1の例を示す図である。
図50は、視線使用比率の解析結果の第2の例を示す図である。
収差感受性測定システム5は、視線使用比率を収差条件ごとに算出した結果を、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
図50は、視線使用比率の解析結果の第2の例を示す図である。
収差感受性測定システム5は、視線使用比率を収差条件ごとに算出した結果を、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
[眼鏡レンズの設計視標への利用(4)許容歪み量]
収差感受性測定システム5は、歪み感度テストの主観評価結果(例えば、レベル3:少し違和感を感じる)に基づいた乱視度数を許容歪み度数として、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
収差感受性測定システム5は、歪み感度テストの主観評価結果(例えば、レベル3:少し違和感を感じる)に基づいた乱視度数を許容歪み度数として、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
[眼鏡レンズの設計視標への利用(5)許容乱視軸左右差]
収差感受性測定システム5は、左右の乱視軸の差を変化させた場合の主観評価結果(例えば、レベル3:少し違和感を感じる)に基づいた左右許容乱視軸度差として、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
収差感受性測定システム5は、左右の乱視軸の差を変化させた場合の主観評価結果(例えば、レベル3:少し違和感を感じる)に基づいた左右許容乱視軸度差として、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標として出力する。
以上のように収差感受性測定システム5によれば、被験者の個人差や左右の眼の感度差を反映した眼鏡レンズの設計指標となるデータ(例えば、収差感受性)を取得することができる。
また、収差感受性測定システム5によれば、画像処理による仮想眼鏡レンズによって収差感受性を取得するため、例えば、物理的なテストレンズでは実現が困難な収差での見え方を被験者に体験させながら、感度パラメータを測定できる。
また、収差感受性測定システム5によれば、画像処理による仮想眼鏡レンズによって収差感受性を取得するため、例えば、物理的なテストレンズでは実現が困難な収差での見え方を被験者に体験させながら、感度パラメータを測定できる。
[眼鏡レンズ受発注システム]
図51は、本実施形態の眼鏡レンズ受発注システム10の機能構成の一例を示す図である。眼鏡レンズ受発注システム10は、眼鏡店(すなわち、眼鏡レンズの発注者)に設置される発注装置1と、レンズメーカに設置される受注装置2、加工機制御装置3、および眼鏡レンズ加工機4と、を含んで構成される。
図51は、本実施形態の眼鏡レンズ受発注システム10の機能構成の一例を示す図である。眼鏡レンズ受発注システム10は、眼鏡店(すなわち、眼鏡レンズの発注者)に設置される発注装置1と、レンズメーカに設置される受注装置2、加工機制御装置3、および眼鏡レンズ加工機4と、を含んで構成される。
発注装置1と受注装置2とは、例えばインターネット等のネットワーク5を介して通信可能に接続されている。また、受注装置2には、加工機制御装置3が接続されており、加工機制御装置3には眼鏡レンズ加工機4が接続されている。なお、図7では、図示の都合上、発注装置1を1つのみ記載しているが、実際には複数の眼鏡店に設置された複数の発注装置1が受注装置2に接続されている。
発注装置1は、眼鏡レンズの発注処理を行うコンピュータであり、制御部11と、記憶部12と、通信部13と、表示部14と、入力部15と、を含む。制御部11は、CPU等のプロセッサを含んで構成され、記憶部12に記憶されたプログラムを実行することにより、発注装置1を制御する。制御部11は、眼鏡レンズの発注処理を行う発注処理部111を備える。通信部13は、受注装置2とネットワーク5を介して通信を行う。表示部14は、液晶ディスプレイやCRT等の表示装置であり、発注する眼鏡レンズの情報(発注情報)を入力するための発注画面等を表示する。入力部15は、マウスやキーボード等の入力装置を含む。入力部15を介して、発注画面の内容に応じた発注情報等が入力される。
なお、表示部14と入力部15とはタッチパネル等により一体的に構成されていてもよい。
なお、表示部14と入力部15とはタッチパネル等により一体的に構成されていてもよい。
受注装置2は、眼鏡レンズの受注処理や設計処理、光学性能の演算処理等を行うコンピュータであり、制御部21と、記憶部22と、通信部23と、表示部24と、入力部25とを含んで構成される。制御部21は、CPU等のプロセッサを含んで構成され、記憶部22に記憶されたプログラムを実行することにより、受注装置2を制御する。制御部21は、眼鏡レンズの受注処理を行う受注処理部211と、眼鏡レンズの設計処理を行う設計部212とを備える。通信部23は、発注装置1とネットワーク5を介して通信を行ったり、加工機制御装置3と通信を行ったりする。記憶部22は、眼鏡レンズ設計のための各種データを読み出し可能に記憶する。表示部24は、液晶ディスプレイやCRT等の表示装置であり、眼鏡レンズの設計結果等を表示する。入力部25は、マウスやキーボード等の入力装置を含んで構成される。
なお、表示部24と入力部25とはタッチパネル等により一体的に構成されていてもよい。また、受注装置2の機能を、受注処理部211を備える受注装置と設計部212を備える設計装置により行ってもよい。
なお、表示部24と入力部25とはタッチパネル等により一体的に構成されていてもよい。また、受注装置2の機能を、受注処理部211を備える受注装置と設計部212を備える設計装置により行ってもよい。
図52は、本実施形態の眼鏡レンズ受発注システムの動作の流れの一例を示す図である。眼鏡レンズ受発注システム10において、眼鏡レンズを提供する手順について、同図に示すフローチャートを用いて説明する。同図の左側には眼鏡店側で行う手順S11~S13を示し、同図の右側にはレンズメーカ側で行う手順S21~S23を示す。眼鏡レンズ受発注システム10における眼鏡レンズの製造方法では、上述の眼鏡レンズの設計方法により眼鏡レンズが設計される。
ステップS11において、発注者は、被験者の視覚に対する感受性に関する情報を取得する。本実施形態では、図53に示すように、発注者は、被験者を被験者として収差感受性検査を行い、被験者の歪みに対する感受性に関する情報を取得する。
図53は、ステップS11における詳細な動作の流れの一例を示す図である。ステップS1111において、発注者は、被験者にHMD等の表示装置50を着用させ、被験者の視野に表示画面501を配置する。ステップS1111が終了したら、ステップS1112に進む。
ステップS1112において、発注者は、異なる歪みを備える複数の歪み収差適用画像Yを、表示画面501に順次表示して、被験者に視認させ、歪み収差適用画像Yを視認した被験者の印象を取得する。発注者は、例えば、図6で示されたような、累進屈折力レンズの側方部La1,La2に対応する表示画面501の領域に歪み収差適用画像Yを表示する。発注者は、表示する歪み収差適用画像Yの歪み方向を固定し、歪み度合を増加させていき、被験者が、歪み収差適用画像Yを許容できないと回答した歪み収差適用画像Yを特定する。さらに、歪み方向を変えた状態で歪み方向を固定し、歪み度合を増加させていき、被験者が、許容できないと回答した歪み収差適用画像Yを特定する。このように、1つまたは複数の歪み方向について、それぞれ歪み度合の異なる複数の歪み収差適用画像Yを表示する。ステップS1112が終了したら、ステップS1113に進む。
なお、異なる歪み度合を有する歪み収差を適用する順番は特に限定されない。
ステップS1113において、発注者は、歪み収差適用画像Yを視認した被験者の視野における歪みに対する感受性を評価する。発注者は、ステップS1112で得られた、歪み収差適用画像Yを視認した被験者からの回答に基づいて、被験者の歪みに対する感受性を、予め定められた基準により数値に変換して記録する。例えば、上述のように歪み収差適用画像Yの歪み度合を、被験者が許容できないと回答するまで増加させていった場合、被験者が最初に許容できないと回答した歪み収差適用画像Yの歪み度合や、被験者が許容できる限界の歪み収差適用画像Yの歪み度合を、被験者の歪みに対する感受性を示すパラメータ(以下、感受性パラメータと呼ぶ)として取得する。すなわち、上記の特定した歪み収差を適用した画像に基づいて感受性パラメータを決定する。ステップS1113が終了したら、ステップS12に進む。
図52に戻り、ステップS12において、発注者は、ステップS1113において取得した、感受性パラメータ等の、被験者の視野における歪みに対する感受性に関する情報を含む、眼鏡レンズの発注情報を決定する。そして、発注者は、発注装置1の表示部14に発注画面を表示させ、入力部15を介して発注情報を入力する。
ステップS13において、発注装置1は、当該発注情報を、通信部13を介して受注装置2へ送信する。
ステップS21において、受注装置2の受注処理部211は、通信部23を介して、発注装置1から発注情報を受信すると、ステップS22に進む。ステップS22において、受注装置2の設計部212は、受信した発注情報に基づいて眼鏡レンズの設計を行う。
図54は、ステップS22における詳細な動作の流れの一例を示す図である。ステップS2211において、受注装置2は、眼鏡レンズの処方データと、被験者の歪みに対する感受性に関する情報および/または非点収差の小さい範囲を示す指標等の設計パラメータとを取得する。受注装置2は、適宜フレームの前傾角、そり角、角膜頂点間距離等のフィッティングパラメータ等も取得する。ステップS2211が終了したらステップS2212に進む。
ステップS2212において、受注装置2の設計部212は、ステップS2211で取得した被験者の歪みに対する感受性に関する情報および/または設計パラメータに基づいて眼鏡レンズの目標収差分布または/および目標度数分布を設定する。
ステップS2213において、受注装置2は、設定された目標収差分布または/および目標度数分布に基づいて、眼鏡レンズのレンズ全体の形状を決定する。ステップS2213が終了したら、ステップS2214に進む。
ステップS2214において、受注装置2は、眼鏡レンズの屈折力、非点収差等の光学特性が所望の条件を満たすかを判定する。所望の条件とは、被験者の感受性を反映しつつ、全ての処方を満たしている条件をいう。所望の条件を満たす場合、ステップS2214を肯定判定し、設計処理を終了し、ステップS23に進む。所望の条件を満たさない場合、ステップS2214を否定判定し、ステップS2213に戻る。
図52に戻り、ステップS23において、受注装置2は、ステップS22で設計した眼鏡レンズの設計データを加工機制御装置3に出力する。加工機制御装置3は、受注装置2から出力された設計データに基づいて、眼鏡レンズ加工機4に加工指示を送る。この結果、眼鏡レンズ加工機4によって、当該設計データに基づく眼鏡レンズが加工され、製造される。眼鏡レンズ加工機4によって製造された眼鏡レンズが眼鏡店に出荷され、眼鏡フレームにはめ込まれて顧客(被験者、または眼鏡の装用者)に提供される。
なお、受注装置2において、発注装置1から発注情報を受信する処理、受信した発注情報に基づいて眼鏡レンズを設計する処理、眼鏡レンズの設計データを加工機制御装置3に出力する処理については、受注装置2の制御部21が、記憶部22に予めインストールされた所定のプログラムを実行することによって行う。
本実施形態の眼鏡レンズ受発注システムによれば、収差感受性測定システム5によって測定された、被験者(装用者)の両眼それぞれの感受性に基づいて、装用者に合った眼鏡レンズを設計することができる。
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。
なお、上記の実施形態における各装置が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、各装置が備える各部は、メモリおよびCPU(中央演算装置)により構成され、各装置が備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、各装置が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部が備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1…発注装置、2…受注装置、3…加工機制御装置、4…眼鏡レンズ加工機、5…収差感受性測定システム、10…端末装置、110…演算部、111…視線中央位置算出部、112…収差感受性情報生成部、113…表示制御部、120…通信部、121…視線情報取得部、122…頭部位置・姿勢情報取得部、123…画像出力部、1231…第1画像出力部、1232…第2画像出力部、130…記憶部、140…入力部、50…表示装置、52…支持部、56…結像レンズ、500…表示ユニット、501…表示画面、502…角度検出部、505…通信部、506…視線検出部、510…画像表示制御部、VS…仮想空間、VS61…運転パネル部、VS62…前方視界部、PG…ガイド物体、PA1…ボケ収差を適用した画像、PA2…歪み収差を適用した画像
Claims (10)
- 左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力する第1画像出力部と、
右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、前記被験者の右眼に画像を提示する右眼表示部に対して出力する第2画像出力部と、
前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の視線の動きが検出された視線情報を取得する視線情報取得部と、
取得された前記視線情報と、前記収差分布とに基づいて、前記被験者の収差に対する感受性に関する情報である収差感受性情報を生成する収差感受性情報生成部と、
を備える端末装置。 - 前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の頭部の動きが検出された頭部位置・姿勢情報を取得する頭部位置・姿勢情報取得部
をさらに備え、
前記収差感受性情報生成部は、取得された前記頭部位置・姿勢情報にさらに基づいて、前記収差感受性情報を生成する
請求項1に記載の端末装置。 - 前記第1の収差分布は、前記被験者の左眼の視線中央位置を原点位置とする収差分布であり、
前記第2の収差分布は、前記被験者の右眼の視線中央位置を原点位置とする収差分布であって、
前記被験者の前記視線情報に基づいて、前記視線中央位置を算出する視線中央位置算出部
をさらに備える
請求項1に記載の端末装置。 - 前記視線中央位置算出部は、前記被験者の前記視線情報が示す視線の頻度分布に基づいて、前記視線中央位置を算出する
請求項3に記載の端末装置。 - 前記第1画像出力部および前記第2画像出力部は、前記収差の分布形態が異なる複数の画像情報を順次出力し、
前記収差感受性情報生成部は、前記分布形態ごとに、前記収差感受性情報を生成する
請求項1に記載の端末装置。 - 前記収差の分布形態には、左右眼で収差の程度が互いに異なる第1分布形態が含まれる
請求項5に記載の端末装置。 - 前記収差の分布形態には、表示範囲内での収差の程度が一様である第2分布形態が含まれる
請求項5に記載の端末装置。 - 前記収差の分布形態には、前記被験者の視線の中央位置の収差の程度が、表示範囲の縁部での収差の程度よりも小さく設定された第3分布形態が含まれる
請求項5に記載の端末装置。 - コンピュータが、
左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力することと、
右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、前記被験者の右眼に画像を提示する右眼表示部に対して出力することと、
前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の視線の動きが検出された視線情報を取得することと、
取得された前記視線情報と、前記収差分布とに基づいて、前記被験者の収差に対する感受性に関する情報である収差感受性情報を生成することと、
を実行する収差感受性情報生成方法。 - コンピュータに、
左眼用の収差分布である第1の収差分布を設定可能な左眼用画像の画像情報を、被験者の左眼に画像を提示する左眼表示部に対して出力することと、
右眼用の収差分布である第2の収差分布を設定可能な右眼用画像の画像情報を、前記被験者の右眼に画像を提示する右眼表示部に対して出力することと、
前記左眼用画像および前記右眼用画像の少なくとも一方が提示された前記被験者の視線の動きが検出された視線情報を取得することと、
取得された前記視線情報と、前記収差分布とに基づいて、前記被験者の収差に対する感受性に関する情報である収差感受性情報を生成することと、
を実行させるためのプログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023217569 | 2023-12-25 | ||
| JP2023-217569 | 2023-12-25 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025142341A1 true WO2025142341A1 (ja) | 2025-07-03 |
Family
ID=96217489
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/042725 Pending WO2025142341A1 (ja) | 2023-12-25 | 2024-12-03 | 端末装置、収差感受性情報生成方法およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| TW (1) | TW202541747A (ja) |
| WO (1) | WO2025142341A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015194511A (ja) * | 2014-03-31 | 2015-11-05 | ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd | 眼鏡レンズを製造するための装置、方法及びプログラム並びに眼鏡レンズの製造方法及びレンズ供給システム |
| JP2018146604A (ja) * | 2017-03-01 | 2018-09-20 | 東海光学株式会社 | 眼鏡用レンズの設計方法、製造方法及び供給システム |
| WO2019009034A1 (ja) * | 2017-07-03 | 2019-01-10 | 株式会社ニコン・エシロール | 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ、眼鏡レンズ発注装置、眼鏡レンズ受注装置および眼鏡レンズ受発注システム |
| JP2022128697A (ja) * | 2021-02-24 | 2022-09-05 | 矢崎総業株式会社 | 視線検出装置 |
-
2024
- 2024-12-03 WO PCT/JP2024/042725 patent/WO2025142341A1/ja active Pending
- 2024-12-20 TW TW113149881A patent/TW202541747A/zh unknown
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015194511A (ja) * | 2014-03-31 | 2015-11-05 | ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd | 眼鏡レンズを製造するための装置、方法及びプログラム並びに眼鏡レンズの製造方法及びレンズ供給システム |
| JP2018146604A (ja) * | 2017-03-01 | 2018-09-20 | 東海光学株式会社 | 眼鏡用レンズの設計方法、製造方法及び供給システム |
| WO2019009034A1 (ja) * | 2017-07-03 | 2019-01-10 | 株式会社ニコン・エシロール | 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ、眼鏡レンズ発注装置、眼鏡レンズ受注装置および眼鏡レンズ受発注システム |
| JP2022128697A (ja) * | 2021-02-24 | 2022-09-05 | 矢崎総業株式会社 | 視線検出装置 |
Non-Patent Citations (1)
| Title |
|---|
| EMOTO, M. ET AL.: "Correlation Between Peak Velocity of Saccades and Susceptibility to Motion Blur", JOURNAL OF DISPLAY TECHNOLOGY, vol. 12, no. 9, September 2016 (2016-09-01), pages 976 - 981, XP011621144, DOI: 10.1109/JDT.2016.2550027 * |
Also Published As
| Publication number | Publication date |
|---|---|
| TW202541747A (zh) | 2025-11-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6308277B2 (ja) | 視線検出装置、表示方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、眼鏡レンズ製造方法、および印刷物 | |
| US6659611B2 (en) | System and method for eye gaze tracking using corneal image mapping | |
| US9259146B2 (en) | Binocular visual performance measuring method, binocular visual performance measuring program, eyeglass lens design method and eyeglass lens manufacturing method | |
| US11754856B2 (en) | Method for designing eyeglass lens, method for manufacturing eyeglass lens, eyeglass lens, eyeglass lens ordering device, eyeglass lens order receiving device, and eyeglass lens ordering and order receiving system | |
| JP7168953B2 (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
| CN112740665A (zh) | 基于头部运动的瞳孔间距离补偿的观察系统 | |
| JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
| JP6500570B2 (ja) | 画像表示装置および画像表示方法 | |
| Lin et al. | Effects of virtual target size, position, and parallax on vergence-accommodation conflict as estimated by actual gaze | |
| CN113613546B (zh) | 评估用于视觉任务的视觉设备的性能的装置和方法 | |
| JP6519099B2 (ja) | 視線検出方法、視線検出装置、眼鏡レンズ設計方法および眼鏡レンズ製造方法 | |
| CA3088248C (en) | Image generating device, eyeglass lens selection system, method for image generation and program | |
| WO2025142341A1 (ja) | 端末装置、収差感受性情報生成方法およびプログラム | |
| JP2024541440A (ja) | 被験者の眼球運動性を評価するための装置、システム、及びコンピュータ実施方法 | |
| EP4171350B1 (en) | Method and device for determining at least one astigmatic effect of at least one eye | |
| JP2021148907A (ja) | 評価装置、評価システム、評価サーバ及び評価プログラム | |
| JP7548637B2 (ja) | 眼優位性を定量化するためのシステムおよび方法 | |
| US20250281085A1 (en) | Systems and methods for performing a motor skills neurological test using augmented or virtual reality | |
| WO2025263134A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
| WO2024047990A1 (ja) | 情報処理装置 | |
| JP2024104924A (ja) | 眼科装置、眼科装置の制御方法、及びプログラム | |
| Littell | Physiological effects of monocular display augmented, articulated arm-based laser digitizing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24912231 Country of ref document: EP Kind code of ref document: A1 |