[go: up one dir, main page]

WO2023111365A1 - Sistema de seguimiento de la direccion de la mirada - Google Patents

Sistema de seguimiento de la direccion de la mirada Download PDF

Info

Publication number
WO2023111365A1
WO2023111365A1 PCT/ES2021/070891 ES2021070891W WO2023111365A1 WO 2023111365 A1 WO2023111365 A1 WO 2023111365A1 ES 2021070891 W ES2021070891 W ES 2021070891W WO 2023111365 A1 WO2023111365 A1 WO 2023111365A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
light sources
light
camera
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/ES2021/070891
Other languages
English (en)
French (fr)
Inventor
Diego MARCOS GONZALEZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neocortex Digital SL
Original Assignee
Neocortex Digital SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neocortex Digital SL filed Critical Neocortex Digital SL
Priority to EP21967966.9A priority Critical patent/EP4449975A4/en
Priority to US18/720,141 priority patent/US20250157073A1/en
Priority to PCT/ES2021/070891 priority patent/WO2023111365A1/es
Publication of WO2023111365A1 publication Critical patent/WO2023111365A1/es
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention refers to an eye analysis system, more specifically it refers to a gaze direction tracking system.
  • Eye tracking (“eye tracking” in English) is the process of evaluating either the point where the gaze is fixed (where we are looking), or the rotation movement of the eye in relation to the head.
  • Gaze tracking systems (“eye-trackers”) are known and widely used in commercial applications, such as: video games, hands-free interface for computer interaction, user visual interest analysis in complex environments. , etc.
  • the direction of gaze is the line that joins the active PRL (preferred retinal locus) with the center of rotation of the eye.
  • PRL preferred retinal locus
  • the PRL can be found outside the fovea.
  • a user can use more than one PRL, each one in its position associated with the eye, but there can only be one PRL active at any given time. This implies that the direction of gaze, that is, the line that joins the active PRL with the center of eye rotation, changes when the user changes PRL. However, the measurement precision required to detect them exceeds what is available in the state of the art.
  • Gaze tracking systems using video imaging typically comprise two or more infrared LEDs, to induce reflections on the visible surface of the user's eye (i.e., the cornea and/or sclera of the eye), and a camera Infrared imaging to capture an image of the user's eye, including flashes caused by such reflections.
  • the LEDs are located symmetrically on a flat ring around the camera.
  • the gaze direction calculation is performed by a controller, with at least one processor, which collects the image captured by the infrared camera.
  • this calculation is carried out image by image, the images being obtained under a constant infrared lighting system, and consists of determining the center of rotation of the eye (through which it passes in the line of gaze direction), as well as the contour of the pupil and the relative position of the flashes with respect to the contour of the pupil.
  • the image being analyzed is a flat image (2D) that lacks information to detect depth, which makes these systems not very robust to variations in the user's position and its effects, specifically, to variations in the distance of the eye and/or the distance of the pupil to the camera.
  • these systems perform their calculations taking some hypotheses that are far from reality, such as: i) that the user's pupil is always an ellipse; ii) that the pupil moves jointly with the eye; and iii) that the direction of gaze of the user passes, at all times, through the geometric center of the ellipse of the pupil.
  • the flash does not allow to detect the contour of the pupil with quality nor to determine the geometric coordinates of the pupil with respect to that reference point, for which deteriorates the quality of the information for the purposes of calculating the gaze direction.
  • the position reference between the camera and the eye is temporarily lost (in the worst case, the pupil of the eye may be outside the field of view of the camera). In these cases, image quality is lost, further deteriorating the accuracy of the gaze tracking system.
  • the user's eye produces between 20 and 40 fixations in that time, along with other eye movements, at least drifting and microsaccadic, and eventually saccadic, around the area in which it is placed. displays the stimulus introducing a significant error in the calibration.
  • a gaze direction tracking system is needed that takes into account the true 3D geometry of the eye, as well as reliably detects the contour of the pupil at all times, thereby obtaining more accurate results.
  • the object of the present invention is a system for tracking the direction of a user's gaze, which comprises: a plurality of light sources that emit infrared light on at least one eye of the user; a camera configured to capture infrared images of the eye; a controller comprising at least one processor, wherein the controller is configured to: o detect a plurality of flashes in an image of the eye captured by the camera, where each flash is a reflection of one of the light sources on the surface visible to the eye; I make a correspondence between each detected flash and the light source that generated said flash on the visible surface of the eye; characterized in that: the plurality of light sources is arranged in the form of a matrix covering at least partially the visible surface of the eye; and: the controller is further configured to: o analyze the image of the eye and determine to which region of the eye each pixel of the image belongs; or generating a 3D geometry of the eye from the plurality of flashes relative to an absolute geometric reference determined by the position of the camera and the pluralit
  • the plurality of light sources emit light toward an eye of the user, such that each light source generates flashes on the visible surface of the eye (either the cornea or the sclera of the eye).
  • the camera captures an image of the eye, said image being analyzed by the controller, determining to which region of the eye (for example, pupil, iris, sclera, eyelid, eyelashes or corners) each pixel of the image belongs.
  • the plurality of light sources are arrayed at different distances from each other vertically and horizontally, covering at least partially (or completely) the visible surface of the eye.
  • This matrix distribution of the plurality of light sources produces a distribution of flashes whose correlative distances will change depending on the depth of the region of the eye in which they are produced, which will allow the generation of 3D geometry.
  • each flash can be easily correlated with its corresponding light source. Producing a wide distribution of glare on the surface of the eye reduces problems caused by blinking or drooping, as glare is still visible in the eye image even under these conditions.
  • the ocular center of rotation is kept in a constant position relative to the eye, when the controller compares two images of the eye corresponding to two gaze directions (for example, those obtained after a rotation of the eye). eye), you can easily establish the ocular center of rotation more precisely, which is critical for gaze direction calculation.
  • the controller is further configured to: detect characteristic eye movements in a series of images of the eye captured by the camera during a gaze fixation estimate a point outside the eye of the gaze direction line based on the characteristic movements of the eye in said fixation; defining an active PRL of the eye in the 3D geometry of the eye as the point of intersection with the back of the 3D geometry of the eye of the gaze direction line defined by the center of eye rotation and the point outside the eye.
  • Fixation is the name given to the visual process by which the user positions the image of a stimulus on his active PRL and by which his visual system extracts information about the content in spatial frequencies (and other information, such as color, etc.) from what go. To obtain this information, the eye must move with a characteristic movement called drift (drift), interrupted by other so-called microsaccades that reposition the image of the stimulus on the fovea.
  • drift drift
  • the present system uses the characteristic movements of the eye in a fixation. These movements are involuntary and occur exclusively when there is a stimulus on which the user can fix his gaze. If, for example, this stimulus is unique in the user's virtual visual space and the user's eye shows fixation movements, it can be concluded that the user is fixating on that stimulus.
  • the PRL determined in this way is integral with the eye, it will serve for the automatic determination of the gaze direction as the direction of the axis that passes through the center of ocular rotation and the active PRL.
  • the determination of the direction of gaze in the present system is defined as the line or axis that joins the active PRL (whether or not it is in the fovea) with the center of rotation of the eye.
  • This line is completely independent of the pupil and has no relation to the contour of the pupil nor does it have to pass through its center.
  • the plurality of light sources comprises at least two groups of light sources configured to alternately emit light, ie when the light sources of one group are on, the rest of the light sources would be off.
  • This alternation between groups of light sources is done periodically, preferably every two images captured by the camera at a sampling frequency much higher than that of eye movements, this allows it to be done frequently enough for the rotation to occur. of the eye between both images is negligible, which allows obtaining satisfactory results.
  • At least one of the following techniques can be used, in isolation or in combination, to produce a flash with reduced position uncertainty.
  • the use of different techniques for the determination of this absolute geometric reference on the visible surface of the eye allows that, in the event that one of these techniques stops working, the system could use another technique, allowing the system to continue determining the absolute geometric reference. on the visible surface of the eye.
  • At least one light source is configured to emit a light source of a different geometric size than the rest of the plurality of light sources
  • the controller being configured to determine the absolute geometric reference on the visible surface of the eye by identifying the flash in the image of the eye in relation to the corresponding light source configured to emit a light source of different geometric size than the rest of the plurality of light sources.
  • one way to configure the light source so that it emits a light source of a different geometric size, in this case much smaller, than the rest of the plurality of light sources would be to collimate the light beam emitted by said light source.
  • light source by means of a collimation mask that converts the diverging light beam coming from the light source into a parallel beam in such a way that its geometric size decreases.
  • At least one light source is configured to emit a light source of different power than the rest of the plurality of light sources
  • the controller being configured to determine the absolute geometric reference on the visible surface of the eye by identifying the flash in the image of the eye in relation to the light source configured to emit a light source of different power than the rest of the plurality of light sources.
  • At least two light sources are closer to each other than the distance between the rest of the plurality of light sources, the controller being configured to determine the absolute geometric reference on the visible surface of the eye by identifying the flashes in the eye image relative to light sources that are closer together than the distance between the rest of the plurality of light sources.
  • the system comprises a narrow beam light emitter, the controller being configured to determine the absolute geometric reference on the visible surface of the eye by identifying a reflection on the visible surface of the eye relative to the narrow beam light emitter.
  • said narrow beam light emitter would be centered with the optical axis of the camera, thus improving the determination of the absolute geometric reference, with which the geometric relationship between the camera, the plurality of light sources and the /o the narrow beam light emitter and the flashes analyzed in each image of the eye captured by the camera, thus improving the generation of the 3D geometry of the eye.
  • the narrow beam light emitter emits an infrared laser.
  • This reflection can be achieved equally with both technologies, as both emit a narrow beam light beam that produces a much smaller point reflection than reflections from multiple light sources.
  • This most punctual reflection is used by the present system both to determine the absolute geometric reference on the visible surface of the eye, and to improve the resolution of its position and use it to improve the position estimation of the other reflections of the eye. multiple light sources.
  • the same narrow-beam light beam that produces the punctual reflection on the visible surface of the eye penetrates the eye to its retina and produces a punctual reflection on the retina.
  • the system will incorporate means to capture this spherical wavefront and determine, from it, the instantaneous refraction of the eye (sphere, cylinder and axis).
  • the narrow-beam light emitter is also used as an autorefractometer, so that the reflection of the point produced by the laser on the retina makes it possible to determine the current accommodative state of the user.
  • This information together with the 3D geometry of the eye and the results of the visual perceptual tests, also makes it possible to interpret the effects of possible corneal alterations of the user, based on the results of the user's perception, his accommodative behavior and his oculomotricity.
  • the narrow beam light emitter when the narrow beam light emitter emits a laser, the system has to integrate this signal over time to improve the signal-to-noise ratio (due to the speckle phenomenon), whereas when the narrow beam light emitter emits a beam of diffuse collimated light the system calculates the measurement instantly. Consequently, the latter can take instantaneous refraction measurements at a higher temporal frequency.
  • the infrared characteristic of both narrow beam light emitter options is not visible to the user's eye, so the user is not inconvenienced by the use of this narrow beam light emitter.
  • the light sources are preferably infrared light-emitting diodes (LEDs), since with this configuration the user cannot see said light sources and, therefore, does not suffer discomfort, being able to continue performing their visual task with total normal.
  • LEDs infrared light-emitting diodes
  • the camera comprises optics associated with a variable focus system with focus control, which allows the camera to focus correctly on the visible surface of the eye, so that the images obtained by the camera are always in an optimal state. .
  • the camera comprises optics associated with a fixed focus system with a depth of field of at least 5 mm, both for depth variations in the relative position of the eye with respect to the absolute reference system produced by user movements and so that the image of the eye captured by the camera is always in focus.
  • the present system uses a matrix of light sources that allow to build a three-dimensional image of the eye (that is, with depth), which is used in the calculation of the gaze direction tracking.
  • the depth of field In order for the camera to capture this dimensionality, the depth of field must have a minimum dimension of 5 mm.
  • Figure 1 shows a sectional view of an example of a human eye, detailing its main parts.
  • Figure 2 shows a sectional view of an example of a human eye, detailing the difference between the pupillary axis and gaze direction.
  • Figure 3 shows a view of the distribution of light sources in the preferred embodiment of the invention.
  • Figure 1 shows an example of a human eye (1), whose function is to transform light energy into electrical signals that are sent to the brain through the optic nerve.
  • the visible outer surface of the eye (1) comprises the cornea (1.1), which is the transparent front part of the eye (1) that covers the iris (1.2) and the pupil (1.3), and the sclera (1.4), called colloquially as the "white” of the eye (1), the sclera (1.4) is a white membrane, which constitutes the outermost layer of the eye (1) and whose function is to shape the eye (1) and protect to internal elements.
  • the retina (1.5) On the inner surface of the eye (1) you can find the retina (1.5), when light falls on the retina (1.5) a series of chemical and electrical phenomena is triggered, which translate into nerve impulses that are sent towards the brain via the optic nerve. Likewise, the area of the retina (1.5) that is especially capable of precise vision (greater visual acuity) and color is called fovea (1.6).
  • the system comprises a plurality of light sources (2.1), more specifically infrared light-emitting diodes (LEDs), which emit infrared light towards at least one eye (1) of the user.
  • LEDs infrared light-emitting diodes
  • the plurality of light sources (2.1), preferably between 8 and 20, are arranged in the form of a matrix covering, the incidence of the plurality of light sources (2.1), at least partially, or all, the visible surface of the eye ( 1), preferably around the camera (2.2) and fixed on the same frame, as can be seen in figure 3, this allows a wide distribution of flashes on the visible surface of the eye (1) and avoids the problems caused by blinking or drooping blinking in the state of the art.
  • This distribution in the form of a matrix is not limiting, and the plurality of light sources (2.1) can be with any other distribution as long as they cover at least partially, or all, the visible surface of the eye (1).
  • This infrared light emitted towards the user's eye (1) generates flashes on the visible surface of the eye (1), that is, on the cornea (1.1) and/or sclera (1.4) of the eye (1), these flashes of light infrared light are subsequently detected by a sensor capable of detecting this infrared light.
  • the infrared sensor is a camera (2.2), capable of capturing images of the eye (1) and the corresponding flashes generated by the plurality of light sources (2.1).
  • the images obtained from the eye (1) captured by the camera (2.2) are analyzed by a controller, which comprises at least one processor, so that this controller detects the different regions of the image of the eye (1) eye (for example , pupil, iris, sclera, eyelid, eyelashes or corners) and the plurality of flashes in the image of the eye (1).
  • a controller which comprises at least one processor, so that this controller detects the different regions of the image of the eye (1) eye (for example , pupil, iris, sclera, eyelid, eyelashes or corners) and the plurality of flashes in the image of the eye (1).
  • the present system establishes an absolute geometric reference in the system composed of the camera (2.2), the plurality of light sources (2.1) (both in fixed relative positions) and an absolute geometric reference on the visible surface of the eye (1).
  • At least one light source (2.1) is configured to emit a light source of a different geometric size and/or power than the rest of the plurality of light sources (2.1), so that the flash generated on the visible surface of the eye (1) by said light source is easily determinable by the controller with reduced geometric uncertainty in the analysis of each image captured by the camera
  • the controller in the analysis of each image captured by the camera (2.2); and/or the present system additionally comprises a narrow beam light emitter
  • the controller determines the absolute geometric reference on the visible surface of the eye (1) based on at least one flash easily determined by the controller in the analysis of each image captured by the camera (2.2).
  • the controller by determining the absolute geometric reference and knowing the correspondence between the plurality of light sources (2.1), the narrow beam light emitter (2.3) and the camera
  • the controller determines in the analysis of each image captured by the camera (2.2) the geometric relationship or distance between the flash generated on the surface of the eye (1) and the light source (2.1) or narrow beam light emitter (2.3) that generated said flash. Based on the correspondence between the absolute geometric reference, the sparkles generated on the visible surface of the eye (1), the camera (2.2) and the absolute geometric reference on the visible surface of the eye (1), the controller generates a 3D geometry of the eye (1) of the user and based on said 3D geometry, the controller estimates the eye rotation center (3.1) of the eye (1) by comparing two or more images of the eye (1) after one rotation.
  • the center of eye rotation (3.1) indicates at which point the eye (1) rotates during the visual process, so its correct calculation is of the greatest importance for calculating the direction of the gaze (3.5).
  • the controller can easily determine and take into account in the calculations the changes in the relative position of the eye (1) with respect to the camera (2.2). and, also, to determine if the change in relative position is the cause of any adverse effects on the image quality of the camera (2.2). In this case, the controller will be able to increase or decrease the power of the plurality of light sources (2.1) (for example, more power, if required, when the eye (1) moves away from the camera (2.2) and vice versa). and/or activate the associated optics of the camera (2.2), if it is of variable focus.
  • the optics of the camera (2.2) are expected to be defined with a depth of field of at least 5mm and may include, in some configurations, a variable focus system with focus control.
  • This determination of the ocular center of rotation (3.1) is critical for the calculation of the gaze direction (3.5), which is defined as the geometric line that joins the active PRL (3.3) (normally present in the fovea (1.6) of the eye (1), although in certain ophthalmic pathologies it is located outside the fovea (1.6)) with the center of ocular rotation (3.1).
  • this gaze direction (3.5) is not related to the position of the center (3.2) of the pupil (1.3).
  • the active PRL (3.3) is a given group of retinal neurons (1.5) (whether or not they are in the fovea (1.6)) and that, therefore, its geometric position moves jointly with the eye (1 ).
  • a user can use more than one PRL (3.3), each one in its joint position with the eye (1), but there can only be one PRL (3.3) active at any time.
  • Figure 2 shows an example of the difference between the pupillary axis (3.6), which is the geometric line that joins the center of the pupil (3.2) with the center of ocular rotation (3.1), and the direction of the look (3.5).
  • the improvement obtained with the proposed system reduces the gaze direction measurement error (3.5) compared to the state of the art by more than 0.5 degrees. It should be noted that, in clinical applications, it is interesting to measure displacements of the direction of gaze (3.5) of 3 seconds of arc, which are the dimension of the drift paths during a fixation.
  • fixation is the visual process that allows a subject to maintain the projection of an external visual stimulus on his fovea (1.6) and, through a continuum of small eye movements (rotations) (combination of drift movements and microsaccades) involuntary, extract visual information related to its content in spatial frequencies.
  • an error of 0.5° implies an error of 1,800 arc seconds, that is, an error 600 times greater than the quantity to be measured.
  • the controller is configured to detect the characteristic movements of the eye (1) during a fixation on a series of images of the eye (1) captured by the camera (2.2) and calculate the angular position of a point outside (3.4) to the eye (1) that determines the gaze direction (3.5).
  • fixation movements are involuntary and occur exclusively when there is a stimulus on which the user can fix his gaze. If, for example, this stimulus is unique in the user's virtual visual space and the user's eye (1) shows fixation movements, it can be concluded that the user's eye (1) is fixing on that stimulus.
  • the eye (1) must rotate with a characteristic movement called drift, interrupted by other so-called microsaccades that reposition the stimulus image on the active PRL (3.3).
  • Drift consists of small position jumps of a few arc minutes (from 3 to 30) that are developed consecutively with a random-walk type statistic with short periods of persistent in direction, followed by short periods of anti-persistent direction.
  • Microsaccades are position jumps an order of magnitude larger and ballistic in nature (ie, with a constant relationship of maximum velocity and amplitude).
  • a typical fixation lasts between 150 ms and 250 ms.
  • the system can measure fixation movements (drift and microsaccades) and if the stimulus is small (at the user's spatial visibility limit), the system will be able to determine the direction of the point outside (3.4) to the eye (1) (whose distance to the eye (1) is not relevant for these calculations) during a fixation, defined as the gaze direction line (3.5), joining the center of ocular rotation (3.1) with the position of a central measure of the statistical distribution of ocular rotations during that fixation (for example, it is determined that the point outside (3.4) to the eye (1) is in the centroid of the rotations).
  • the controller is capable of estimating an active PRL (3.3) of the eye (1) in the 3D geometry generated based on the projection to the back of the eye (1), where the fovea (1.6) and/or retina are located. (1.5), of the gaze direction axis (3.5) that joins the eye rotation center (3.1) and the exterior point (3.4) to the eye (1).
  • the controller calculation process will associate the 3D coordinates of this active PRL (3.3) to the generated 3D geometry, so that, from that moment on, the direction of gaze (3.5), at each instant, will be determined by the line geometry that joins that active PRL (3.3) with the center of ocular rotation (3.1).
  • the present system does not require prior calibration, although, to accommodate anomalous behaviors in cases of certain visual dysfunctions, a statistical treatment of post-processing data is provided.
  • the plurality of light sources (2.1) comprises at least two groups of light sources (2.1) configured to emit light alternately.
  • the plurality of light sources (2.1) are of variable light intensity (with at least 2 levels) by means of individual electronic control of each light source (2.1) or by groups of light sources (2.1).
  • This alternation is controlled so that every two consecutive images from the camera (2.2), one image will have been obtained with the first group of light sources (2.1) activated and the second group of light sources (2.1) deactivated and the second image with the second group of light sources (2.1) activated and the first group of light sources (2.1) deactivated.
  • Figure 3 shows a view of the distribution of light sources (2.1), the camera
  • the narrow beam light emitter (2.3) emits a narrow beam of light, whose reflection on the eye (1) has less position uncertainty than the flashes of the plurality of light sources (2.1), in correspondence with the axis of the camera (2.2), so as to allow a better calculation of the absolute geometric reference on the surface of the eye (1). Additionally, in a preferred configuration, the narrow beam light emitter (2.3) is used as the light source of an autorefractometer.
  • FIG. 3 it can be seen how the plurality of light sources (2.1) are arranged in the form of a matrix around the camera (2.2) and at different distances between them vertically and horizontally, this allows a wide and relatively wide distribution of flashes. constant on the visible surface of the eye (1) and reduces problems caused by blinking or drooping, since you still see flashes even in these conditions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Sistema de seguimiento de la dirección de la mirada (3.5) de un usuario, que comprende: una pluralidad de fuentes de luz (2.1) que emiten luz infrarroja al menos sobre un ojo (1) del usuario, una cámara (2.2) configurada para capturar imágenes infrarrojas del ojo (1), un controlador que comprende al menos un procesador, en donde el controlador está configurado para: detectar una pluralidad de destellos en una imagen del ojo (1) capturada por la cámara (2.2), en donde cada destello es un reflejo de una de las fuentes de luz (2.1) en la superficie visible del ojo (1); y hacer una correspondencia entre cada destello detectado y la fuente de luz (2.1) que generó dicho destello en la superficie visible del ojo (1), caracterizado por que: la pluralidad de fuentes de luz (2.1) se disponen en forma de matriz cubriendo al menos parcialmente la superficie visible del ojo (1), y el controlador está adicionalmente configurado para: analizar la imagen del ojo (1) y determinar a qué región del ojo (1) pertenece cada pixel de la imagen, generar una geometría 3D del ojo (1) a partir de la pluralidad de destellos relativa a una referencia geométrica absoluta determinada por la posición de la cámara (2.2) y la pluralidad de fuentes de luz (2.1), y definir un centro de rotación ocular (3.1) del ojo (1) basándose en la geometría 3D del ojo (1) con el cual se determina la dirección de la mirada (3.5).

Description

DESCRIPCIÓN
SISTEMA DE SEGUIMIENTO DE LA DIRECCIÓN DE LA MIRADA
Sector de la técnica
La presente invención se refiere a un sistema de análisis ocular, más concretamente se refiere a un sistema de seguimiento de la dirección de la mirada.
Estado de la técnica
El seguimiento de ojos (“eye tracking” en inglés) es el proceso de evaluar, bien el punto donde se fija la mirada (donde estamos mirando), o el movimiento de rotación del ojo en relación con la cabeza.
Los sistemas de seguimiento de la mirada (“eye-trackers” en inglés) son conocidos y de amplio uso en aplicaciones comerciales, como, por ejemplo: videojuegos, interfaz manos libres para interacción con computadoras, análisis del interés visual del usuario en entornos complejos, etc.
La dirección de mirada es la línea que une el PRL (preferred retinal locus) activo con el centro de rotación del ojo. En una persona sana dicho PRL se encuentra en la fóvea del ojo, mientras que en personas con diversas patologías oculares (por ejemplo, con patologías retinianas como DMA, escotoma, etc.) el PRL puede encontrarse fuera de la fóvea.
Es de notar que un usuario puede utilizar más de un PRL, cada uno en su posición solidaria con el ojo, pero sólo puede haber un PRL activo en cada instante. Esto implica que la dirección de mirada, es decir, la línea que une el PRL activo con el centro de rotación ocular cambia cuando el usuario cambia de PRL. Sin embargo, la precisión de medida requerida para detectarlos supera lo disponible en el estado de la técnica.
La vanante más popular de estos sistemas de seguimiento de la mirada utiliza imágenes de vídeo a partir de las cuales se estima la posición del ojo. Otros métodos utilizan bobinas de búsqueda o están basados en electrooculogramas. Los sistemas de seguimiento de la mirada que utilizan imágenes de video suelen comprender dos o más LEDs infrarrojos, para inducir reflejos sobre la superficie visible del ojo del usuario (es decir, la córnea y/o la esclera del ojo), y una cámara de imagen infrarroja para capturar una imagen del ojo del usuario, incluidos los destellos producidos por dichos reflejos.
Normalmente, cuando la cámara se encuentra de frente al ojo del usuario los LEDs, generalmente entre 2 y 8, se ubican simétricamente sobre una corona plana alrededor de la cámara.
El cálculo de la dirección de mirada lo realiza un controlador, con al menos un procesador, que recoge la imagen capturada por la cámara infrarroja. Generalmente, este cálculo se realiza imagen por imagen, siendo las imágenes obtenidas bajo un sistema de iluminación infrarroja constante, y consiste en determinar el centro de rotación del ojo (por el que pasa en la línea de la dirección de la mirada), así como el contorno de la pupila y la posición relativa de los destellos respecto al contorno de la pupila.
Es de notar que la imagen que se analiza es una imagen plana (2D) que carece de información para detectar profundidad, lo que hace a estos sistemas poco robustos a las variaciones de posición del usuario y a sus efectos, en concreto, a las variaciones en la distancia del ojo y/o la distancia de la pupila con la cámara.
Dadas las limitaciones en la información disponible, estos sistemas realizan sus cálculos tomando algunas hipótesis alejadas de la realidad, como por ejemplo: i) que la pupila del usuario es siempre una elipse; ¡i) que la pupila se mueve solidariamente con el ojo; y iii) que la dirección de mirada del usuario pasa, en todo momento, por el centro geométrico de la elipse de la pupila.
Esta es una aproximación burda, que puede provocar un error de 0,5° a 1,5° (es decir, entre 30 a 90 minutos de arco), cuando el proceso fisiológico a medir, por ejemplo, movimientos de deriva y microsacádicos del ojo, se produce en los 1 a 30 minutos de arco.
Todo ello tiene el potencial de generar un gran error en la medida de la dirección de la mirada, ya sea por el cálculo del centro de rotación del ojo y/o porque, en general la dirección de la mirada no pasa por el centro de la pupila, es decir que los sistemas conocidos son insuficientemente precisos.
Es de notar que, cuando los destellos de los LEDs infrarrojos se producen cerca del contorno de la pupila, el destello no permite detectar con calidad el contorno de la pupila ni determinar las coordenadas geométricas de la pupila con respecto a ese punto de referencia, por lo que se deteriora la calidad de la información a efectos del cálculo de la dirección de la mirada.
Asimismo, cuando el usuario tiene un párpado caído o parpadea, se obstruye la parte superior de la imagen y, eventualmente, algunos destellos, por lo que el cálculo de las coordenadas geométricas de la pupila es menos preciso o no se puede realizar.
Adicionalmente, cuando el usuario cambia su posición relativa respecto de la cámara (porque respira, tose, se rasca, se despista, etc.), se pierde temporalmente la referencia de posición entre la cámara y el ojo (en el peor de los casos, la pupila del ojo puede quedar fuera del campo de visión de la cámara). En estos casos, se pierde calidad de imagen, deteriorando aún más la precisión del sistema de seguimiento de la dirección de mirada.
Por ello, cuando el usuario cambia su posición relativa respecto de la cámara es necesario una recalibración para volver a la precisión inicial de medida. Normalmente en estos procesos de calibración, se pide al usuario que mire fijamente a un estímulo puntual de coordenadas conocidas respecto al sistema de referencia. El usuario debe mantener su mirada un tiempo suficiente sobre el estímulo, por ejemplo durante 10 segundos, a fin de determinar la dirección de mirada mediante un promediado de un suficiente número de medidas.
Es de notar que, por la natural dinámica visual, el ojo del usuario produce en ese tiempo, entre 20 y 40 fijaciones junto con otros movimientos oculares, al menos de deriva y microsacádicos, y eventualmente sacádicos, en torno a la zona en que se muestra el estímulo introduciendo un error significativo en la calibración.
La principal razón por la que esta calibración sigue este proceso es por la magnitud normal del error de medida, que requiere un tratamiento estadístico, aumentando el tiempo de adquisición de datos, para obtener resultados satisfactorios. Por ello, este proceso de calibración resulta disruptive para el usuario, ya que este tiene que abandonar la tarea que estuviera haciendo para realizar la calibración.
Por tanto, se hace necesario un sistema de seguimiento de la dirección de la mirada que tenga en cuenta la verdadera geometría 3D del ojo, así como que detecte con fiabilidad el contorno de la pupila en todo momento, obteniendo por ello resultados más precisos.
Asimismo, se requiere un proceso de calibración que no resulte disruptive para el usuario, permitiendo al usuario continuar con su actividad.
Objeto de la invención
Por todo lo expuesto anteriormente, es objeto de la presente invención un sistema de seguimiento de la dirección de la mirada de un usuario, que comprende: una pluralidad de fuentes de luz que emiten luz infrarroja al menos sobre un ojo del usuario; una cámara configurada para capturar imágenes infrarrojas del ojo; un controlador que comprende al menos un procesador, en donde el controlador está configurado para: o detectar una pluralidad de destellos en una imagen del ojo capturada por la cámara, en donde cada destello es un reflejo de una de las fuentes de luz en la superficie visible del ojo; y o hacer una correspondencia entre cada destello detectado y la fuente de luz que generó dicho destello en la superficie visible del ojo; caracterizado por que: la pluralidad de fuentes de luz se dispone en forma de matriz cubriendo al menos parcialmente en la superficie visible del ojo; y: el controlador está adicionalmente configurado para: o analizar la imagen del ojo y determinar a qué región del ojo pertenece cada pixel de la imagen; o generar una geometría 3D del ojo a partir de la pluralidad de destellos relativa a una referencia geométrica absoluta determinada por la posición de la cámara y la pluralidad de fuentes de luz; y o definir un centro de rotación ocular del ojo basándose en la geometría 3D del ojo con el cual se determina la dirección de la mirada. Es decir, la pluralidad de fuentes de luz emite luz hacia un ojo del usuario, de manera que cada fuente de luz genera destellos en la superficie visible del ojo (ya sea en la córnea o en la esclera del ojo). Seguidamente la cámara captura una imagen del ojo, siendo dicha imagen analizada por el controlador, determinando a que región del ojo (por ejemplo, pupila, iris, esclera, párpado, pestañas o comisuras) pertenece cada pixel de la imagen.
La pluralidad de fuentes de luz, preferiblemente entre 8 y 20 fuentes de luz, se disponen en forma de matriz a diferentes distancias entre sí vertical y hohzontalmente, cubriendo al menos parcialmente (o completamente) la superficie visible del ojo.
Esta distribución en matriz de la pluralidad de fuentes de luz produce una distribución de destellos cuyas distancias correlativas cambiarán en función de la profundidad de la región del ojo en que se producen, lo que permitirá generar la geometría 3D.
Como las distancias entre la pluralidad de fuentes de luz son conocidas, puede correlacionarse fácilmente cada destello con su correspondiente fuente de luz. El hecho de producir una distribución de destellos amplia en la superficie del ojo reduce los problemas ocasionados por parpadeo o parpado caído, ya que siguen viéndose destellos en la imagen del ojo incluso en esas condiciones.
Asimismo, al determinar una referencia geométrica absoluta se consigue triangular la posición real de cada destello, permitiendo al controlador generar una geometría 3D del ojo del usuario.
Puesto que el ojo se comporta como un cuerpo rígido, el centro de rotación ocular se mantiene en una posición constante relativa al ojo, cuando el controlador compara dos imágenes del ojo correspondientes a dos direcciones de mirada (por ejemplo, las obtenidas tras una rotación del ojo), puede establecer fácilmente el centro de rotación ocular de manera más precisa, el cual es crítico para el cálculo de la dirección de la mirada.
Como el ojo se mantiene en una posición fija relativa a la estructura craneal, los movimientos detectados en la posición del centro de rotación ocular respecto a la referencia geométrica absoluta describen también los movimientos de la cabeza del usuario con relación a esta referencia geométrica absoluta. Preferiblemente, el controlador está adicionalmente configurado para: detectar los movimientos característicos del ojo en una serie de imágenes del ojo capturadas por la cámara durante una fijación de la mirada, estimar un punto exterior al ojo de la línea de dirección de la mirada basándose en los movimientos característicos del ojo en dicha fijación; definir un PRL activo del ojo en la geometría 3D del ojo como el punto de intersección con la parte posterior de la geometría 3D del ojo de la línea de dirección de la mirada definida por el centro de rotación ocular y el punto exterior al ojo.
Se denomina fijación al proceso visual por el que el usuario posiciona la imagen de un estímulo sobre su PRL activo y por el que su sistema visual extrae información sobre el contenido en frecuencias espaciales (y otras informaciones, como color, etc.) de lo que ve. Para obtener esta información, el ojo debe moverse con un movimiento característico llamado deriva (drift), interrumpido por otros llamados microsacádicos que reposicionan la imagen del estímulo sobre la fóvea.
Para determinar la dirección de mirada, el presente sistema aprovecha los movimientos característicos del ojo en una fijación. Estos movimientos son involuntarios y se producen exclusivamente cuando hay un estímulo en que el usuario pueda fijar su mirada. Si, por ejemplo, este estímulo es único en el espacio visual virtual del usuario y el ojo del usuario muestra movimientos de fijación, puede concluirse que el usuario está fijando en ese estímulo.
Puesto que el PRL así determinado es solidario con el ojo, servirá para la determinación automática de la dirección de la mirada como la dirección del eje que pasa por el centro de rotación ocular y el PRL activo.
Por ello, la determinación de la dirección de mirada en el presente sistema se define como la línea o eje que une el PRL activo (esté o no en la fóvea) con el centro de rotación del ojo. Esta línea es totalmente independiente de la pupila y no tiene relación con el contorno de la pupila ni tiene por qué pasar por su centro.
Al no determinar artificialmente la dirección de mirada (tal como en el estado de la técnica donde la dirección de la mirada se define como la línea generada por la unión del centro de rotación ocular con el centro de la pupila), con el presente sistema se obtienen unos resultados mucho más precisos que los obtenidos con los sistemas de seguimiento de la mirada del estado de la técnica.
Preferentemente, la pluralidad de fuentes de luz comprende al menos dos grupos de fuentes de luz configurados para emitir luz de forma alterna, es decir cuando las fuentes de luz de un grupo estén encendidas, el resto de las fuentes de luz estarían apagadas.
De esta manera se consigue mejorar la imagen del contorno de la pupila del ojo, ya que si en una imagen capturada por la cámara, un destello del grupo de fuentes de luz activo dificulta distinguir el contorno de la pupila, el encendido de un segundo grupo, y el apagado del primero, mejora la visibilidad del contorno de la pupila en la imagen.
Esta alternancia entre grupos de fuentes de luz se hace de manera periódica, preferentemente cada dos imágenes capturadas por la cámara a una frecuencia de muestreo muy superior a la de los movimientos del ojo, esto permite que se haga con suficiente frecuencia como para que la rotación del ojo entre ambas imágenes sea despreciable, lo que permite obtener unos resultados satisfactorios.
Con el fin de mejorar la estimación de la posición de los destellos entre si y respecto a la referencia geométrica absoluta, se pueden utilizar al menos una de las siguientes técnicas, de manera aislada o combinadas, para producir un destello con una incertidumbre de posición reducida, a fin de determinar una referencia geométrica absoluta sobre la superficie visible del ojo. El uso de diferentes técnicas para la determinación de esta referencia geométrica absoluta sobre la superficie visible del ojo permite que, en caso de que una de estas técnicas dejase de funcionar, el sistema podría usar otra técnica, permitiendo al sistema seguir determinando la referencia geométrica absoluta sobre la superficie visible del ojo.
En una primera posible técnica, al menos una fuente de luz está configurada para emitir un foco de luz de diferente tamaño geométrico que el resto de la pluralidad de fuentes de luz, estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo identificando el destello en la imagen del ojo en relación con la correspondiente fuente de luz configurada para emitir un foco de luz de diferente tamaño geométrico que el resto de la pluralidad de fuentes de luz. Por ejemplo, una manera de configurar la fuente de luz para que emita un foco de luz de diferente tamaño geométrico, en este caso mucho más pequeño, que el resto de la pluralidad de fuentes de luz, sería colimar el haz de luz emitido por dicha fuente de luz mediante una máscara de colimación que convierta el haz de luz divergente proveniente de la fuente de luz en un haz paralelo de manera que su tamaño geométrico disminuya.
En una segunda posible técnica al menos una fuente de luz está configurada para emitir un foco de luz de diferente potencia que el resto de la pluralidad de fuentes de luz, estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo identificando el destello en la imagen del ojo en relación con la fuente de luz configurada para emitir un foco de luz de diferente potencia que el resto de la pluralidad de fuentes de luz.
En una tercera posible técnica: al menos dos fuentes de luz se encuentran más próximas entre sí que la distancia entre el resto de la pluralidad de fuentes de luz, estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo identificando los destellos en la imagen del ojo en relación con las fuentes de luz que están más próximas entre sí que la distancia entre el resto de la pluralidad de fuentes de luz.
En una cuarta posible técnica, el sistema comprende un emisor de luz de haz estrecho, estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo identificando un reflejo en la superficie visible del ojo en relación con el emisor de luz de haz estrecho.
Preferentemente, dicho emisor de luz de haz estrecho se encontraría centrado con el eje óptico de la cámara, mejorando por tanto la determinación de la referencia geométrica absoluta, con la que se determina la relación geométrica entre la cámara, la pluralidad de fuentes de luz y/o el emisor de luz de haz estrecho y los destellos analizados en cada imagen del ojo capturada por la cámara, mejorando por tanto la generación de la geometría 3D del ojo.
El principal objetivo del emisor de luz de haz estrecho es producir un reflejo más pequeño que los reflejos de la pluralidad de fuentes de luz sobre la superficie visible del ojo, ya sea sobre la córnea (si el usuario mira hacia el frente) o sobre la esclera (si el usuario mira hacia un lado).
Para ello, en una versión de la presente invención, el emisor de luz de haz estrecho emite un láser infrarrojo.
En otra versión de la presente invención, el emisor de luz de haz estrecho emite un haz de luz infrarroja difusa colimada.
Este reflejo puede conseguirse igualmente con ambas tecnologías, ya que ambas emiten un haz lumínico de haz estrecho que produce un reflejo puntual mucho más pequeño que los reflejos de la pluralidad de fuentes de luz.
Este reflejo más puntual es utilizado por el presente sistema tanto para la determinación de la referencia geométrica absoluta sobre la superficie visible del ojo, como para mejorar la resolución de su posición y utilizarla para la mejora de la estimación de posición de los demás reflejos de la pluralidad de fuentes de luz.
No solo eso, el mismo haz lumínico de haz estrecho que produce el reflejo puntual sobre la superficie visible del ojo, penetra en él hasta su retina y produce un reflejo puntual sobre la retina.
En la retina, el láser infrarrojo o el haz de luz infrarroja difusa colimada se reflejan en modo difuso: el haz de luz difusa colimada porque es de partida luz difusa; y el láser infrarrojo porque la luz pierde la coherencia al reflejarse en la retina. El reflejo en la retina, ya difuso, produce un frente de onda esférico que retrocede hasta emerger por la pupila.
El sistema incorporará medios para captar este frente de onda esférico y determinar, a partir de él, la refracción instantánea del ojo (esfera, cilindro y eje).
Gracias a esto en esta configuración, el emisor de luz de haz estrecho se utiliza también como autorefractómetro, de modo que el reflejo del punto que el láser produce en la retina permite determinar el estado acomodativo actual del usuario. Esta información, junto con la geometría 3D del ojo y los resultados de las pruebas visuales perceptivas, permite también interpretar los efectos de eventuales alteraciones corneales del usuario, en base a los resultados de percepción del usuario, de su comportamiento acomodativo y de su oculomotricidad.
Cabe comentar que cuando el emisor de luz de haz estrecho emite un láser el sistema tiene que integrar esta señal en el tiempo para mejorar la relación señal-ruido (debido al fenómeno de speckle), mientras que cuando el emisor de luz de haz estrecho emite un haz de luz difusa colimada el sistema calcula la medida al instante. En consecuencia, este último puede tomar medidas de refracción instantánea a mayor frecuencia temporal.
Adicionalmente, la característica infrarroja de ambas opciones del emisor de luz de haz estrecho no es visible por el ojo del usuario, por lo que el usuario no sufre molestias por el uso de este emisor de luz de haz estrecho.
Por eso mismo, preferentemente las fuentes de luz son diodos emisores de luz (LED) infrarrojos, ya que con esta configuración el usuario no puede ver dichas fuentes de luz y, por tanto, no sufre molestias, pudiendo seguir realizando su tarea visual con total normalidad.
Preferiblemente, la cámara comprende una óptica asociada con un sistema de foco variable con control de foco, lo que permite que la cámara se enfoque correctamente sobre la superficie visible del ojo, de manera que las imágenes obtenidas por la cámara se encuentren siempre un estado óptimo.
Alternativamente, la cámara comprende una óptica asociada con un sistema de foco fijo con una profundidad de campo de al menos 5 mm, tanto para las variaciones de profundidad en la posición relativa del ojo respecto al sistema de referencia absoluto producidas por los movimientos del usuario como para que la imagen del ojo capturada por la cámara esté siempre enfocada.
El presente sistema utiliza una matriz de fuentes de luz que permiten construir una imagen tridimensional del ojo (es decir, con profundidad), la cual es utilizada en el cálculo del seguimiento de la dirección de la mirada. Para que la cámara pueda captar esta thdimensionalidad, la profundidad de campo debe tener una dimensión mínima de 5 mm.
Descripción de las figuras La figura 1 muestra una vista seccional de un ejemplo de ojo humano, detallando las principales partes del mismo.
La figura 2 muestra una vista seccional de un ejemplo de ojo humano, detallando la diferencia entre eje pupilar y dirección de la mirada.
La figura 3 muestra una vista de la distribución de las fuentes de luz en el ejemplo de realización preferente de la invención.
Descripción detallada de la invención
Para un mejor entendimiento de la presente invención se procederá en primer lugar a explicar someramente las diferentes partes del ojo humano.
En la figura 1 se puede observar un ejemplo de un ojo (1) humano, cuya función consiste en transformar la energía lumínica en señales eléctricas que son enviadas al cerebro a través del nervio óptico.
La superficie exterior visible del ojo (1) comprende la córnea (1.1), la cual es la parte frontal transparente del ojo (1) que cubre el iris (1.2) y la pupila (1.3), y la esclera (1.4), denominada coloquialmente como el “blanco” del ojo (1), la esclera (1.4) es una membrana de color blanco, que constituye la capa más externa del ojo (1) y cuya función es la de dar forma al ojo (1) y proteger a los elementos internos.
Asimismo, en la superficie interior del ojo (1) se puede encontrar la retina (1.5), cuando la luz incide en la retina (1.5) se desencadena una serie de fenómenos químicos y eléctricos, que se traducen en impulsos nerviosos que son enviados hacia el cerebro a través del nervio óptico. Asimismo, el área de la retina (1.5) que se encuentra especialmente capacitada para la visión precisa (mayor agudeza visual) y del color se denomina fóvea (1.6).
En un ejemplo de realización preferente de la presente invención, el sistema comprende una pluralidad de fuentes de luz (2.1), más concretamente diodos emisores de luz (LED) infrarrojos, que emiten luz infrarroja hacia al menos un ojo (1) del usuario.
Ya que la luz infrarroja oscila a una frecuencia distinta a la denominada “luz visible”, el ojo (1) humano no es capaz de verla o percibirla, por lo que el usuario del sistema no sufre molestias por el uso de la pluralidad de fuentes de luz (2.1).
La pluralidad de fuentes de luz (2.1), preferiblemente entre 8 y 20, se disponen en forma de matriz cubriendo, la incidencia de la pluralidad de fuentes de luz (2.1), al menos parcialmente, o toda, la superficie visible del ojo (1), preferentemente alrededor de la cámara (2.2) y fijada en un mismo bastidor, tal como se puede apreciar en la figura 3, esto permite una amplia distribución de destellos en la superficie visible del ojo (1) y evita los problemas ocasionados por parpadeo o parpado caído en el estado de la técnica. Esta distribución en forma de matriz no es limitante pudiendo estar la pluralidad de fuentes de luz (2.1) con cualquier otra distribución siempre y cuando se cumpla que cubran al menos parcialmente, o toda, la superficie visible del ojo (1).
Esta luz infrarroja emitida hacia el ojo (1) del usuario genera unos destellos en la superficie visible del ojo (1), es decir en la córnea (1.1) y/o esclera (1.4) del ojo (1), estos destellos de luz infrarroja son posteriormente detectados por un sensor capaz de detectar esta luz infrarroja.
Mas concretamente, en este ejemplo de realización preferente, el sensor infrarrojo es una cámara (2.2), capaz de capturar imágenes del ojo (1) y los correspondientes destellos generados por la pluralidad de fuentes de luz (2.1).
Las imágenes obtenidas del ojo (1) capturadas por la cámara (2.2) son analizadas por un controlador, el cual comprende al menos un procesador, de manera que este controlador detecta las diferentes regiones de la imagen del ojo (1) ojo (por ejemplo, pupila, iris, esclera, párpado, pestañas o comisuras) y la pluralidad de destellos en la imagen del ojo (1).
Con el fin de determinar la relación geométrica entre la cámara (2.2), la pluralidad de fuentes de luz (2.1) y los destellos detectados en el análisis de cada imagen capturada por la cámara (2.2), el presente sistema establece una referencia geométrica absoluta en el sistema compuesto por la cámara (2.2), la pluralidad de fuentes de luz (2.1) (ambas en posiciones relativas fijas) y una referencia geométrica absoluta sobre la superficie visible del ojo (1).
Se prevé que para establecer esta referencia geométrica absoluta sobre la superficie visible del ojo (1) el sistema utiliza al menos una de las siguientes técnicas, bien de manera aislada o combinadas: al menos una fuente de luz (2.1) está configurada para emitir un foco de luz de diferente tamaño geométrico y/o potencia que el resto de la pluralidad de fuentes de luz (2.1), de manera que el destello generado sobre la superficie visible del ojo (1) por dicho foco de luz sea fácilmente determinable por el controlador con reducida incertidumbre geométrica en el análisis de cada imagen capturada por la cámara
(2.2); y/o al menos dos fuentes de luz (2.1) se encuentran más próximas entre sí que la distancia entre el resto de la pluralidad de fuentes de luz (2.1), y por tanto los destellos generados sobre la superficie visible del ojo (1) por dichas fuentes de luz
(2.1) son fácilmente determinadles por el controlador en el análisis de cada imagen capturada por la cámara (2.2); y/o el presente sistema comprende adicionalmente un emisor de luz de haz estrecho
(2.3) que emite un haz lumínico de haz estrecho (ya sea un haz de laser infrarrojo o un haz de luz infrarroja difusa colimada) hacia el ojo (1) del usuario, de manera que el destello generado sobre la superficie visible del ojo (1) por dicho emisor de luz de haz estrecho (2.3) sea fácilmente determinable por el controlador con reducida incertidumbre geométrica en el análisis de cada imagen capturada por la cámara
(2.2).
Es decir, el controlador determina la referencia geométrica absoluta sobre la superficie visible del ojo (1) en base, a al menos, un destello fácilmente determinable por el controlador en el análisis de cada imagen capturada por la cámara (2.2).
El uso de diferentes técnicas para la determinación de la referencia geométrica absoluta sobre la superficie visible del ojo (1) permite que, en caso de que uno de esos métodos dejase de funcionar, el uso del resto de técnicas permitiría al sistema seguir determinando la referencia geométrica absoluta sobre la superficie visible del ojo (1).
El controlador, al determinar la referencia geométrica absoluta y conocer la correspondencia entre la pluralidad de fuentes de luz (2.1), el emisor de luz de haz estrecho (2.3) y la cámara
(2.2), determina en el análisis de cada imagen capturada por la cámara (2.2) la relación geométrica o distancia entre el destello generado en la superficie del ojo (1) y la fuente de luz (2.1) o emisor de luz de haz estrecho (2.3) que generó dicho destello. Basándose en la correspondencia entre la referencia geométrica absoluta, los destellos generados en la superficie visible del ojo (1), la cámara (2.2) y la referencia geométrica absoluta sobre la superficie visible del ojo (1), el controlador genera una geometría 3D del ojo (1) del usuario y basándose en dicha geometría 3D, el controlador estima el centro de rotación ocular (3.1) del ojo (1) comparando dos o más imágenes del ojo (1) tras una rotación.
Tal como se puede apreciar en la figura 2, el centro de rotación ocular (3.1) indica en qué punto rota el ojo (1) durante el proceso visual, por lo que su correcto cálculo es de la mayor importancia para el cálculo de la dirección de la mirada (3.5).
Una vez determinada la geometría 3D del ojo (1) y el centro de rotación ocular (3.1), el controlador puede determinar fácilmente y tener en cuenta en los cálculos los cambios de posición relativa del ojo (1) respecto de la cámara (2.2) y, también, determinar si el cambio de posición relativa es la causa de cualesquiera efectos adversos en la calidad de imagen de la cámara (2.2). En este caso, el controlador podrá aumentar o disminuir la potencia de la pluralidad de fuentes de luz (2.1) (por ejemplo, más potencia, si se precisa, cuando el ojo (1) se aleja de la cámara (2.2) y viceversa) y/o activar, la óptica asociada de la cámara (2.2), si esta es de foco variable.
Con el fin de mantener la calidad de imagen, se prevé que la óptica de la cámara (2.2) se defina con una profundidad de campo de al menos 5mm y puede incluir, en algunas configuraciones, un sistema de foco variable con control de foco.
Esta óptica asociada permite que el controlador se asegure de que las imágenes del ojo (1) capturadas por la cámara estén continuamente suficientemente enfocadas.
Esta determinación del centro de rotación ocular (3.1) es crítica para el cálculo de la dirección de mirada (3.5), que se define como la línea geométrica que une el PRL activo (3.3) (normalmente presente en la fóvea (1.6) del ojo (1), aunque en ciertas patologías oftálmicas se encuentra fuera de la fóvea (1.6)) con el centro de rotación ocular (3.1).
Tal como se puede observar en la figura 2, esta dirección de la mirada (3.5) no tiene relación con la posición del centro (3.2) de la pupila (1.3). Es de notar que el PRL activo (3.3) es un grupo dado de neuronas de la retina (1.5) (estén o no en la fóvea (1.6)) y que, por tanto, su posición geométrica se mueve solidariamente con el ojo (1).
Es de notar también que un usuario puede utilizar más de un PRL (3.3), cada uno en su posición solidaria con el ojo (1), pero sólo puede haber un PRL (3.3) activo en cada instante. Esto implica que la dirección de mirada (3.5), es decir, la línea que une el PRL activo (3.3) con el centro de rotación ocular (3.1), cambia cuando el usuario cambia de PRL (3.3).
En la figura 2 se puede observar un ejemplo de la diferencia entre el eje pupilar (3.6), el cual es la línea geométrica que une el centro de la pupila (3.2) con el centro de rotación ocular (3.1), y la dirección de la mirada (3.5).
La mejora que se obtiene con el sistema propuesto reduce el error de medida de la dirección de mirada (3.5) comparado con el estado de la técnica en más de 0,5 grados. Es de notar que, en aplicaciones de carácter clínico, interesa medir desplazamientos de la dirección de mirada (3.5) de 3 segundos de arco, que son la dimensión de los recorridos de deriva durante una fijación.
Tal como se ha comentado anteriormente, la fijación es el proceso visual que permite a un sujeto mantener la proyección de un estímulo visual exterior sobre su fóvea (1.6) y, mediante un continuo de pequeños movimientos (rotaciones) oculares (combinación de movimientos de deriva y microsacádicos) involuntarios, extraer información visual relativa a su contenido en frecuencias espaciales.
Puesto que un ángulo de 1 grado contiene 3.600 segundos de arco, un error de 0,5° implica un error de 1.800 segundos de arco, es decir, un error 600 veces mayor que la magnitud que interesa medir.
También es de notar que, en aplicaciones de carácter clínico, interesa medir aceleraciones de la dirección de mirada (3.5) de hasta 800 grados por segundo cuadrado (incluso, eventualmente mayores) que inducen errores, en el estado de la técnica, debido a los movimientos inerciales del esfínter pupilar con relación al ojo (1) de hasta 30 minutos de arco (1.800 segundos de arco) adicionales. Por todo ello, el sistema descrito, combinado con cámaras (2.2) disponibles en el estado de la técnica con resolución temporal de 3 ms (milisegundos), es decir, con más de 330 Hz de frecuencia de muestreo, y con resolución espacial de 1 minuto de arco, representa una mejora sustancial de cada uno de estos errores.
Con el fin de determinar la posición del PRL activo (3.3) del ojo (1) en un momento dado, el controlador está configurado para detectar los movimientos característicos del ojo (1) durante una fijación en una serie de imágenes del ojo (1) capturadas por la cámara (2.2) y calcular la posición angular de un punto exterior (3.4) al ojo (1) que determina la dirección de la mirada (3.5). Estos movimientos de fijación son involuntarios y se producen exclusivamente cuando hay un estímulo en que el usuario pueda fijar su mirada. Si, por ejemplo, este estímulo es único en el espacio visual virtual del usuario y el ojo (1) del usuario muestra movimientos de fijación, puede concluirse que el ojo (1) del usuario se está fijando en ese estímulo.
Para realizar esta fijación el ojo (1) debe rotar con un movimiento característico llamado deriva (drift), interrumpido por otros llamados microsacádicos que reposicionan la imagen del estímulo sobre el PRL activo (3.3).
La deriva consiste en pequeños saltos de posición de pocos minutos de arco (de 3 a 30) que se desarrollan consecutivamente con una estadística de tipo “random-walk” con cortos períodos persistentes en dirección, seguidos de cortos períodos de dirección antipersistente.
Los microsacádicos son saltos de posición un orden de magnitud más amplios y de carácter balístico (es decir, con una relación constante de velocidad máxima y amplitud).
En total, una fijación típica dura entre 150 ms y 250 ms.
Si el sistema puede medir los movimientos de fijación (deriva y microsacádicos) y si el estímulo es pequeño (en el límite de visibilidad espacial del usuario), el sistema podrá determinar la dirección del punto exterior (3.4) al ojo (1) (cuya distancia al ojo (1) no es relevante para estos cálculos) durante una fijación, definida como la línea de dirección de mirada (3.5), uniendo el centro de rotación ocular (3.1) con la posición de una medida central de la distribución estadística de las rotaciones oculares durante esa fijación (por ejemplo, se determina que el punto exterior (3.4) al ojo (1) se encuentra en el baricentro de las rotaciones).
Con ello el controlador es capaz de estimar un PRL activo (3.3) del ojo (1) en la geometría 3D generada basándose en la proyección hasta la parte posterior del ojo (1), donde se encuentra la fóvea (1.6) y/o retina (1.5), del eje de la dirección de la mirada (3.5) que une el centro de rotación ocular (3.1) y el punto exterior (3.4) al ojo (1).
El mismo proceso de cálculo podrá detectar un cambio de PRL activo (3.3) y actualizar el cálculo de la dirección de mirada (3.5).
El proceso de cálculo del controlador asociará las coordenadas 3D de este PRL activo (3.3) a la geometría 3D generada, de modo que, a partir de ese momento, la dirección de mirada (3.5), en cada instante, quedará determinada por la línea geométrica que una ese PRL activo (3.3) con el centro de rotación ocular (3.1).
Por todo ello, el presente sistema no requiere de calibración previa, aunque, para acomodar comportamientos anómalos en casos de ciertas disfunciones visuales, está previsto un tratamiento estadístico de datos en post-procesado.
Asimismo, la pluralidad de fuentes de luz (2.1) comprende al menos dos grupos de fuentes de luz (2.1) configurados para emitir luz de forma alterna. Para ello la pluralidad de fuentes de luz (2.1) son de intensidad lumínica variable (con, al menos, 2 niveles) mediante control electrónico individual de cada fuente de luz (2.1) o por grupos de fuentes de luz (2.1).
Esta alternancia entre los grupos de fuentes de luz (2.1) es tal que en cualquier momento dado todas las fuentes de luz (2.1) de un grupo están activos (encendidos), mientras que todas las fuentes de luz (2.1) del otro están inactivos (apagados).
Esta alternancia está controlada de manera que cada dos imágenes consecutivas de la cámara (2.2), una imagen se habrá obtenido con el primer grupo de fuentes de luz (2.1) activado y el segundo grupo de fuentes de luz (2.1) desactivado y la segunda imagen con el segundo grupo de fuentes de luz (2.1) activado y el primer grupo de fuentes de luz (2.1) desactivado.
Esto permite mejorar la imagen del borde de la pupila (1.3) en las imágenes del ojo (1) capturadas por la cámara (2.2), ya que, si, en una imagen, un área del borde de la pupila (1.3) es difícil de distinguir por encontrarse oculta por el destello de una fuente de luz (2.1) del primer grupo activo, queda asegurada una buena visibilidad de esa área del borde de la pupila (1.3) cuando se activa inmediatamente después el segundo grupo de fuentes de luz
(2.1).
En la figura 3 se muestra una vista de la distribución de las fuentes de luz (2.1), la cámara
(2.2) y el emisor de luz de haz estrecho (2.3) en el ejemplo de realización preferente de la invención.
Mas concretamente se puede observar como el emisor de luz de haz estrecho (2.3) emite un haz de luz estrecho, cuyo reflejo sobre el ojo (1) tienen menor incertidumbre de posición que los destellos de la pluralidad de fuentes de luz (2.1), en correspondencia con el eje de la cámara (2.2), de manera que permita un mejor cálculo de la referencia geométrica absoluta sobre la superficie del ojo (1). Adicionalmente, en una configuración preferente, el emisor de luz de haz estrecho (2.3) se utiliza como fuente de luz de un autorefractómetro.
Asimismo, en la figura 3 se puede observar como la pluralidad de fuentes de luz (2.1) se disponen en forma de matriz alrededor de la cámara (2.2) y a diferentes distancias entre si vertical y horizontalmente, esto permite una distribución de destellos amplia y relativamente constante en la superficie visible del ojo (1) y reduce los problemas ocasionados por parpadeo o parpado caído, ya que siguen viéndose destellos incluso en esas condiciones.

Claims

REIVINDICACIONES istema de seguimiento de la dirección de la mirada (3.5) de un usuario, que comprende: una pluralidad de fuentes de luz (2.1) que emiten luz infrarroja al menos sobre un ojo (1) del usuario, una cámara (2.2) configurada para capturar imágenes infrarrojas del ojo (1); un controlador que comprende al menos un procesador, en donde el controlador está configurado para: o detectar una pluralidad de destellos en una imagen del ojo (1) capturada por la cámara (2.2), en donde cada destello es un reflejo de una de las fuentes de luz (2.1) en la superficie visible del ojo (1); y o hacer una correspondencia entre cada destello detectado y la fuente de luz (2.1) que generó dicho destello en la superficie visible del ojo (1); caracterizado por que: la pluralidad de fuentes de luz (2.1) se disponen en forma de matriz cubriendo al menos parcialmente la superficie visible del ojo (1); y el controlador está adicionalmente configurado para: o analizar la imagen del ojo (1) y determinar a qué región del ojo (1) pertenece cada pixel de la imagen; o generar una geometría 3D del ojo (1) a partir de la pluralidad de destellos relativa a una referencia geométrica absoluta determinada por la posición de la cámara (2.2) y la pluralidad de fuentes de luz (2.1); y o definir un centro de rotación ocular (3.1) del ojo (1) basándose en la geometría 3D del ojo (1) con el cual se determina la dirección de la mirada (3.5). istema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que el controlador está adicionalmente configurado para: detectar los movimientos característicos del ojo (1) en una serie de imágenes del ojo (1) capturadas por la cámara (2.2) durante una fijación de la mirada; estimar un punto exterior (3.4) al ojo (1) de la línea de dirección de la mirada (3.5) basándose en los movimientos característicos del ojo (1) en dicha fijación; definir un PRL activo (3.3) del ojo (1) en la geometría 3D del ojo (1) como el punto de intersección con la parte posterior de la geometría 3D del ojo (1) de la línea de dirección de la mirada (3.5) definida por el centro de rotación ocular (3.1) y el punto exterior (3.4) al ojo (1). istema de seguimiento, de acuerdo con la reivindicación anterior, caracterizado por que la pluralidad de fuentes de luz (2.1) comprende al menos dos grupos de fuentes de luz
(2.1) configurados para emitir luz de forma alterna. istema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que al menos una fuente de luz (2.1) está configurada para emitir un foco de luz de diferente tamaño geométrico que el resto de la pluralidad de fuentes de luz (2.1), estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo (1) identificando el destello en la imagen del ojo (1) en relación con la correspondiente fuente de luz (2.1) configurada para emitir un foco de luz de diferente tamaño geométrico que el resto de la pluralidad de fuentes de luz (2.1). istema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que al menos una fuente de luz (2.1) está configurada para emitir un foco de luz de diferente potencia que el resto de la pluralidad de fuentes de luz
(2.1), estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo (1) identificando el destello en la imagen del ojo (1) en relación con la fuente de luz (2.1) configurada para emitir un foco de luz de diferente potencia que el resto de la pluralidad de fuentes de luz (2.1). istema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que al menos dos fuentes de luz (2.1) se encuentran más próximas entre sí que la distancia entre el resto de la pluralidad de fuentes de luz (2.1), estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo (1) identificando los destellos en la imagen del ojo (1) en relación con las fuentes de luz (2.1) que están más próximas entre sí que la distancia entre el resto de la pluralidad de fuentes de luz (2.1). istema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que comprende un emisor de luz de haz estrecho (2.3), estando el controlador configurado para determinar la referencia geométrica absoluta sobre la superficie visible del ojo (1) identificando un reflejo en la superficie visible del ojo (1) en relación con el emisor de luz de haz estrecho (2.3). istema de seguimiento, de acuerdo con la reivindicación anterior, caracterizado por que el emisor de luz de haz estrecho (2.3) emite un láser infrarrojo. istema de seguimiento, de acuerdo con la reivindicación 7, caracterizado por que el emisor de luz de haz estrecho (2.3) emite un haz de luz infrarroja difusa colimada. Sistema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que las fuentes de luz (2.1) son diodos emisores de luz (LED) infrarrojos. Sistema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones anteriores, caracterizado por que la cámara (2.2) comprende una óptica asociada con un sistema de foco variable con control de foco. Sistema de seguimiento, de acuerdo con una cualquiera de las reivindicaciones 1 a 10, caracterizado porque la cámara (2.2) comprende una óptica asociada con un sistema de foco fijo con una profundidad de campo de al menos 5 mm.
PCT/ES2021/070891 2021-12-15 2021-12-15 Sistema de seguimiento de la direccion de la mirada Ceased WO2023111365A1 (es)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21967966.9A EP4449975A4 (en) 2021-12-15 2021-12-15 EYESIGHT DIRECTION TRACKING SYSTEM
US18/720,141 US20250157073A1 (en) 2021-12-15 2021-12-15 Gaze direction tracking system
PCT/ES2021/070891 WO2023111365A1 (es) 2021-12-15 2021-12-15 Sistema de seguimiento de la direccion de la mirada

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/ES2021/070891 WO2023111365A1 (es) 2021-12-15 2021-12-15 Sistema de seguimiento de la direccion de la mirada

Publications (1)

Publication Number Publication Date
WO2023111365A1 true WO2023111365A1 (es) 2023-06-22

Family

ID=86773674

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2021/070891 Ceased WO2023111365A1 (es) 2021-12-15 2021-12-15 Sistema de seguimiento de la direccion de la mirada

Country Status (3)

Country Link
US (1) US20250157073A1 (es)
EP (1) EP4449975A4 (es)
WO (1) WO2023111365A1 (es)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4039145A1 (de) * 1989-12-07 1991-06-13 Asahi Optical Co Ltd Verfahren zum erfassen der blickrichtung des menschlichen auges
US20060110008A1 (en) * 2003-11-14 2006-05-25 Roel Vertegaal Method and apparatus for calibration-free eye tracking
JP2011115460A (ja) * 2009-12-04 2011-06-16 Saga Univ 視線制御装置、視線制御方法、及びそのプログラム
CA2750287A1 (en) * 2011-08-29 2011-11-02 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8878749B1 (en) * 2012-01-06 2014-11-04 Google Inc. Systems and methods for position estimation
US9292765B2 (en) * 2014-01-07 2016-03-22 Microsoft Technology Licensing, Llc Mapping glints to light sources

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4039145A1 (de) * 1989-12-07 1991-06-13 Asahi Optical Co Ltd Verfahren zum erfassen der blickrichtung des menschlichen auges
US20060110008A1 (en) * 2003-11-14 2006-05-25 Roel Vertegaal Method and apparatus for calibration-free eye tracking
JP2011115460A (ja) * 2009-12-04 2011-06-16 Saga Univ 視線制御装置、視線制御方法、及びそのプログラム
CA2750287A1 (en) * 2011-08-29 2011-11-02 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4449975A4 *

Also Published As

Publication number Publication date
EP4449975A4 (en) 2025-10-22
EP4449975A1 (en) 2024-10-23
US20250157073A1 (en) 2025-05-15

Similar Documents

Publication Publication Date Title
ES3039315T3 (en) Reliability of gaze tracking data for left and right eye
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
CA2685976C (en) Methods and apparatus for estimating point-of-gaze in three dimensions
US9439592B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
US6655805B2 (en) Ophthalmic apparatus
US7600873B2 (en) Method of determining the spatial relationship of an eye of a person with respect to a camera device
JP2023500376A (ja) 医用イメージング用の拡張現実ヘッドセット
WO2013117727A1 (en) System for examining eye movements, particularly the vestibulo-ocular reflex and dynamic visual acuity
ES2993143T3 (en) Eye tracking fixation monitoring systems and methods
JPWO2019143844A5 (es)
ES2965618T3 (es) Técnica para determinar un indicador de riesgo de miopía
JP2016190029A (ja) 前庭試験装置
ES2914240T3 (es) Dispositivo oftálmico
US20190216311A1 (en) Systems, Methods and Devices for Monitoring Eye Movement to Test A Visual Field
CN113080836A (zh) 非中心注视的视觉检测与视觉训练设备
JP4102888B2 (ja) 広視野角眼底血流画像化装置
JP2024138471A (ja) 網膜障害を有する見る人の目の視覚を改善するためのシステム及び方法
Ott et al. Video-oculographic measurement of 3-dimensional eye rotations
ES2943064T3 (es) Visor de realidad virtual para neurorrehabilitación visual
WO2023111365A1 (es) Sistema de seguimiento de la direccion de la mirada
WO2014016454A1 (es) Aparato para la medición de la topografía y espesor de la cornea y procedimiento de medida empleado
CN113080844B (zh) 优选视网膜区的视觉检测与视觉训练设备
US7628488B2 (en) Method for reproducing a fixation mark for ophthalmological therapeutic equipment
RU2648202C2 (ru) Способ офтальмологического исследования поля зрения
US20200281528A1 (en) Method and system for diagnosing a disease using eye optical data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21967966

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18720141

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2021967966

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021967966

Country of ref document: EP

Effective date: 20240715

WWP Wipo information: published in national office

Ref document number: 18720141

Country of ref document: US