[go: up one dir, main page]

SE524003C2 - Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel - Google Patents

Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel

Info

Publication number
SE524003C2
SE524003C2 SE0203457A SE0203457A SE524003C2 SE 524003 C2 SE524003 C2 SE 524003C2 SE 0203457 A SE0203457 A SE 0203457A SE 0203457 A SE0203457 A SE 0203457A SE 524003 C2 SE524003 C2 SE 524003C2
Authority
SE
Sweden
Prior art keywords
eye
image
detector
images
light sources
Prior art date
Application number
SE0203457A
Other languages
English (en)
Other versions
SE0203457L (sv
SE0203457D0 (sv
Inventor
John Elvesjoe
Maarten Skogoe
Gunnar Elvers
Original Assignee
Tobii Technology Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=20289646&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=SE524003(C2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Tobii Technology Ab filed Critical Tobii Technology Ab
Priority to SE0203457A priority Critical patent/SE524003C2/sv
Publication of SE0203457D0 publication Critical patent/SE0203457D0/sv
Priority to AU2003284816A priority patent/AU2003284816A1/en
Priority to EP03776116A priority patent/EP1562469B1/en
Priority to CNB2003801036960A priority patent/CN100421614C/zh
Priority to DK03776116T priority patent/DK1562469T3/da
Priority to ES03776116T priority patent/ES2327633T3/es
Priority to PT03776116T priority patent/PT1562469E/pt
Priority to PCT/SE2003/001813 priority patent/WO2004045399A1/en
Priority to JP2004553361A priority patent/JP4783018B2/ja
Priority to DE60327798T priority patent/DE60327798D1/de
Priority to US10/535,227 priority patent/US7572008B2/en
Priority to AT03776116T priority patent/ATE432038T1/de
Publication of SE0203457L publication Critical patent/SE0203457L/sv
Publication of SE524003C2 publication Critical patent/SE524003C2/sv
Priority to JP2011046089A priority patent/JP5297486B2/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Burglar Alarm Systems (AREA)

Description

20 25 30 35 40 524 003 2 ögat, roterar. En sjätte teknik är att, med hjälp av en fotosensor, mäta ellipticitet hos pupill eller iris, när ögat roterar. En sjunde teknik är att använda sig av en diod och två eller flera optiska transiistorer monterade i ett par glasögon. När ljuset från dioden reflekteras i hornhinnan och se- dan träffar en optisk transistor kommer transistoms signal att variera med ljusets fárdlängd från dioden via hornhinnan och till transistorn. En åttonde teknik är att använda en fotosensor för att detektera reflektionen av en ljuskälla i hornhinnan och att sedan se hur dess position förhåller sig mot centrum av pupill eller iris. Pupillen kan i detta fall göras tydligare antingen genom att belys- ning monterad intill fotosensom lyser upp näthinnan i ögat och därigenom orsakar rödögseffekt, eller genom att belysa ögat, så att iris lyses upp medan pupillen förblir mörk.
I U.S. patentskrift 5,86l,940 visas ett system för detektion av ögon och för att följa blick- vinklar. Systemet innefattar ljuskällor i form av en IR-laser 2, som försedd med lärnplig optik ut- sänder ett konvergent strålknippe med fokus framför ögat, och två IR-lasrar eller -dioder 9, 10, som växelvis utsänder divergenta strålknippen. Genom att detektera reflektionen från näthinnan med hjälp av en positionskänslig detektor erhålls information om ögats läge. Genom att detektera reflektionema från hornhinnan för flera ljuskällor bestäms ögats avstånd från videokameran. De senare två IR-lasrarna är placerade vid underkanten av en datorbildskärm 1. Andra system visas i U.S. patentskrifter 6,079,829 samt 6,l52,563 och 6,246,779.
Det kan vid automatiska system som utnyttjar en videokamera vara svårt att bestämma vari en upptagen bild reflexer av ljuskällor i en användares ögon befinner sig. Detta beror bl a på att användaren kan röra huvudet, förflytta det i sidled och närmare eller på större avstånd från karne- ran. Det automatiska systemet kan innehålla komplexa bildbehandlings- och bildigenkänningsru- tiner för att bestämma de områden, där bilder av ögon finns. Det finns därför behov av metoder för underlättande av sådan bestämning av områden i en upptagen bild, i vilka reflexer och bilder av ögon finns. Vid bestämning av blickpunkten på en yta såsom en bildskärm måste vidare alltid avståndet mellan användarens ögon och bildskärmen bestämmas och alltså erfordras effektiva metoder för en sådan bestärrming.
REDOGÖRELSE FÖR UPPFINNINGEN Det är ett syfte med uppfinningen att anvisa ett effektivt förfarande och en effektiv anlägg- ning för att detektera och följa ögon och blickvinklar.
Vid ett förfarande och i en anläggning för att detektera ögon och blickvinklar används en fotosensor såsom en CCD-enhet med lärnplig optik eller en videokamera, en eller flera ljuskällor och en beräknings- och styrenhet. För att kunna bestämma var, på exempelvis en bildskärm, en person tittar måste positionen för personens ögon både i djupled och i sidled sett från bildskärmen samt den riktning i vilket ögat tittar vara kända. För att bestämma ett ögas position, dvs dess läge relativt fotosensor eller en bildskärm, belyses ögat med två eller fler ljuskällor anordnade på av- stånd från varandra. Bilderna på fotosensom av reflektionema av dessa ljuskällor i personens homhinna kommer då att bero av var i fotosensoms synfält personen befinner sig. Fotosensoms bild av reflektionema ger all den information som krävs för att exakt bestämma var personen be- finner sig i fotosensoms synfålt. Genom att utvärdera hela det mönster som bildas från flera ljus- källors reflektioner, dvs läget för reflektionema i förhållande till varandra och i hela bilden, kan 10 15 20 25 30 35 40 524 003 3 god precision och tillförlitlighet i bestärnningen av var ögonen befinner sig erhållas. I ett enkelt fall bestäms endast mönstrets storlek och dess plats i den upptagna bilden.
Vid förfarandet används sålunda en fotosensor för att skapa en tvådimensionell bild av verkligheten samt allmänt en eller flera ljuskällor. Ljuskällan/ljuskållorna lyser upp eventuella ögon inom fotosensoms synfalt, så att diffiist reflekterande ytor blir tydligare för fotosensom och så att ljuset från ljuskällan/ljuskälloma i homhinnor ger upphov till reflexer, vilka av fotosensom uppfattas som diskreta ljuspunkter.
Den tvådimensionella bild som skapas av fotosensom analyseras med hjälp av komplex bildbehandling för att bestämma var i bilden eventuella ögon, samt ljusreflektioner, befinner sig.
Denna information används sedan för att bestärrnna var det finns ögon och/eller i vilken riktning dessa tittar, vilket i sin tur kan användas för att exempelvis bestämma var på en bildskärm en da- toranvändare tittar.
I den tvådimensionella bilden söks efter pupill och/eller iris. Bilden av pupillen kan göras tydligare genom belysning från en eller flera ljuskällor. Ljuskällan/ljuskälloma kan placeras myc- ket nära eller på den optik, som fokuserar den tvådimensionella bilden på fotosensom. Ljuskäl- lans/ljuskällomas spridningsfålt motsvarar då fotosensoms synfält, och för ett öga som befinner sig inom fotosensoms synfålt kommer den punkt på näthinnan som belyses av ljuskällan/ljuskäl- loma att vara samma eller åtminstone delvis samma punkt, som avbildas på fotosensom. Detta gör att pupillen förefaller ljusare än sin omgivning. Fenomenet är detsamma som ger upphov till att ögon vid fotografering kan framträda med röd färg.
För att uppnå så kraftig rödögseffekt som möjligt placeras ljuskällan/ljuskälloma så nära fo- tosensoms synaxel som möjligt utan att störa sensoms synfält. Den del av näthinnan hos ett öga, som fotosensom ser, sammanfaller då till stor del med den del av näthinnan, som lyses upp av ljuskällan/ljuskälloma. Förutsatt att ljuskällan/ljuskälloma måste placeras framför den optik som fokuserar bilden på fotosensorn, är en ljuskälla utformad med ett centralt hål, av samma fonn som fotosensom, ett bra sätt att komma nära fotosensoms synaxel utan att skymma dess synfalt.
Ju längre ifrån optiken ljuskällan placeras, desto större måste hålet vara för att inte störa fotosen- soms synfált. Därför är det önskvärt att kunna placera ljuskällan så nära optiken som möjligt i det fall då rödögseffekt eftersträvas. Att använda rödögseffekt för bestämning av ögons riktning, samtidigt som ögons position bestäms genom att låta flera ljuskällor reflekteras i hornhinnor kan orsaka problem. De många ljusreflektionema riskerar att bli svårupptäckta i bilden av den upplys- ta pupillen. Samtidigt lyser de omkringliggande ljuskälloma för positionsbestärnning upp ansik- ten förutom pupiller, vilket minskar rödögseffekten. För att undvika dessa problem kan de båda ljussättningama, en för riktningsbestämning och en för positionsbestämning, altemeras så att en- dast en uppsättning är aktiv under varje bild som tas. Detta medför att riktning och position inte kan bestämmas ur samma bild, men å andra sidan ökar det robustheten hos systemet.
Om ljuskällan/ljuskälloma i stället placeras ett stycke ifrån fotosensoms optiska axel, er- hålls en mörk pupill, medan det omgivande ansiktet blir ljusare ju starkare ljuskällan/ljuskälloma strålar. Denna ljussättning är att föredra då iris skall hittas, och den har även den fördelen, att kontrasten mellan pupill och iris inte försämras av ströljus från omgivningen, såsom är fallet med 10 15 20 25 30 35 40 524 003 ett system baserat på rödögseffekt.
För att inte störa den person som belyses av lj uskällari/ljuskälloma, kan ljus- källan/ljuskälloma väljas att utsända ljus våglängder, som ej är synliga för märmiskoögat, men som kan detekteras av fotosensom. Exempelvis kan ljus i NIR-området (N IR = Near InfraRed) användas, dvs ljus med något längre våglängd än vad ett märmiskoöga kan uppfatta. Sådant ljus kan detekteras av de flesta fotosensorer utformade att detektera synligt ljus.
Den använda fotosensorn kan med fördel vara av högupplösande typ. Detta medför, att en större mängd data erhålls, när hela fotosensom exponeras. För att minska resursåtgången vid be- arbetning av data kan endast data från ett givet område av intresse (OAI) behandlas. För att mins- ka belastningen på kommunikationslänken mellan fotosensom och beräkningsenheten kan sålun- da beräkningsenheten välja att endast be fotosensorn om de data, som kommer från det aktuella OAI:et. På så vis kan såväl beräknings- som kommunikationsresurser frigöras för andra ändamål.
För att kunna välja ett passande OAI för en exponering av fotosensom används lämpligtvis infor- mation om var ögon har befunnit sig i de närmast föregående bildema.
FIGURBESKRIVNING Uppfinningen skall nu beskrivas som ett ej begränsande utföringsexempel med hänvisning till de bifogade ritningama, i vilka: - Fig. l är en schematisk bild framifrån av ett exempel på en anläggning för att detektera och följa ögon samt blickvinklar, - Fig. 2 är en schematisk bild över hur i en tvådimensionell, medelst en fotosensor upptagen bild avståndet mellan två ljuskällor reflekterade i en homhinna beror av homhinnans avstånd till foto- sensorn, - Fig. 3a och 3b är schematisk bilder framifrån av ett exempel på en utformning av en, med foto- sensoms synfält, koaxiell belysning för att uppnå rödögseffekt med olika dioder tända och släck- Ia, - Fig. 4a är en bild av ett öga upptagen med hjälp av en fotosensor och belyst för att kunna be- stämma ögats blickvinkel samt var det befinner sig i fotosensoms tvådimensionella koordinatsys- tem, - Fig. 4b är bild erhållen genom kantanalys av bilden i fig. 4a, - Fig. Sa är en bild av ett öga liknande fig. 4a men belyst för att kunna bestämma ögats avstånd till fotosensom, - Fig. 5b är bild erhållen genom kantanalys av bilden i fig. Sa, och - Fig. 6 är ett flödesschema som visar steg vid behandling av information om hittade ögon i en tvådimensionell bild för att bestämma vilket öga som är vilket hos en användare, och - Fig. 7 är ett flödesschema över hela det förlopp, som utförs i en anläggning för att bestämma ett ögas läge och blickriktning DETALJERAD BESKRIVNING I fig. 1 visas en anläggning för att bestämma den punkt på en bildskärm 1, på vilken en da- toranvändare tittar. Bestänmingen utförs genom att följa användarens ögon och särskilt genom att bestämma ögonens blickvinklar och ögonens avstånd till bildskärmen. Anläggningen innefattar 10 15 20 25 30 35 40 524 003 5 bildskärmen 1, tre likadana ljuskällor 2 fästa längs en rak linje vid skärmens 1 övre kant, en foto- sensor 4 placerad vid mitten av skärmens undre kant och med lärnplig optik, ej visad, anordnad framför fotosensom för att dels filtrera bort oönskat ljus, dels fokusera en bild på fotosensorns ljuskänsliga yta, samt en ljuskälla 3 placerad koaxiellt med fotosensoms optiska axel, dvs anbragt omkring, på alla sidor av fotosensorns ljuskänsliga yta. Den ljuskänsliga ytan kan såsom visas va- ra rektangelforrnad. Den koaxiella ljuskällan 3 innefattar, se fig. 3a och 3b, ett flertal ljusutsän- dande element 3', 3" anordnade i två grupper, en inre, första grupp och en andra, yttre grupp. I den inre gruppen är de ljusutsändande elementen 3' placerade tätt intill den ljuskänsliga ytans kanter eller sidor. I det visade utförandet med rektangelforrnad ljuskänslig yta är tre element pla- cerade vid rektangelfonnens vardera långsida och två element vid dess vardera kortsida. I den ytt- re gruppen är de ljusutsändande elementen 3" placerade på större avstånd från den ljuskänsliga ytan, utanför elementen i den inre gruppen sett från den ljuskänsliga ytan mitt. I det visade utfö- randet finns lika många element i den yttre gruppen som i den inre gruppen och varje element i den yttre gruppen är placerat mellan två element i den inre gruppen, sett från mittpunkten hos den rektangelformade ljuskänsliga ytan.
Vid ett praktiskt utförande av anläggningen enligt fig. 1 utgjordes de tre likadana ljuskällor- na 2 vardera av sju NIR-dioder, HSDL 4230, med sex dioder anordnade symmetriskt kring en central diod. Sarnrna typ av dioder användes som de ljusutsändande elementen 3', 3" i belysnings- enheten 3 utformad enligt fig. 3a och 3b.
Utöver dessa komponenter finns även en samordnande beräknings- och styrenhet antydd vid 6 för att utföra erforderlig styrning och därmed sammanhängande utvärdering och beräkning- ar. Sålunda styr beräknings- och styrenheten tändning och släckning av ljuskälloma. Vidare utför den behandling av bilder upptagna med hjälp av fotosensom 4, speciellt bestämning av kantlinjer, dvs linjer mellan fält i bilden som har olika gråskaleintensitet eller färg. I bilden av ett öga be- stäms bl a kantlinjen som begränsar pupillen och ur denna erhålls pupillens centrum. Det senare kan göras genom att exempelvis anpassa en cirkel eller ellips till den kantlinje, som har avgjorts begränsa pupillen. Beräknings- och styrenheten 6 kan också, såsom skall beskrivas nedan, styra datauttaget från fotosensom 4, dvs bestämma de bildelement i en upptagen bild, för vilka infor- mation överförs från fotosensom till beräknings- och styrenheten.
I fig. 3a och 3b ses hur elementen i ljuskällan 3 är placerade runt fotosensom 4 för att kun- na belysa ögat på två olika sätt, genom tändning av de ljusutsändande elementen i den inre eller yttre gruppen. Det ena läget, vilket framgår av fig. 3a och i vilket endast elementen i den inre gruppen är tända, ger upphov till en tydlig rödögseffekt hos de pupiller, som detekteras av foto- sensom, medan det andra, vilket visas i fig. 3b och i vilket endast elementen i den yttre gruppen är tända, är till för att ge upphov till reflexer i hornhinnor utan att orsaka en tydlig rödögseffekt.
När anläggningen enligt fig. 1 är i drift, altemerar det mellan två ljussättningslägen. Läge (i) är till för att bestämma den riktning, i vilken användaren tittar. I läge (ii) bestäms avståndet från användarens ögon till fotosensom 4. I båda lägena fås även information om var användarens öga eller ögon befinner sig sett i fotosensorns tvådimensionella koordinatsystem.
När anläggningen är i läge (i), är de inre elementen 3' i den med fotosensorns 4 synfallt ko- 10 15 20 25 30 35 524 005 6 axiellt anordnade ljuskällan 3 tända i det läge, som visas i fig. 3a och ger en kraftig rödögseffekt hos alla pupiller inom fotosensoms synfält. I detta läge är alla de tre ljuskälloma 2 placerade ovanför skärmen l släckta, dvs endast elementen i den inre gruppen är tända. Bilden av en pupill inom fotosensoms 2 synfält kommer då att se ut såsom framgår av fig. 4a, där pupillen 5, järnför fig. 4b, är upplyst på grund av rödögseffekten och reflektionen i homhinnan av ljuskällan 3 syns som en punktforrnad reflex 3°a. Den upptagna bilden analyseras av beräkningsenheten 6 och kantlinjer enligt fig. 4b bestäms. I bilden med rödögseffekt är det speciellt stor kontrast mellan de bildfält, som motsvarar pupill och iris, jämför bilden i fig. Sa, som är upptagen med annan belys- ning, och därför kan kantlinjen mellan dessa fält beräknas med god noggrannhet. Denna noggrant bestämda kantlinje avgränsar pupillen och ur den kan sedan pupillens centrum bestännnas, följ- aktligen också med god noggrannhet. Vid bestämning av centrum kan såsom ovan närrmts an- passning av en ellips till kantlinj en användas, vilket är särskilt viktigt i det fall att pupillen endast delvis är synlig i bilden. I bilden bestäms vidare läget för reflexen 3'a och speciellt reflexens mitt- punkt. Till sist beräknas vektom från reflexens 3”a centrum till pupillens 5 centrum.
För att bestämma den riktning, i vilken användaren tittar, används den enligt ovan bestämda vektom. Denna vektors riktning anger den riktning, i vilken användaren tittar taget från kamerans optiska axel, och vektorns storlek anger den vinkel, i vilken användaren tittar, också taget från ka- merans optiska axel. Dessutom ger reflexens 3°a centrum information om läget för användarens öga sett i två dimensioner.
När systemet är i läge (ii), är elementen 3" i den yttre gruppen i den med fotosensoms syn- fält koaxiella ljuskällan 3 tänd i det läge enligt fig. 3b, som ej ger någon tydlig rödögseffekt.
Samtidigt är de tre ljuskälloma 2 vid skärmens överkant tända i detta läge. Fig. 5a visar hur ett öga kan avbildas på fotosensom 4 i detta läge med relativt låg kontrast mellan de bildfalt som motsvarar olika delar av ögat. Även denna bild analyseras för erhållande av kantlinjer, såsom vi- sas i fig. 5b, varvid noggrannheten hos de bestämda kantlinjema för fält motsvarande olika delar av ögat kan vara lägre än begränsningslinjen för pupillen enligt fig. 4b. I bilden enligt fig. 5b framgår dock de olika reflektionema mycket tydligt. Vid 3°b, se den analyserade bilden i fig. 5b, visas sålunda homhinnereflektionen av ljuskällan 3 aktiverad enligt det fall som framgår av fig. 3b, och vid 2” visas homhinnereflektionema av de vid skärmens överkant placerade ljuskälloma 2. Positionen för och avståndet mellan de olika reflektionema bestäms i bilden och denna bestäm- ning kan då göras med god noggrannhet. Mönstret för de fyra reflektionema, dvs i första hand de olika reflektionemas lägen relativt varandra, utvärderas för att bestämma ögats avstånd till foto- sensom 4. Speciellt är storleken på det mönster, som bildas av de fyra reflektionerna vid 2°, 3'b, beroende av ögats avstånd till fotosensom. Ju längre från fotosensom ögat är beläget, desto mind- re dimensioner har mönstret. På så vis erhålls ett mått på hur långt ifrån skärmen 1 användarens öga befinner sig. Även i detta läge fås information om var användarens öga befinner sig i två di- mensioner, från reflexen av den koaxiella ljuskällan 3 vid 3”b.
När systemet i fig. 1 är i drift, alternerar det således mellan läge (i) och läge (ii). Det krävs information från båda dessa lägen för att kurma ange det ställe på en bildskärm på vilket en an- 40 vändare tittar. I läge (i) detekteras användarens blickriktning och i läge (ii) användarens position. 10 15 20 25 30 35 40 524 003 7 Hos en datoranvändare är ögonrörelser vanligtvis avsevärt mycket snabbare än huvudrörelser.
Detta medför, att det är viktigare att ha nyligen uppdaterad information om användarens blickvin- kel än om användarens position i djupled från fotosensom 4 för att erhålla god precision i bestäm- ningen av den punkt på datorskärmen på vilken användaren tittar. Experiment visar, att om fyra bilder i läge (i) analyseras för varje bild i läge (ii) fås ett system med god precision. För blick- punktsbestämning används alltid informationen från den senaste bilden tagen i läge (i) sarnt den senaste bilden tagen i läge (ii).
I fig. 2 visas schematiskt hur avståndet mellan bilder av reflektioner av två ljuskällor beror på den reflekterande ytans avstånd från ljuskällorna och detektom, vilka antas ligga i samma plan. Avståndet mellan den reflekterade ytan och planet genom ljuskälloma är grovt omvänt pro- portionellt mot kvadratroten ur avståndet mellan bilderna. Ett sådant samband eller ett något mer exakt samband såsom framgår av fig. 2 kan användas tillsammans med absoluta värden erhållna vid en individuell kalibrering av anläggningen för varje användare för att ge en tillräckligt nog- grann avståndsbestärrming vid exempelvis styrning av en markör på bildskärmen, när använda- rens huvud rör sig.
Den fotosensor som används i ovan beskrivna anläggning är av högupplösande typ. På så vis kan användaren tillåtas större huvudrörlighet utan att detta medför försämrad precision. För att minska belastningen på beräkningsenheten och öka samplingshastigheten hos systemet an- vänds inte data från fotosensom mer än nödvändigt. Beräkningsenheten använder information om var ögon har hittats i tidigare bilder för att välja ut den del av fotosensorns ljuskänsliga yta, som skall exponeras inför varje ny bild eller användas i varje ny bild, och styr fotosensom i enlighet härmed. Om användarens ögon hittades i föregående bild, används bara en liten del av bildele- menten hos fotosensoms ljuskänsliga yta. Endast i det fall att inga ögon har hittats, används data från alla bildelement hos fotosensorns ljuskänsliga yta eller i vart fall data som representerar hela bildytan, erhållna exempelvis genom en nedsarnplingsoperation av data för hela bildytan. På så vis fås ett system som är relativt långsamt när det gäller att detektera ögon och ögons avstånd i djupled, men som kan fås att följa ögon och särskilt blickriktning med hög hastighet, efter det att ögonen väl är hittade.
Ett öga har unika fysikaliska egenskaper vilka tillsammans med ögats position och blick- riktning styr hur en bild tagen såsom visas i fig. 4a eller i fig. Sa kommer att se ut. För att kunna bestämma var en person tittar ur de data som kan erhållas ur dessa bilder kan om så erfordras sys- temet kalibreras individuellt för den person som sitter framför skärmen. Dessutom måste sys- temet veta vilket öga som är vilket, dvs om de beräknade kantlinjema enligt fig. 4b och 5b tillhör användarens vänstra eller högra öga.
När båda ögonen hos en användare är synliga för fotosensom 4, är det lätt att säga vilket öga som är vänster öga och vilket som är höger öga, men i det fall att endast ett öga hittas, krävs ett annat sätt att bestämma vilket öga det Ett sådant sätt skall nu beskrivas och de olika stegen däri åskådliggörs också av flödesschemat i fig. 6. Den första faktor som inverkar är förflyttnings- hastigheten hos användarens ögon. Det finns en övre gräns för hur fort ett öga kan förflytta sig.
Detta medför, att om det farms ett känt öga i en given position i en tidigare bild, kan detta öga inte 10 15 20 25 30 35 524 003 8 ha förflyttat sig mer än en viss sträcka sedan den tidigare bilden togs. Om avståndet är för stort mellan det tidigare kända och det nu funna ögat, är alltså det nu funna ögat ett armat än det som tidigare var detekterat. Även om det tidigare kända ögat var det enda kända ögat vid den tidpurik- ten, måste det ha funnits ett område, inom vilket det andra ögat bör ha befunnit sig. Avståndet mellan en användares ögon kan på detta vis användas för att bedöma, huruvida det öga som ej var känt kan ha flyttat sig till den position, där det nya ögat hittats. Om avståndet är tillräckligt litet för endast ett av användarens ö gon, måste det funna ögat vara detsamma som detta öga.
Om ovan nämnda kriterier ej ger klarhet i vilket öga som har hittats, finns det ytterligare en faktor till vilken hänsyn kan tas. Denna faktor är hur nära fotosensoms ytterkant ögat befinner sig. Om ögat bifinner sig så nära fotosensoms ytterkant, att det andra ögat skulle befinna sig utan- för sensoms synfält, om det befann sig på yttersidan om det funna ögat, gäller att antingen är det- ta fallet eller också finns det andra ögat inom fotosensoms synfält, men är skymt - troligtvis ge- nom att användaren blundar med det. I detta fall kan tillåtas, att systemet gissar att det funna ögat är det öga som medför, att det andra ögat är utanför fotosensorns synfält. Då systemet har gissat sig till vilket öga som hittats, sätts en lägre konfidensnivå för de data, som skickas ut från syste- met, för att visa att dessa data är osäkra.
I fig. 7 visas ett flödesschema över de olika steg, som utförs vid bestämning av och följande av en persons ögon och blickriktning. I ett första steg 71 tas en bild med belysning i läge (i), dvs när endast elementen 3' är tända. I bilden bestäms pupiller, dvs dessas kantlinjer, och reflektioner av ljuskällan. I nästa block 73 utförs proceduren enligt. fig. 6 för att bestämma vilket öga som är vilket. I steg 75 avgörs sedan om två ögon har påträffats i bilden. Om detta är fallet, utförs ett block 77, i vilket en bild tas med belysning i läge (ii), dvs med elementen 3" tända och dioderria 2 tända. I denna bild översänds till enheten 6 endast information för områden kring de funna ögo- nen. Reflektioner och därmed bilder av ögon i bilden bestäms. Därefter utförs i ett block 79 åter proceduren enligt. fig. 6 för att bestämma vilket öga som är vilket. I nästa steg 81 avgörs om två ögon har påträffats i bilden. Om detta är fallet, utförs i ett block 83 en beräkning i enheten 6 av ögonens blickpunkt. Sedan utförs ett block 85, i vilket åter upptas en bild med belysning i läge (i), dvs med endast elementen 3' tända. För den upptagna bilden översänds till enheten 6 endast information för områden kring redan funna ögon. Ur den begränsade bildinformationen bestäms pupiller och reflektioner av ljuskällan liksom i steg 71. Sedan utförs i ett block 87 äter proceduren enligt. fig. 6 för att bestämma vilket öga som är vilket. I nästa steg 89 avgörs om två ögon har på- träffats i bilden. Om detta är fallet, utförs i ett block 91 en beräkning av ögonens blickpunkt lik- som i block 83. Därefter avgörs i ett block 93 huruvida de fyra senast tagna bilderna är tagna med belysningen i läge (ii). Om detta inte är fallet, utförs åter blocket 85, och i annat fall blocket 77.
Om det i något av blocken 75, 81 och 89 avgjordes, att två ögon inte hade påträffats, utförs åter block 71.

Claims (22)

10 15 20 25 30 35 40 524 003 9 PATENTKRAV
1. Ögondetektionsanläggning innefattande - en eller flera ljuskällor för utsändande av ljus i riktning mot en användares huvud, - en detektor för mottagande av ljus från en användares huvud och för att upprepat uppta bilder därav, och - en utvärderingsenhet kopplad till detektom för bestämning av ett ögas läge och/eller blickrikt- ning, kännetecknad av att utvärderingsenheten är anordnad - att i en bild upptagen av detektom bestämma ett område i vilket en bild av ett öga eller bilder av ögon finns, och - att efter bestämning av området styra detektom att därefter till utvärderingsenheten översända information om följande bild eller bilder, som endast motsvarar det bestämda området av detek- torn.
2. Ögondetektionsanläggning enligt krav 1, kännetecknad av att i det fall att utvärderings- enheten ur den översända informationen inte kan utföra bestämningen, är utvärderingsenheten an- ordnad att styra detektom att för nästa bild översända information för en större del av detektorn kring det tidigare bestämda området.
3. Ögondetektionsanläggning enligt något av krav 1 - 2, kännetecknad av att utvärderings- enheten är anordnad - att i en aktuell bild upptagen av detektom avgöra huruvida bilden innehåller bilder av en använ- dares båda ögon, och - att i det fall, att utvärderingsenheten avgör, att en avbildning av endast ett öga finns i den aktuel- la bilden, bestämma att detta öga är samma öga som finns avbildat i en tidigare upptagen bild, förutsatt att avbildningen av ögat har en position i den aktuella bilden som är tillräckligt nära po- sitionen för avbildningen av ögat i den tidigare upptagna bilden.
4. Ögondetektionsanläggning enligt krav 3, kännetecknad av att i det fall, att utvärderings- enheten avgör, att en avbildning av endast ett öga finns i den aktuella bilden, att positionen för avbildningen av ögat i den aktuella bilden inte motsvarar eller är tillräckligt nära positionen för något öga i en eller flera tidigare upptagna bilder och att positionen för avbildningen av ögat i den aktuella bilden är sådan, att avståndet i sidled till den aktuella bildens ena kant är mindre, men till den andra kanten är större, än ett avstånd, som motsvarar avståndet mellan användarens ögon, är utvärderingsenheten anordnad att låta det öga, av vilket en avbildning finns i den aktuella bilden, vara det öga som innebär, att en avbildning av användarens andra öga skulle befinna sig utanför den aktuella bilden.
5. Ögondetektionsanläggning enligt något av krav 1 - 4, kännetecknad av - att minst två ljuskällor finns anordnade och är placerade på avstånd från varandra för utsändan- de av minst två strålknippen för reflektion mot hornhinnan hos en användares öga, och - att utvärderingsenheten är anordnad att i en upptagen bild använda positionerna för avbildningar av ljuskällomas reflektioner för att bestämma ögats placering i förhållande till detektom.
6. Ögondetektionsanläggning enligt krav 5, kännetecknad av att utvärderingsenheten är 10 15 20 25 30 35 40 524 003 10 anordnad att bestämma avståndet mellan avbildningar av ljuskällomas reflektioner i en upptagen bild för att därur bestämma ögats avstånd från detektorn.
7. Ögondetektionsanläggning enligt något av krav 5 - 6, kännetecknad av minst tre ljus- källor anordnade i ett bestämt mönster, varvid utvärderingsenheten är anordnad att bestämma po- sitionerna för avbildningar av ljuskällomas reflektioner och att använda alla de bestämda positio- nema för att bestämma ögats placering i förhållande till detektom.
8. Ögondetektionsanläggning enligt något av krav 5 - 7, kännetecknad av att ljuskällorna är indelade i två enheter, varvid den första enheten är anordnad att avge ljus lämpat för att, ur bil- der upptagna med belysning från endast denna enhet, bestämma ögats blickriktning och den andra enheten är anordnad att avge ljus lämpat för att, ur bilder upptagna med belysning från endast denna enhet, bestämma ögats avstånd till detektorn, varvid styrenheten är anordnad att aktivera endera eller båda av dessa enheter inför upptagandet av varje bild.
9. Ögondetektionsanläggning enligt något av krav 5 - 8, kännetecknad av minst tre ljus- källor, varav minst två är placerade vid en kant, särskilt den övre eller undre kanten, av en bild- skärm och en är placerad vid en motstående kant av bildskärmen, varvid utvärderingsenheten är anordnad att bestämma positionerna för avbildningar av ljuskällornas reflektioner och att använda de bestämda positionema för att bestämma ögats placering i förhållande till detektorn.
10. Ögondetektionsanläggning enligt något av krav 5 - 9, kännetecknad av minst tre ljus- källor placerade i rät linje vid en kant av en bildskärm, varvid utvärderingsenheten är anordnad att bestämma positionema för avbildningar av ljuskällomas reflektioner och att använda de be- stämda positionema för att bestämma ögats placering i förhållande till detektorn.
11. ll. Ögondetektionsanläggning enligt något av krav 5 - 10, kännetecknad av att en av ljus- källoma är anordnad att utsända ljus i ett strålknippe koaxiellt med detektoms optiska axel.
12. Ögondetektionsanläggning enligt krav 5, kännetecknad av att ljuskälloma är indelade i två enheter, varvid den första enheten är anordnad att avge ljus, som ger upphov till rödögseffekt och därmed är lämpat för att, ur bilder upptagna med belysning från endast denna enhet, bestäm- ma ögats blickriktning, och den andra enheten är anordnad att avge ljus lärnpat för att, ur bilder upptagna med belysning från endast denna enhet, bestämma ögats avstånd till detektom, varvid styrenheten är anordnad att aktivera endera eller båda av dessa enheter inför upptagandet av varje bild.
13. Ögondetektionsanläggning innefattande - en eller flera ljuskällor för utsändande av ljus i riktning mot en användares huvud, - en detektor för mottagande av ljus från en användares huvud och för att upprepat uppta bilder därav, och - en utvärderingsenhet kopplad till detektorn för bestämning av ett ögas läge och/eller blickrikt- ning, kännetecknad av att utvärderingsenheten är anordnad - att i en aktuell bild upptagen av detektorn avgöra, huruvida bilden innehåller bilder av en använ- dares båda ögon, och - att i det fall, att utvärderingsenheten avgör, att en avbildning av endast ett öga finns i den aktuel- 10 15 20 25 30 35 40 524 003 ll la bilden, bestämma att detta öga är samma öga som finns avbildat i en tidigare upptagen bild, förutsatt att avbildningen av ögat har en position i den aktuella bilden som är tillräckligt nära po- sitionen för avbildningen av ögat i den tidigare upptagna bilden.
14. Ögondetektionsanläggning enligt krav 13, kännetecknad av att i det fall, att utvärde- ringsenheten avgör, att en avbildning av endast ett öga finns i den aktuella bilden, att positionen för avbildningen av ögat i den aktuella bilden inte motsvarar eller är tillräckligt nära positionen för något öga i en eller flera tidigare upptagna bilder och att positionen för avbildningen av ögat i den aktuella bilden är sådan, att avståndet i sidled till den aktuella bildens ena kant är mindre, men till den andra kanten är större, än ett avstånd, som motsvarar avståndet mellan användarens ögon, är utvärderingsanordning att ta det öga, av vilket en avbildning finns i den aktuella bilden, vara det öga som innebär, att en avbildning av användarens andra öga skulle befinna sig utanför den aktuella bilden.
15. Ögondetektionsanläggning innefattande - minst två ljuskällor för utsändande av ljus i riktning mot en användares huvud, - en detektor för mottagande av ljus från en användares huvud och för att upprepat uppta bilder därav, och - en utvärderingsenhet kopplad till detektom, kännetecknad av - att minst två av ljuskälloma är placerade på avstånd från varandra för utsändande av minst två strålknippen för reflektion mot hornhinnan hos en användares öga, och - att utvärderingsenheten är anordnad att i en upptagen bild använda positionema för avbildningar av ljuskällornas reflektioner för att bestämma ögats placering i förhållande till detektorn.
16. Ögondetektionsanläggning enligt krav 15, kännetecknad av att utvärderingsenheten är anordnad att bestämrna avståndet mellan avbildningar av ljuskällomas reflektioner i en upptagen bild för att därur bestämma ögats avstånd från detektom.
17. Ögondetektionsanläggning enligt något av krav 15 - 16, kännetecknar] av minst tre ljuskällor anordnade i ett bestämt mönster, varvid utvärderingsenheten är anordnad att bestämma positionema för avbildningar av ljuskällomas reflektioner och att använda alla de bestämda posi- tionema för att bestämma ögats placering i förhållande till detektorn.
18. Ögondetektionsanläggning enligt något av krav 15 - 17, kännetecknad av att ljuskäl- loma är indelade i två enheter, varvid den första enheten är anordnad att avge ljus lämpat för att, ur bilder upptagna med belysning från endast denna enhet, bestämma ögats blickriktning och den andra enheten är anordnad att avge ljus lämpat för att, ur bilder upptagna med belysning från en- dast denna enhet, bestämma ögats avstånd till detektorn, varvid styrenheten är anordnad att akti- vera endera eller båda av dessa enheter inför upptagandet av varje bild.
19. Ögondetektionsanläggning enligt något av krav 15 - 18, kännetecknad av minst tre ljuskällor, varav minst två är placerade vid en kant, särskilt den övre eller undre kanten, av en bildskärm och en är placerad vid en motstående kant av bildskärmen, varvid utvärderingsenheten är anordnad att bestämma positionerna för avbildningar av ljuskällomas reflektioner och att an- vända de bestämda positionema för att bestämma ögats placering i förhållande till detektom. 10 524 003 12
20. Ögondetektionsanläggning enligt något av krav 15 - 19, kännetecknad av minst tre ljuskällor placerade i rät linje vid en kant av en bildskärm, varvid utvärderingsenheten är anord- nad att bestämma positionerna för avbildningar av ljuskällomas reflektioner och att använda de bestämda positionerna för att bestämma ögats placering i förhållande till detektorn.
21. Ögondetektionsanläggning enligt något av krav 15 - 20, kännetecknad av att en av ljuskälloma är anordnad att utsända ljus i ett strålknippe koaxiellt med detektoms optiska axel.
22. Ögondetektionsanläggning enligt krav 15, kännetecknad av att ljuskälloma är indelade i två enheter, varvid den första enheten är anordnad att avge ljus, som ger upphov till rödögsef- fekt och därmed är lämpat för att, ur bilder upptagna med belysning från endast denna enhet, be- stämma ögats blickriktning, och den andra enheten är anordnad att avge ljus lämpat fór att, ur bil- der upptagna med belysning från endast denna enhet, bestämma ögats avstånd till detektorn, var- vid styrenheten är anordnad att aktivera endera eller båda av dessa enheter inför upptagandet av varje bild.
SE0203457A 2002-11-21 2002-11-21 Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel SE524003C2 (sv)

Priority Applications (13)

Application Number Priority Date Filing Date Title
SE0203457A SE524003C2 (sv) 2002-11-21 2002-11-21 Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US10/535,227 US7572008B2 (en) 2002-11-21 2003-11-21 Method and installation for detecting and following an eye and the gaze direction thereof
AT03776116T ATE432038T1 (de) 2002-11-21 2003-11-21 Installation zum nachweis und zur verfolgung eines auges und seiner blickrichtung
ES03776116T ES2327633T3 (es) 2002-11-21 2003-11-21 Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo.
JP2004553361A JP4783018B2 (ja) 2002-11-21 2003-11-21 眼及びその凝視方向を検知し、追跡する方法と装置
CNB2003801036960A CN100421614C (zh) 2002-11-21 2003-11-21 用于检测和跟踪眼睛及其注视方向的方法和装置
DK03776116T DK1562469T3 (da) 2002-11-21 2003-11-21 Installation til at detekere og fölge et öje og dets synsretning
AU2003284816A AU2003284816A1 (en) 2002-11-21 2003-11-21 Method and installation for detecting and following an eye and the gaze direction thereof
PT03776116T PT1562469E (pt) 2002-11-21 2003-11-21 Instalação para detectar e seguir um olho e a direcção do olhar do mesmo
PCT/SE2003/001813 WO2004045399A1 (en) 2002-11-21 2003-11-21 Method and installation for detecting and following an eye and the gaze direction thereof
EP03776116A EP1562469B1 (en) 2002-11-21 2003-11-21 Installation for detecting and following an eye and the gaze direction thereof
DE60327798T DE60327798D1 (de) 2002-11-21 2003-11-21 Installation zum nachweis und zur verfolgung eines auges und seiner blickrichtung
JP2011046089A JP5297486B2 (ja) 2002-11-21 2011-03-03 眼及びその凝視方向を検知し、追跡する装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0203457A SE524003C2 (sv) 2002-11-21 2002-11-21 Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel

Publications (3)

Publication Number Publication Date
SE0203457D0 SE0203457D0 (sv) 2002-11-21
SE0203457L SE0203457L (sv) 2004-05-22
SE524003C2 true SE524003C2 (sv) 2004-06-15

Family

ID=20289646

Family Applications (1)

Application Number Title Priority Date Filing Date
SE0203457A SE524003C2 (sv) 2002-11-21 2002-11-21 Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel

Country Status (12)

Country Link
US (1) US7572008B2 (sv)
EP (1) EP1562469B1 (sv)
JP (2) JP4783018B2 (sv)
CN (1) CN100421614C (sv)
AT (1) ATE432038T1 (sv)
AU (1) AU2003284816A1 (sv)
DE (1) DE60327798D1 (sv)
DK (1) DK1562469T3 (sv)
ES (1) ES2327633T3 (sv)
PT (1) PT1562469E (sv)
SE (1) SE524003C2 (sv)
WO (1) WO2004045399A1 (sv)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2238889A1 (en) 2009-04-01 2010-10-13 Tobii Technology AB Adaptive camera and illuminator eyetracker
US11853477B2 (en) 2013-03-01 2023-12-26 Tobii Ab Zonal gaze driven interaction

Families Citing this family (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
JP4500992B2 (ja) * 2004-01-14 2010-07-14 国立大学法人静岡大学 三次元視点計測装置
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
CA2561287C (en) * 2004-04-01 2017-07-11 William C. Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US7322696B2 (en) * 2004-04-19 2008-01-29 Shamir Optical Industry Customized lens, and system and method of producing thereof
EP2202609B8 (en) 2004-06-18 2016-03-09 Tobii AB Eye control of computer apparatus
CN1293446C (zh) * 2005-06-02 2007-01-03 北京中星微电子有限公司 一种非接触式目控操作系统和方法
EP1928296B1 (en) 2005-09-27 2011-05-04 Penny AB A device for controlling an external unit
WO2007043954A1 (en) * 2005-10-10 2007-04-19 Tobii Technology Ab Eye tracker having an extended span of operating distances
CN101336089A (zh) * 2006-01-26 2008-12-31 诺基亚公司 眼睛跟踪器设备
WO2007101690A1 (en) * 2006-03-09 2007-09-13 Tobii Technology Ab Eye determination apparatus
AU2007247852B2 (en) 2006-05-04 2012-01-19 Commonwealth Scientific And Industrial Research Organisation An electronic media system
US8197539B2 (en) 2006-05-05 2012-06-12 University Of Southern California Intraocular camera for retinal prostheses
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
KR100850357B1 (ko) * 2006-12-06 2008-08-04 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
ES2316272B1 (es) * 2007-02-16 2009-11-30 Iriscom Sistemas, S.L . Sistema de seguimiento ocular para el gobierno de un ordenador.
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
EP2150170B1 (en) 2007-05-23 2016-05-11 Mirametrix Inc. Methods and apparatus for estimating point-of-gaze in three dimensions
DE102008006090A1 (de) 2008-01-25 2009-07-30 Claudius Zelenka Verfahren zur störungsfreien Erkennung der Position der Augen
EP2242419B1 (en) * 2008-02-14 2016-01-13 Nokia Technologies Oy Device and method for determining gaze direction
JP5163982B2 (ja) * 2008-06-16 2013-03-13 国立大学法人神戸大学 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ
TWI432172B (zh) * 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
US20100118199A1 (en) * 2008-11-10 2010-05-13 Kabushiki Kaisha Toshiba Video/Audio Processor and Video/Audio Processing Method
DK2389095T3 (da) * 2009-01-26 2014-11-17 Tobii Technology Ab Detektering af blikpunkt hjulpet af optiske referencesignaler
CN101807110B (zh) * 2009-02-17 2012-07-04 由田新技股份有限公司 瞳孔定位方法及系统
WO2010118292A1 (en) 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
US8320623B2 (en) * 2009-06-17 2012-11-27 Lc Technologies, Inc. Systems and methods for 3-D target location
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
TWI497247B (zh) * 2010-01-28 2015-08-21 Chi Mei Comm Systems Inc 實現亮度調節的資料處理設備及方法
US20110205148A1 (en) * 2010-02-24 2011-08-25 Corriveau Philip J Facial Tracking Electronic Reader
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
US9760123B2 (en) 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
KR20120057033A (ko) * 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
US9185352B1 (en) 2010-12-22 2015-11-10 Thomas Jacques Mobile eye tracking system
US20120244935A1 (en) * 2011-03-24 2012-09-27 International Business Machines Corporation Synchronizing game character display with game player viewing detection
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US20130033524A1 (en) * 2011-08-02 2013-02-07 Chin-Han Wang Method for performing display control in response to eye activities of a user, and associated apparatus
JP5912351B2 (ja) 2011-09-05 2016-04-27 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
CN103842941B (zh) * 2011-09-09 2016-12-07 泰利斯航空电子学公司 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制
CN103843047A (zh) * 2011-10-06 2014-06-04 本田技研工业株式会社 警报装置
US8976110B2 (en) 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
EP3200046A1 (en) 2011-10-27 2017-08-02 Tobii Technology AB Power management in an eye-tracking system
EP2587342A1 (en) 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
US9071740B1 (en) 2011-10-28 2015-06-30 Google Inc. Modular camera system
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8860660B2 (en) 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
CN102436306A (zh) * 2011-12-30 2012-05-02 四川虹欧显示器件有限公司 3d显示系统的控制方法和装置
US10540008B2 (en) 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US10488919B2 (en) 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
US10394320B2 (en) 2012-01-04 2019-08-27 Tobii Ab System for gaze interaction
US10025381B2 (en) 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
US9197686B1 (en) 2012-01-06 2015-11-24 Google Inc. Backfill of video stream
DE102012003283A1 (de) 2012-02-20 2013-08-22 4tiitoo AG Verfahren und Vorrichtung zur blickgestützten Steuerung
JP5926210B2 (ja) 2012-03-21 2016-05-25 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
ES2898981T3 (es) 2012-08-09 2022-03-09 Tobii Ab Activación rápida en un sistema de seguimiento de la mirada
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
JP6056323B2 (ja) * 2012-09-24 2017-01-11 富士通株式会社 視線検出装置、視線検出用コンピュータプログラム
US20140085198A1 (en) 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
EP2712541B1 (en) 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Tiled image based scanning for head and/or eye position for eye tracking
CN103777861A (zh) * 2012-10-23 2014-05-07 韩国电子通信研究院 终端和用于在终端中控制触摸操作的方法
US20140139556A1 (en) * 2012-11-22 2014-05-22 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and method for displaying software keyboards thereof
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
KR101417433B1 (ko) * 2012-11-27 2014-07-08 현대자동차주식회사 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법
US20140198034A1 (en) 2013-01-14 2014-07-17 Thalmic Labs Inc. Muscle interface device and method for interacting with content displayed on wearable head mounted displays
US9921648B2 (en) * 2013-02-22 2018-03-20 University Of Seoul Industry Cooperation Foundation Apparatuses, methods and recording medium for control portable communication terminal and its smart watch
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US20140247208A1 (en) 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
US11714487B2 (en) 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
US10082870B2 (en) 2013-03-04 2018-09-25 Tobii Ab Gaze and saccade based graphical manipulation
US10895908B2 (en) 2013-03-04 2021-01-19 Tobii Ab Targeting saccade landing prediction using visual history
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US9665171B1 (en) 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
GB2511868B (en) * 2013-03-15 2020-07-15 Tobii Ab Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US12504816B2 (en) 2013-08-16 2025-12-23 Meta Platforms Technologies, Llc Wearable devices and associated band structures for sensing neuromuscular signals using sensor pairs in respective pods with communicative pathways to a common processor
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US9143880B2 (en) 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
EP3036620B1 (en) 2013-08-23 2017-03-29 Tobii AB Systems and methods for providing audio to a user based on gaze input
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
KR101926942B1 (ko) 2013-09-03 2019-03-07 토비 에이비 휴대용 눈 추적 디바이스
WO2015038810A2 (en) * 2013-09-11 2015-03-19 Firima Inc. User interface based on optical sensing and tracking of user's eye movement and position
WO2015038160A1 (en) 2013-09-16 2015-03-19 Intel Corporation Camera and light source synchronization for object tracking
KR101503159B1 (ko) * 2013-10-15 2015-03-16 (주)이스트소프트 시선의 위치를 감지하여 터치스크린을 제어하는 방법
EP3063602B1 (en) * 2013-11-01 2019-10-23 Intel Corporation Gaze-assisted touchscreen inputs
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US9580081B2 (en) 2014-01-24 2017-02-28 Tobii Ab Gaze driven interaction for a vehicle
US10017114B2 (en) 2014-02-19 2018-07-10 Magna Electronics Inc. Vehicle vision system with display
US10409366B2 (en) 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US9477079B2 (en) 2014-06-25 2016-10-25 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays
US9411417B2 (en) 2014-07-07 2016-08-09 Logitech Europe S.A. Eye gaze tracking system and method
US9678567B2 (en) 2014-07-16 2017-06-13 Avaya Inc. Indication of eye tracking information during real-time communications
GB2528446B (en) 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof
WO2016022612A1 (en) * 2014-08-04 2016-02-11 Innosys, Inc. Lighting systems
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
US10288910B2 (en) 2014-11-14 2019-05-14 ESSILOR INTERNATIONAL Charenton-le-Pont Devices and methods for determining the position of a characterizing point of an eye and for tracking the direction of the gaze of a wearer of spectacles
US9405120B2 (en) 2014-11-19 2016-08-02 Magna Electronics Solutions Gmbh Head-up display and vehicle using the same
EP3051386A1 (en) 2015-01-30 2016-08-03 4tiitoo GmbH Eye tracking system and method
US10242379B2 (en) 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
CA2976903A1 (en) 2015-02-17 2016-08-25 Thalmic Labs Inc. Systems, devices, and methods for eyebox expansion in wearable heads-up displays
US10621431B2 (en) * 2015-03-27 2020-04-14 Lenovo (Singapore) Pte. Ltd. Camera that uses light from plural light sources disposed on a device
GB201507224D0 (en) * 2015-04-28 2015-06-10 Microsoft Technology Licensing Llc Eye gaze correction
US10197805B2 (en) 2015-05-04 2019-02-05 North Inc. Systems, devices, and methods for eyeboxes with heterogeneous exit pupils
US9544485B2 (en) 2015-05-27 2017-01-10 Google Inc. Multi-mode LED illumination system
US10078219B2 (en) 2015-05-28 2018-09-18 Thalmic Labs Inc. Wearable heads-up display with integrated eye tracker and different optical power holograms
US9554063B2 (en) 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9886620B2 (en) * 2015-06-12 2018-02-06 Google Llc Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera
US9454820B1 (en) 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
US9235899B1 (en) 2015-06-12 2016-01-12 Google Inc. Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
JP6582604B2 (ja) * 2015-06-23 2019-10-02 富士通株式会社 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
CN108474873A (zh) 2015-09-04 2018-08-31 赛尔米克实验室公司 用于将全息光学元件与眼镜镜片整合在一起的系统、制品和方法
US10016130B2 (en) 2015-09-04 2018-07-10 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
US10061383B1 (en) 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
US20170097753A1 (en) 2015-10-01 2017-04-06 Thalmic Labs Inc. Systems, devices, and methods for interacting with content displayed on head-mounted displays
US9904051B2 (en) 2015-10-23 2018-02-27 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking
TWI627438B (zh) * 2015-11-12 2018-06-21 柯尼卡美能達股份有限公司 鏡頭單元、攝像裝置及行動機器
US10324297B2 (en) 2015-11-30 2019-06-18 Magna Electronics Inc. Heads up display system for vehicle
CN105528577B (zh) * 2015-12-04 2019-02-12 深圳大学 基于智能眼镜的识别方法
US10802190B2 (en) 2015-12-17 2020-10-13 Covestro Llc Systems, devices, and methods for curved holographic optical elements
US9785234B2 (en) 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
WO2017113018A1 (en) 2015-12-31 2017-07-06 Mirametrix Inc. System and apparatus for gaze tracking
EP3187977A1 (en) 2015-12-31 2017-07-05 Tobii AB System for gaze interaction
US10303246B2 (en) 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
CN105763810B (zh) * 2016-03-28 2019-04-16 努比亚技术有限公司 基于人眼的拍照装置及方法
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
CN108353137A (zh) 2016-04-07 2018-07-31 托比股份公司 用于基于视觉的人机交互的图像传感器
US10594974B2 (en) 2016-04-07 2020-03-17 Tobii Ab Image sensor for vision based on human computer interaction
CN109313383A (zh) 2016-04-13 2019-02-05 赛尔米克实验室公司 用于聚焦激光投射器的系统、设备和方法
US10401621B2 (en) 2016-04-19 2019-09-03 Magna Electronics Inc. Display unit for vehicle head-up display system
CN107305629A (zh) * 2016-04-21 2017-10-31 王溯 目光识别装置及方法
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US10277874B2 (en) 2016-07-27 2019-04-30 North Inc. Systems, devices, and methods for laser projectors
US10416725B2 (en) * 2016-07-27 2019-09-17 Tobii Ab Wearable device having a display, lens, illuminator, and image sensor
WO2018027326A1 (en) 2016-08-12 2018-02-15 Thalmic Labs Inc. Systems, devices, and methods for variable luminance in wearable heads-up displays
US10372591B2 (en) 2016-09-07 2019-08-06 International Business Machines Corporation Applying eye trackers monitoring for effective exploratory user interface testing
CN109716265A (zh) 2016-09-20 2019-05-03 托比股份公司 基于注视和扫视的图形操纵
CN109923499B (zh) 2016-09-27 2022-07-29 托比股份公司 便携式眼睛追踪装置
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
US10215987B2 (en) 2016-11-10 2019-02-26 North Inc. Systems, devices, and methods for astigmatism compensation in a wearable heads-up display
CA3045192A1 (en) 2016-11-30 2018-06-07 North Inc. Systems, devices, and methods for laser eye tracking in wearable heads-up displays
US10365492B2 (en) 2016-12-23 2019-07-30 North Inc. Systems, devices, and methods for beam combining in wearable heads-up displays
US10718951B2 (en) 2017-01-25 2020-07-21 North Inc. Systems, devices, and methods for beam combining in laser projectors
WO2018156912A1 (en) 2017-02-27 2018-08-30 Tobii Ab System for gaze interaction
US10877647B2 (en) 2017-03-21 2020-12-29 Hewlett-Packard Development Company, L.P. Estimations within displays
US10460527B2 (en) * 2017-06-30 2019-10-29 Tobii Ab Systems and methods for displaying images in a virtual world environment
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
US11129530B2 (en) 2017-09-08 2021-09-28 Tobii Ab Eye tracking using eyeball center position
CN112040858B (zh) 2017-10-19 2024-06-07 元平台技术有限公司 用于识别与神经肌肉源信号相关的生物结构的系统和方法
US20190121135A1 (en) 2017-10-23 2019-04-25 North Inc. Free space multiple laser diode modules
EP3732548B1 (en) 2017-12-28 2024-05-29 Tobii AB Exposure time control
CN108256910A (zh) * 2018-01-10 2018-07-06 京东方科技集团股份有限公司 内容推荐方法、装置及电子设备
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US10459237B2 (en) 2018-02-01 2019-10-29 Dell Products L.P. System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user
WO2019185136A1 (en) 2018-03-28 2019-10-03 Tobii Ab Method and system for controlling illuminators
US10342425B1 (en) 2018-03-28 2019-07-09 Tobii Ab Method and system for controlling illuminators
TWI705354B (zh) * 2018-05-22 2020-09-21 宏達國際電子股份有限公司 眼球追蹤裝置及其光源控制方法
US10288879B1 (en) 2018-05-31 2019-05-14 Tobii Ab Method and system for glint/reflection identification
US10324529B1 (en) * 2018-05-31 2019-06-18 Tobii Ab Method and system for glint/reflection identification
WO2019228634A1 (en) 2018-05-31 2019-12-05 Tobii Ab Method and system for glint/reflection identification
CN108762511B (zh) * 2018-06-14 2020-08-25 北京七鑫易维信息技术有限公司 一种光源控制方法及装置
CN110740246A (zh) * 2018-07-18 2020-01-31 阿里健康信息技术有限公司 一种图像矫正方法、移动设备和终端设备
CN110850594B (zh) * 2018-08-20 2022-05-17 余姚舜宇智能光学技术有限公司 头戴式可视设备及用于头戴式可视设备的眼球追踪系统
US11353952B2 (en) * 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
US10885882B2 (en) 2018-12-06 2021-01-05 Tobii Ab Reducing aliasing artifacts in foveated rendering using cross-resolution modulation
US10775885B2 (en) 2019-02-15 2020-09-15 Dell Products L.P. Information handling system and method to improve the accuracy of eye tracking data generated by an eye tracking system
WO2020201999A2 (en) 2019-04-01 2020-10-08 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
US11644897B2 (en) 2019-04-01 2023-05-09 Evolution Optiks Limited User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same
US10712817B1 (en) 2019-06-27 2020-07-14 Tobii Ab Image re-projection for foveated rendering
US20220129068A1 (en) * 2019-07-11 2022-04-28 Hewlett-Packard Development Company, L.P. Eye tracking for displays
US11545131B2 (en) * 2019-07-16 2023-01-03 Microsoft Technology Licensing, Llc Reading order system for improving accessibility of electronic content
CN110251799B (zh) * 2019-07-26 2021-07-20 深圳市康宁医院(深圳市精神卫生研究所、深圳市精神卫生中心) 神经反馈治疗仪
US10788893B1 (en) 2019-08-06 2020-09-29 Eyetech Digital Systems, Inc. Computer tablet augmented with internally integrated eye-tracking camera assembly
CN114258279A (zh) * 2019-08-16 2022-03-29 苹果公司 使用经调制的同轴照明的瞳孔评估
US11322113B2 (en) 2019-09-12 2022-05-03 Logitech Europe S.A. Techniques for eye fatigue mitigation
US10842430B1 (en) 2019-09-12 2020-11-24 Logitech Europe S.A. Eye fatigue detection using visual imaging
CN112578556B (zh) 2019-09-27 2023-02-21 托比股份公司 用于减少来自光学装置的不合需的反射的眼睛跟踪系统
JP7576610B2 (ja) * 2019-09-27 2024-10-31 アルコン インコーポレイティド 即時視線校正システム及び方法
KR102696650B1 (ko) 2019-09-30 2024-08-22 삼성디스플레이 주식회사 전자 장치
WO2021073743A1 (en) 2019-10-17 2021-04-22 Huawei Technologies Co., Ltd. Determining user input based on hand gestures and eye tracking
CN112949370A (zh) 2019-12-10 2021-06-11 托比股份公司 眼睛事件检测
US10928904B1 (en) * 2019-12-31 2021-02-23 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11163995B2 (en) 2019-12-31 2021-11-02 Logitech Europe S.A. User recognition and gaze tracking in a video system
US12329514B2 (en) 2020-01-09 2025-06-17 Wavefront Dynamics, Inc. Methods for dynamic position measurement of ocular structures using purkinje reflection spots
US10685748B1 (en) 2020-02-12 2020-06-16 Eyetech Digital Systems, Inc. Systems and methods for secure processing of eye tracking data
US11921917B2 (en) 2020-04-07 2024-03-05 Eyetech Digital Systems, Inc. Compact eye-tracking camera systems and methods
US10996753B1 (en) * 2020-04-07 2021-05-04 Eyetech Digital Systems, Inc. Multi-mode eye-tracking with independently operable illuminators
CN111700586B (zh) * 2020-07-01 2023-09-29 业成科技(成都)有限公司 眼动追踪装置及应用其的电子装置
SE544921C2 (en) 2020-08-27 2023-01-03 Tobii Ab Eye tracking system
CN116507267A (zh) * 2020-09-22 2023-07-28 苹果公司 用于视网膜眼睛跟踪的多个注视相关照明源
SE2051433A1 (en) 2020-12-08 2022-06-09 Tobii Ab Method and system for glint classification
US11593962B2 (en) 2020-12-29 2023-02-28 Tobii Ab Eye gaze tracking system, associated methods and computer programs
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases
US12343081B2 (en) 2021-05-19 2025-07-01 Wavefront Dynamics, Inc. Optical aberrometer systems for customizing intraocular lens
US12458536B2 (en) 2021-05-19 2025-11-04 Wavefront Dynamics, Inc. Methods for customizing intraocular lens using an optical aberrometer
JPWO2023084356A1 (sv) 2021-11-12 2023-05-19
US12002290B2 (en) 2022-02-25 2024-06-04 Eyetech Digital Systems, Inc. Systems and methods for hybrid edge/cloud processing of eye-tracking image data
US11995232B1 (en) 2022-12-09 2024-05-28 Shopify Inc. Systems and methods for responsive user interface based on gaze depth
CN115836837B (zh) * 2023-02-20 2023-05-02 潍坊医学院附属医院 眼科检测装置
DE102023000955B3 (de) * 2023-03-13 2024-05-29 Mercedes-Benz Group AG Fahrzeuginsassenerfassungsvorrichtung und Fahrzeug
SE2350740A1 (en) 2023-06-16 2024-12-17 Tobii Ab Driver distraction from uncertain gaze estimation
ES1307022Y (es) * 2024-03-15 2024-07-19 Univ La Laguna Sistema de neurorrehabilitacion
US20250335023A1 (en) * 2024-04-24 2025-10-30 Huawei Technologies Co., Ltd. Methods and systems for controlling vehicle functions with gaze

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739331B2 (ja) * 1988-11-16 1998-04-15 株式会社エイ・ティ・アール通信システム研究所 非接触視線検出装置
JP2541688B2 (ja) * 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
JPH0761314B2 (ja) * 1991-10-07 1995-07-05 コナミ株式会社 網膜反射光量測定装置及び該装置を用いた視線検出装置
JP3109230B2 (ja) * 1992-03-17 2000-11-13 日産自動車株式会社 車両運転者の眼球位置検出装置
JPH06148513A (ja) * 1992-10-30 1994-05-27 Canon Inc 視線検出装置
US5638176A (en) * 1996-06-25 1997-06-10 International Business Machines Corporation Inexpensive interferometric eye tracking system
GB2315858A (en) * 1996-08-01 1998-02-11 Sharp Kk System for eye detection and gaze direction determination
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
DE19731301C2 (de) 1997-07-13 2001-05-10 Smi Senso Motoric Instr Gmbh Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse
JPH1156782A (ja) * 1997-08-12 1999-03-02 Techno Works:Kk 二光源及び画像差分手段を用いた眼球特徴点検出方式
AUPP048097A0 (en) * 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JP2000163564A (ja) * 1998-12-01 2000-06-16 Fujitsu Ltd 目の追跡装置および瞬き検出装置
JP3605080B2 (ja) * 2002-02-04 2004-12-22 キヤノン株式会社 視線検出装置
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2238889A1 (en) 2009-04-01 2010-10-13 Tobii Technology AB Adaptive camera and illuminator eyetracker
US11853477B2 (en) 2013-03-01 2023-12-26 Tobii Ab Zonal gaze driven interaction

Also Published As

Publication number Publication date
US20060238707A1 (en) 2006-10-26
SE0203457L (sv) 2004-05-22
JP2006507054A (ja) 2006-03-02
EP1562469B1 (en) 2009-05-27
ES2327633T3 (es) 2009-11-02
DE60327798D1 (de) 2009-07-09
WO2004045399A1 (en) 2004-06-03
EP1562469A1 (en) 2005-08-17
CN1725976A (zh) 2006-01-25
US7572008B2 (en) 2009-08-11
AU2003284816A1 (en) 2004-06-15
PT1562469E (pt) 2009-08-05
ATE432038T1 (de) 2009-06-15
JP4783018B2 (ja) 2011-09-28
DK1562469T3 (da) 2009-08-17
CN100421614C (zh) 2008-10-01
SE0203457D0 (sv) 2002-11-21
JP5297486B2 (ja) 2013-09-25
JP2011115606A (ja) 2011-06-16

Similar Documents

Publication Publication Date Title
SE524003C2 (sv) Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
KR102669768B1 (ko) 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템
KR102000865B1 (ko) 눈 추적 디바이스 및 눈 추적 디바이스를 동작시키기 위한 방법
US8576390B1 (en) System and method for determining and controlling focal distance in a vision system camera
FI125445B (sv) Blickstyrningsanordning
WO2000026713A1 (en) Eye tracking system
JP2006280938A (ja) 安全な眼球検出
JP2006105889A (ja) 眼検出装置および画像表示装置
CN111522431B (zh) 使用眼睛跟踪系统对闪光进行分类
US10607096B2 (en) Z-dimension user feedback biometric system
KR20140034937A (ko) 접촉 없이 조작될 수 있는 측정 장치 및 이와 같은 측정 장치를 위한 제어 방법
EP4285204B1 (en) Eye tracking illumination
CN104657702B (zh) 眼球侦测装置、瞳孔侦测方法与虹膜辨识方法
US20080018856A1 (en) Corneo-scleral topography system
JP3477279B2 (ja) 視線検出装置
JP4451195B2 (ja) 視線検出装置
US10685448B2 (en) Optical module and a method for objects' tracking under poor light conditions
EP4107603B1 (en) Gaze tracking
US20220079484A1 (en) Evaluation device, evaluation method, and medium
EP4629135A1 (en) Apparatus and methods for comprehensive focusing in imaging environments
WO2008100332A1 (en) Corneo-scleral topography system
JPH06308371A (ja) 視線検出装置

Legal Events

Date Code Title Description
NUG Patent has lapsed