SE524003C2 - Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel - Google Patents
Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkelInfo
- Publication number
- SE524003C2 SE524003C2 SE0203457A SE0203457A SE524003C2 SE 524003 C2 SE524003 C2 SE 524003C2 SE 0203457 A SE0203457 A SE 0203457A SE 0203457 A SE0203457 A SE 0203457A SE 524003 C2 SE524003 C2 SE 524003C2
- Authority
- SE
- Sweden
- Prior art keywords
- eye
- image
- detector
- images
- light sources
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Burglar Alarm Systems (AREA)
Description
20 25 30 35 40 524 003 2 ögat, roterar. En sjätte teknik är att, med hjälp av en fotosensor, mäta ellipticitet hos pupill eller iris, när ögat roterar. En sjunde teknik är att använda sig av en diod och två eller flera optiska transiistorer monterade i ett par glasögon. När ljuset från dioden reflekteras i hornhinnan och se- dan träffar en optisk transistor kommer transistoms signal att variera med ljusets fárdlängd från dioden via hornhinnan och till transistorn. En åttonde teknik är att använda en fotosensor för att detektera reflektionen av en ljuskälla i hornhinnan och att sedan se hur dess position förhåller sig mot centrum av pupill eller iris. Pupillen kan i detta fall göras tydligare antingen genom att belys- ning monterad intill fotosensom lyser upp näthinnan i ögat och därigenom orsakar rödögseffekt, eller genom att belysa ögat, så att iris lyses upp medan pupillen förblir mörk.
I U.S. patentskrift 5,86l,940 visas ett system för detektion av ögon och för att följa blick- vinklar. Systemet innefattar ljuskällor i form av en IR-laser 2, som försedd med lärnplig optik ut- sänder ett konvergent strålknippe med fokus framför ögat, och två IR-lasrar eller -dioder 9, 10, som växelvis utsänder divergenta strålknippen. Genom att detektera reflektionen från näthinnan med hjälp av en positionskänslig detektor erhålls information om ögats läge. Genom att detektera reflektionema från hornhinnan för flera ljuskällor bestäms ögats avstånd från videokameran. De senare två IR-lasrarna är placerade vid underkanten av en datorbildskärm 1. Andra system visas i U.S. patentskrifter 6,079,829 samt 6,l52,563 och 6,246,779.
Det kan vid automatiska system som utnyttjar en videokamera vara svårt att bestämma vari en upptagen bild reflexer av ljuskällor i en användares ögon befinner sig. Detta beror bl a på att användaren kan röra huvudet, förflytta det i sidled och närmare eller på större avstånd från karne- ran. Det automatiska systemet kan innehålla komplexa bildbehandlings- och bildigenkänningsru- tiner för att bestämma de områden, där bilder av ögon finns. Det finns därför behov av metoder för underlättande av sådan bestämning av områden i en upptagen bild, i vilka reflexer och bilder av ögon finns. Vid bestämning av blickpunkten på en yta såsom en bildskärm måste vidare alltid avståndet mellan användarens ögon och bildskärmen bestämmas och alltså erfordras effektiva metoder för en sådan bestärrming.
REDOGÖRELSE FÖR UPPFINNINGEN Det är ett syfte med uppfinningen att anvisa ett effektivt förfarande och en effektiv anlägg- ning för att detektera och följa ögon och blickvinklar.
Vid ett förfarande och i en anläggning för att detektera ögon och blickvinklar används en fotosensor såsom en CCD-enhet med lärnplig optik eller en videokamera, en eller flera ljuskällor och en beräknings- och styrenhet. För att kunna bestämma var, på exempelvis en bildskärm, en person tittar måste positionen för personens ögon både i djupled och i sidled sett från bildskärmen samt den riktning i vilket ögat tittar vara kända. För att bestämma ett ögas position, dvs dess läge relativt fotosensor eller en bildskärm, belyses ögat med två eller fler ljuskällor anordnade på av- stånd från varandra. Bilderna på fotosensom av reflektionema av dessa ljuskällor i personens homhinna kommer då att bero av var i fotosensoms synfält personen befinner sig. Fotosensoms bild av reflektionema ger all den information som krävs för att exakt bestämma var personen be- finner sig i fotosensoms synfålt. Genom att utvärdera hela det mönster som bildas från flera ljus- källors reflektioner, dvs läget för reflektionema i förhållande till varandra och i hela bilden, kan 10 15 20 25 30 35 40 524 003 3 god precision och tillförlitlighet i bestärnningen av var ögonen befinner sig erhållas. I ett enkelt fall bestäms endast mönstrets storlek och dess plats i den upptagna bilden.
Vid förfarandet används sålunda en fotosensor för att skapa en tvådimensionell bild av verkligheten samt allmänt en eller flera ljuskällor. Ljuskällan/ljuskållorna lyser upp eventuella ögon inom fotosensoms synfalt, så att diffiist reflekterande ytor blir tydligare för fotosensom och så att ljuset från ljuskällan/ljuskälloma i homhinnor ger upphov till reflexer, vilka av fotosensom uppfattas som diskreta ljuspunkter.
Den tvådimensionella bild som skapas av fotosensom analyseras med hjälp av komplex bildbehandling för att bestämma var i bilden eventuella ögon, samt ljusreflektioner, befinner sig.
Denna information används sedan för att bestärrnna var det finns ögon och/eller i vilken riktning dessa tittar, vilket i sin tur kan användas för att exempelvis bestämma var på en bildskärm en da- toranvändare tittar.
I den tvådimensionella bilden söks efter pupill och/eller iris. Bilden av pupillen kan göras tydligare genom belysning från en eller flera ljuskällor. Ljuskällan/ljuskälloma kan placeras myc- ket nära eller på den optik, som fokuserar den tvådimensionella bilden på fotosensom. Ljuskäl- lans/ljuskällomas spridningsfålt motsvarar då fotosensoms synfält, och för ett öga som befinner sig inom fotosensoms synfålt kommer den punkt på näthinnan som belyses av ljuskällan/ljuskäl- loma att vara samma eller åtminstone delvis samma punkt, som avbildas på fotosensom. Detta gör att pupillen förefaller ljusare än sin omgivning. Fenomenet är detsamma som ger upphov till att ögon vid fotografering kan framträda med röd färg.
För att uppnå så kraftig rödögseffekt som möjligt placeras ljuskällan/ljuskälloma så nära fo- tosensoms synaxel som möjligt utan att störa sensoms synfält. Den del av näthinnan hos ett öga, som fotosensom ser, sammanfaller då till stor del med den del av näthinnan, som lyses upp av ljuskällan/ljuskälloma. Förutsatt att ljuskällan/ljuskälloma måste placeras framför den optik som fokuserar bilden på fotosensorn, är en ljuskälla utformad med ett centralt hål, av samma fonn som fotosensom, ett bra sätt att komma nära fotosensoms synaxel utan att skymma dess synfalt.
Ju längre ifrån optiken ljuskällan placeras, desto större måste hålet vara för att inte störa fotosen- soms synfált. Därför är det önskvärt att kunna placera ljuskällan så nära optiken som möjligt i det fall då rödögseffekt eftersträvas. Att använda rödögseffekt för bestämning av ögons riktning, samtidigt som ögons position bestäms genom att låta flera ljuskällor reflekteras i hornhinnor kan orsaka problem. De många ljusreflektionema riskerar att bli svårupptäckta i bilden av den upplys- ta pupillen. Samtidigt lyser de omkringliggande ljuskälloma för positionsbestärnning upp ansik- ten förutom pupiller, vilket minskar rödögseffekten. För att undvika dessa problem kan de båda ljussättningama, en för riktningsbestämning och en för positionsbestämning, altemeras så att en- dast en uppsättning är aktiv under varje bild som tas. Detta medför att riktning och position inte kan bestämmas ur samma bild, men å andra sidan ökar det robustheten hos systemet.
Om ljuskällan/ljuskälloma i stället placeras ett stycke ifrån fotosensoms optiska axel, er- hålls en mörk pupill, medan det omgivande ansiktet blir ljusare ju starkare ljuskällan/ljuskälloma strålar. Denna ljussättning är att föredra då iris skall hittas, och den har även den fördelen, att kontrasten mellan pupill och iris inte försämras av ströljus från omgivningen, såsom är fallet med 10 15 20 25 30 35 40 524 003 ett system baserat på rödögseffekt.
För att inte störa den person som belyses av lj uskällari/ljuskälloma, kan ljus- källan/ljuskälloma väljas att utsända ljus våglängder, som ej är synliga för märmiskoögat, men som kan detekteras av fotosensom. Exempelvis kan ljus i NIR-området (N IR = Near InfraRed) användas, dvs ljus med något längre våglängd än vad ett märmiskoöga kan uppfatta. Sådant ljus kan detekteras av de flesta fotosensorer utformade att detektera synligt ljus.
Den använda fotosensorn kan med fördel vara av högupplösande typ. Detta medför, att en större mängd data erhålls, när hela fotosensom exponeras. För att minska resursåtgången vid be- arbetning av data kan endast data från ett givet område av intresse (OAI) behandlas. För att mins- ka belastningen på kommunikationslänken mellan fotosensom och beräkningsenheten kan sålun- da beräkningsenheten välja att endast be fotosensorn om de data, som kommer från det aktuella OAI:et. På så vis kan såväl beräknings- som kommunikationsresurser frigöras för andra ändamål.
För att kunna välja ett passande OAI för en exponering av fotosensom används lämpligtvis infor- mation om var ögon har befunnit sig i de närmast föregående bildema.
FIGURBESKRIVNING Uppfinningen skall nu beskrivas som ett ej begränsande utföringsexempel med hänvisning till de bifogade ritningama, i vilka: - Fig. l är en schematisk bild framifrån av ett exempel på en anläggning för att detektera och följa ögon samt blickvinklar, - Fig. 2 är en schematisk bild över hur i en tvådimensionell, medelst en fotosensor upptagen bild avståndet mellan två ljuskällor reflekterade i en homhinna beror av homhinnans avstånd till foto- sensorn, - Fig. 3a och 3b är schematisk bilder framifrån av ett exempel på en utformning av en, med foto- sensoms synfält, koaxiell belysning för att uppnå rödögseffekt med olika dioder tända och släck- Ia, - Fig. 4a är en bild av ett öga upptagen med hjälp av en fotosensor och belyst för att kunna be- stämma ögats blickvinkel samt var det befinner sig i fotosensoms tvådimensionella koordinatsys- tem, - Fig. 4b är bild erhållen genom kantanalys av bilden i fig. 4a, - Fig. Sa är en bild av ett öga liknande fig. 4a men belyst för att kunna bestämma ögats avstånd till fotosensom, - Fig. 5b är bild erhållen genom kantanalys av bilden i fig. Sa, och - Fig. 6 är ett flödesschema som visar steg vid behandling av information om hittade ögon i en tvådimensionell bild för att bestämma vilket öga som är vilket hos en användare, och - Fig. 7 är ett flödesschema över hela det förlopp, som utförs i en anläggning för att bestämma ett ögas läge och blickriktning DETALJERAD BESKRIVNING I fig. 1 visas en anläggning för att bestämma den punkt på en bildskärm 1, på vilken en da- toranvändare tittar. Bestänmingen utförs genom att följa användarens ögon och särskilt genom att bestämma ögonens blickvinklar och ögonens avstånd till bildskärmen. Anläggningen innefattar 10 15 20 25 30 35 40 524 003 5 bildskärmen 1, tre likadana ljuskällor 2 fästa längs en rak linje vid skärmens 1 övre kant, en foto- sensor 4 placerad vid mitten av skärmens undre kant och med lärnplig optik, ej visad, anordnad framför fotosensom för att dels filtrera bort oönskat ljus, dels fokusera en bild på fotosensorns ljuskänsliga yta, samt en ljuskälla 3 placerad koaxiellt med fotosensoms optiska axel, dvs anbragt omkring, på alla sidor av fotosensorns ljuskänsliga yta. Den ljuskänsliga ytan kan såsom visas va- ra rektangelforrnad. Den koaxiella ljuskällan 3 innefattar, se fig. 3a och 3b, ett flertal ljusutsän- dande element 3', 3" anordnade i två grupper, en inre, första grupp och en andra, yttre grupp. I den inre gruppen är de ljusutsändande elementen 3' placerade tätt intill den ljuskänsliga ytans kanter eller sidor. I det visade utförandet med rektangelforrnad ljuskänslig yta är tre element pla- cerade vid rektangelfonnens vardera långsida och två element vid dess vardera kortsida. I den ytt- re gruppen är de ljusutsändande elementen 3" placerade på större avstånd från den ljuskänsliga ytan, utanför elementen i den inre gruppen sett från den ljuskänsliga ytan mitt. I det visade utfö- randet finns lika många element i den yttre gruppen som i den inre gruppen och varje element i den yttre gruppen är placerat mellan två element i den inre gruppen, sett från mittpunkten hos den rektangelformade ljuskänsliga ytan.
Vid ett praktiskt utförande av anläggningen enligt fig. 1 utgjordes de tre likadana ljuskällor- na 2 vardera av sju NIR-dioder, HSDL 4230, med sex dioder anordnade symmetriskt kring en central diod. Sarnrna typ av dioder användes som de ljusutsändande elementen 3', 3" i belysnings- enheten 3 utformad enligt fig. 3a och 3b.
Utöver dessa komponenter finns även en samordnande beräknings- och styrenhet antydd vid 6 för att utföra erforderlig styrning och därmed sammanhängande utvärdering och beräkning- ar. Sålunda styr beräknings- och styrenheten tändning och släckning av ljuskälloma. Vidare utför den behandling av bilder upptagna med hjälp av fotosensom 4, speciellt bestämning av kantlinjer, dvs linjer mellan fält i bilden som har olika gråskaleintensitet eller färg. I bilden av ett öga be- stäms bl a kantlinjen som begränsar pupillen och ur denna erhålls pupillens centrum. Det senare kan göras genom att exempelvis anpassa en cirkel eller ellips till den kantlinje, som har avgjorts begränsa pupillen. Beräknings- och styrenheten 6 kan också, såsom skall beskrivas nedan, styra datauttaget från fotosensom 4, dvs bestämma de bildelement i en upptagen bild, för vilka infor- mation överförs från fotosensom till beräknings- och styrenheten.
I fig. 3a och 3b ses hur elementen i ljuskällan 3 är placerade runt fotosensom 4 för att kun- na belysa ögat på två olika sätt, genom tändning av de ljusutsändande elementen i den inre eller yttre gruppen. Det ena läget, vilket framgår av fig. 3a och i vilket endast elementen i den inre gruppen är tända, ger upphov till en tydlig rödögseffekt hos de pupiller, som detekteras av foto- sensom, medan det andra, vilket visas i fig. 3b och i vilket endast elementen i den yttre gruppen är tända, är till för att ge upphov till reflexer i hornhinnor utan att orsaka en tydlig rödögseffekt.
När anläggningen enligt fig. 1 är i drift, altemerar det mellan två ljussättningslägen. Läge (i) är till för att bestämma den riktning, i vilken användaren tittar. I läge (ii) bestäms avståndet från användarens ögon till fotosensom 4. I båda lägena fås även information om var användarens öga eller ögon befinner sig sett i fotosensorns tvådimensionella koordinatsystem.
När anläggningen är i läge (i), är de inre elementen 3' i den med fotosensorns 4 synfallt ko- 10 15 20 25 30 35 524 005 6 axiellt anordnade ljuskällan 3 tända i det läge, som visas i fig. 3a och ger en kraftig rödögseffekt hos alla pupiller inom fotosensoms synfält. I detta läge är alla de tre ljuskälloma 2 placerade ovanför skärmen l släckta, dvs endast elementen i den inre gruppen är tända. Bilden av en pupill inom fotosensoms 2 synfält kommer då att se ut såsom framgår av fig. 4a, där pupillen 5, järnför fig. 4b, är upplyst på grund av rödögseffekten och reflektionen i homhinnan av ljuskällan 3 syns som en punktforrnad reflex 3°a. Den upptagna bilden analyseras av beräkningsenheten 6 och kantlinjer enligt fig. 4b bestäms. I bilden med rödögseffekt är det speciellt stor kontrast mellan de bildfält, som motsvarar pupill och iris, jämför bilden i fig. Sa, som är upptagen med annan belys- ning, och därför kan kantlinjen mellan dessa fält beräknas med god noggrannhet. Denna noggrant bestämda kantlinje avgränsar pupillen och ur den kan sedan pupillens centrum bestännnas, följ- aktligen också med god noggrannhet. Vid bestämning av centrum kan såsom ovan närrmts an- passning av en ellips till kantlinj en användas, vilket är särskilt viktigt i det fall att pupillen endast delvis är synlig i bilden. I bilden bestäms vidare läget för reflexen 3'a och speciellt reflexens mitt- punkt. Till sist beräknas vektom från reflexens 3”a centrum till pupillens 5 centrum.
För att bestämma den riktning, i vilken användaren tittar, används den enligt ovan bestämda vektom. Denna vektors riktning anger den riktning, i vilken användaren tittar taget från kamerans optiska axel, och vektorns storlek anger den vinkel, i vilken användaren tittar, också taget från ka- merans optiska axel. Dessutom ger reflexens 3°a centrum information om läget för användarens öga sett i två dimensioner.
När systemet är i läge (ii), är elementen 3" i den yttre gruppen i den med fotosensoms syn- fält koaxiella ljuskällan 3 tänd i det läge enligt fig. 3b, som ej ger någon tydlig rödögseffekt.
Samtidigt är de tre ljuskälloma 2 vid skärmens överkant tända i detta läge. Fig. 5a visar hur ett öga kan avbildas på fotosensom 4 i detta läge med relativt låg kontrast mellan de bildfalt som motsvarar olika delar av ögat. Även denna bild analyseras för erhållande av kantlinjer, såsom vi- sas i fig. 5b, varvid noggrannheten hos de bestämda kantlinjema för fält motsvarande olika delar av ögat kan vara lägre än begränsningslinjen för pupillen enligt fig. 4b. I bilden enligt fig. 5b framgår dock de olika reflektionema mycket tydligt. Vid 3°b, se den analyserade bilden i fig. 5b, visas sålunda homhinnereflektionen av ljuskällan 3 aktiverad enligt det fall som framgår av fig. 3b, och vid 2” visas homhinnereflektionema av de vid skärmens överkant placerade ljuskälloma 2. Positionen för och avståndet mellan de olika reflektionema bestäms i bilden och denna bestäm- ning kan då göras med god noggrannhet. Mönstret för de fyra reflektionema, dvs i första hand de olika reflektionemas lägen relativt varandra, utvärderas för att bestämma ögats avstånd till foto- sensom 4. Speciellt är storleken på det mönster, som bildas av de fyra reflektionerna vid 2°, 3'b, beroende av ögats avstånd till fotosensom. Ju längre från fotosensom ögat är beläget, desto mind- re dimensioner har mönstret. På så vis erhålls ett mått på hur långt ifrån skärmen 1 användarens öga befinner sig. Även i detta läge fås information om var användarens öga befinner sig i två di- mensioner, från reflexen av den koaxiella ljuskällan 3 vid 3”b.
När systemet i fig. 1 är i drift, alternerar det således mellan läge (i) och läge (ii). Det krävs information från båda dessa lägen för att kurma ange det ställe på en bildskärm på vilket en an- 40 vändare tittar. I läge (i) detekteras användarens blickriktning och i läge (ii) användarens position. 10 15 20 25 30 35 40 524 003 7 Hos en datoranvändare är ögonrörelser vanligtvis avsevärt mycket snabbare än huvudrörelser.
Detta medför, att det är viktigare att ha nyligen uppdaterad information om användarens blickvin- kel än om användarens position i djupled från fotosensom 4 för att erhålla god precision i bestäm- ningen av den punkt på datorskärmen på vilken användaren tittar. Experiment visar, att om fyra bilder i läge (i) analyseras för varje bild i läge (ii) fås ett system med god precision. För blick- punktsbestämning används alltid informationen från den senaste bilden tagen i läge (i) sarnt den senaste bilden tagen i läge (ii).
I fig. 2 visas schematiskt hur avståndet mellan bilder av reflektioner av två ljuskällor beror på den reflekterande ytans avstånd från ljuskällorna och detektom, vilka antas ligga i samma plan. Avståndet mellan den reflekterade ytan och planet genom ljuskälloma är grovt omvänt pro- portionellt mot kvadratroten ur avståndet mellan bilderna. Ett sådant samband eller ett något mer exakt samband såsom framgår av fig. 2 kan användas tillsammans med absoluta värden erhållna vid en individuell kalibrering av anläggningen för varje användare för att ge en tillräckligt nog- grann avståndsbestärrming vid exempelvis styrning av en markör på bildskärmen, när använda- rens huvud rör sig.
Den fotosensor som används i ovan beskrivna anläggning är av högupplösande typ. På så vis kan användaren tillåtas större huvudrörlighet utan att detta medför försämrad precision. För att minska belastningen på beräkningsenheten och öka samplingshastigheten hos systemet an- vänds inte data från fotosensom mer än nödvändigt. Beräkningsenheten använder information om var ögon har hittats i tidigare bilder för att välja ut den del av fotosensorns ljuskänsliga yta, som skall exponeras inför varje ny bild eller användas i varje ny bild, och styr fotosensom i enlighet härmed. Om användarens ögon hittades i föregående bild, används bara en liten del av bildele- menten hos fotosensoms ljuskänsliga yta. Endast i det fall att inga ögon har hittats, används data från alla bildelement hos fotosensorns ljuskänsliga yta eller i vart fall data som representerar hela bildytan, erhållna exempelvis genom en nedsarnplingsoperation av data för hela bildytan. På så vis fås ett system som är relativt långsamt när det gäller att detektera ögon och ögons avstånd i djupled, men som kan fås att följa ögon och särskilt blickriktning med hög hastighet, efter det att ögonen väl är hittade.
Ett öga har unika fysikaliska egenskaper vilka tillsammans med ögats position och blick- riktning styr hur en bild tagen såsom visas i fig. 4a eller i fig. Sa kommer att se ut. För att kunna bestämma var en person tittar ur de data som kan erhållas ur dessa bilder kan om så erfordras sys- temet kalibreras individuellt för den person som sitter framför skärmen. Dessutom måste sys- temet veta vilket öga som är vilket, dvs om de beräknade kantlinjema enligt fig. 4b och 5b tillhör användarens vänstra eller högra öga.
När båda ögonen hos en användare är synliga för fotosensom 4, är det lätt att säga vilket öga som är vänster öga och vilket som är höger öga, men i det fall att endast ett öga hittas, krävs ett annat sätt att bestämma vilket öga det Ett sådant sätt skall nu beskrivas och de olika stegen däri åskådliggörs också av flödesschemat i fig. 6. Den första faktor som inverkar är förflyttnings- hastigheten hos användarens ögon. Det finns en övre gräns för hur fort ett öga kan förflytta sig.
Detta medför, att om det farms ett känt öga i en given position i en tidigare bild, kan detta öga inte 10 15 20 25 30 35 524 003 8 ha förflyttat sig mer än en viss sträcka sedan den tidigare bilden togs. Om avståndet är för stort mellan det tidigare kända och det nu funna ögat, är alltså det nu funna ögat ett armat än det som tidigare var detekterat. Även om det tidigare kända ögat var det enda kända ögat vid den tidpurik- ten, måste det ha funnits ett område, inom vilket det andra ögat bör ha befunnit sig. Avståndet mellan en användares ögon kan på detta vis användas för att bedöma, huruvida det öga som ej var känt kan ha flyttat sig till den position, där det nya ögat hittats. Om avståndet är tillräckligt litet för endast ett av användarens ö gon, måste det funna ögat vara detsamma som detta öga.
Om ovan nämnda kriterier ej ger klarhet i vilket öga som har hittats, finns det ytterligare en faktor till vilken hänsyn kan tas. Denna faktor är hur nära fotosensoms ytterkant ögat befinner sig. Om ögat bifinner sig så nära fotosensoms ytterkant, att det andra ögat skulle befinna sig utan- för sensoms synfält, om det befann sig på yttersidan om det funna ögat, gäller att antingen är det- ta fallet eller också finns det andra ögat inom fotosensoms synfält, men är skymt - troligtvis ge- nom att användaren blundar med det. I detta fall kan tillåtas, att systemet gissar att det funna ögat är det öga som medför, att det andra ögat är utanför fotosensorns synfält. Då systemet har gissat sig till vilket öga som hittats, sätts en lägre konfidensnivå för de data, som skickas ut från syste- met, för att visa att dessa data är osäkra.
I fig. 7 visas ett flödesschema över de olika steg, som utförs vid bestämning av och följande av en persons ögon och blickriktning. I ett första steg 71 tas en bild med belysning i läge (i), dvs när endast elementen 3' är tända. I bilden bestäms pupiller, dvs dessas kantlinjer, och reflektioner av ljuskällan. I nästa block 73 utförs proceduren enligt. fig. 6 för att bestämma vilket öga som är vilket. I steg 75 avgörs sedan om två ögon har påträffats i bilden. Om detta är fallet, utförs ett block 77, i vilket en bild tas med belysning i läge (ii), dvs med elementen 3" tända och dioderria 2 tända. I denna bild översänds till enheten 6 endast information för områden kring de funna ögo- nen. Reflektioner och därmed bilder av ögon i bilden bestäms. Därefter utförs i ett block 79 åter proceduren enligt. fig. 6 för att bestämma vilket öga som är vilket. I nästa steg 81 avgörs om två ögon har påträffats i bilden. Om detta är fallet, utförs i ett block 83 en beräkning i enheten 6 av ögonens blickpunkt. Sedan utförs ett block 85, i vilket åter upptas en bild med belysning i läge (i), dvs med endast elementen 3' tända. För den upptagna bilden översänds till enheten 6 endast information för områden kring redan funna ögon. Ur den begränsade bildinformationen bestäms pupiller och reflektioner av ljuskällan liksom i steg 71. Sedan utförs i ett block 87 äter proceduren enligt. fig. 6 för att bestämma vilket öga som är vilket. I nästa steg 89 avgörs om två ögon har på- träffats i bilden. Om detta är fallet, utförs i ett block 91 en beräkning av ögonens blickpunkt lik- som i block 83. Därefter avgörs i ett block 93 huruvida de fyra senast tagna bilderna är tagna med belysningen i läge (ii). Om detta inte är fallet, utförs åter blocket 85, och i annat fall blocket 77.
Om det i något av blocken 75, 81 och 89 avgjordes, att två ögon inte hade påträffats, utförs åter block 71.
Claims (22)
1. Ögondetektionsanläggning innefattande - en eller flera ljuskällor för utsändande av ljus i riktning mot en användares huvud, - en detektor för mottagande av ljus från en användares huvud och för att upprepat uppta bilder därav, och - en utvärderingsenhet kopplad till detektom för bestämning av ett ögas läge och/eller blickrikt- ning, kännetecknad av att utvärderingsenheten är anordnad - att i en bild upptagen av detektom bestämma ett område i vilket en bild av ett öga eller bilder av ögon finns, och - att efter bestämning av området styra detektom att därefter till utvärderingsenheten översända information om följande bild eller bilder, som endast motsvarar det bestämda området av detek- torn.
2. Ögondetektionsanläggning enligt krav 1, kännetecknad av att i det fall att utvärderings- enheten ur den översända informationen inte kan utföra bestämningen, är utvärderingsenheten an- ordnad att styra detektom att för nästa bild översända information för en större del av detektorn kring det tidigare bestämda området.
3. Ögondetektionsanläggning enligt något av krav 1 - 2, kännetecknad av att utvärderings- enheten är anordnad - att i en aktuell bild upptagen av detektom avgöra huruvida bilden innehåller bilder av en använ- dares båda ögon, och - att i det fall, att utvärderingsenheten avgör, att en avbildning av endast ett öga finns i den aktuel- la bilden, bestämma att detta öga är samma öga som finns avbildat i en tidigare upptagen bild, förutsatt att avbildningen av ögat har en position i den aktuella bilden som är tillräckligt nära po- sitionen för avbildningen av ögat i den tidigare upptagna bilden.
4. Ögondetektionsanläggning enligt krav 3, kännetecknad av att i det fall, att utvärderings- enheten avgör, att en avbildning av endast ett öga finns i den aktuella bilden, att positionen för avbildningen av ögat i den aktuella bilden inte motsvarar eller är tillräckligt nära positionen för något öga i en eller flera tidigare upptagna bilder och att positionen för avbildningen av ögat i den aktuella bilden är sådan, att avståndet i sidled till den aktuella bildens ena kant är mindre, men till den andra kanten är större, än ett avstånd, som motsvarar avståndet mellan användarens ögon, är utvärderingsenheten anordnad att låta det öga, av vilket en avbildning finns i den aktuella bilden, vara det öga som innebär, att en avbildning av användarens andra öga skulle befinna sig utanför den aktuella bilden.
5. Ögondetektionsanläggning enligt något av krav 1 - 4, kännetecknad av - att minst två ljuskällor finns anordnade och är placerade på avstånd från varandra för utsändan- de av minst två strålknippen för reflektion mot hornhinnan hos en användares öga, och - att utvärderingsenheten är anordnad att i en upptagen bild använda positionerna för avbildningar av ljuskällomas reflektioner för att bestämma ögats placering i förhållande till detektom.
6. Ögondetektionsanläggning enligt krav 5, kännetecknad av att utvärderingsenheten är 10 15 20 25 30 35 40 524 003 10 anordnad att bestämma avståndet mellan avbildningar av ljuskällomas reflektioner i en upptagen bild för att därur bestämma ögats avstånd från detektorn.
7. Ögondetektionsanläggning enligt något av krav 5 - 6, kännetecknad av minst tre ljus- källor anordnade i ett bestämt mönster, varvid utvärderingsenheten är anordnad att bestämma po- sitionerna för avbildningar av ljuskällomas reflektioner och att använda alla de bestämda positio- nema för att bestämma ögats placering i förhållande till detektom.
8. Ögondetektionsanläggning enligt något av krav 5 - 7, kännetecknad av att ljuskällorna är indelade i två enheter, varvid den första enheten är anordnad att avge ljus lämpat för att, ur bil- der upptagna med belysning från endast denna enhet, bestämma ögats blickriktning och den andra enheten är anordnad att avge ljus lämpat för att, ur bilder upptagna med belysning från endast denna enhet, bestämma ögats avstånd till detektorn, varvid styrenheten är anordnad att aktivera endera eller båda av dessa enheter inför upptagandet av varje bild.
9. Ögondetektionsanläggning enligt något av krav 5 - 8, kännetecknad av minst tre ljus- källor, varav minst två är placerade vid en kant, särskilt den övre eller undre kanten, av en bild- skärm och en är placerad vid en motstående kant av bildskärmen, varvid utvärderingsenheten är anordnad att bestämma positionerna för avbildningar av ljuskällornas reflektioner och att använda de bestämda positionema för att bestämma ögats placering i förhållande till detektorn.
10. Ögondetektionsanläggning enligt något av krav 5 - 9, kännetecknad av minst tre ljus- källor placerade i rät linje vid en kant av en bildskärm, varvid utvärderingsenheten är anordnad att bestämma positionema för avbildningar av ljuskällomas reflektioner och att använda de be- stämda positionema för att bestämma ögats placering i förhållande till detektorn.
11. ll. Ögondetektionsanläggning enligt något av krav 5 - 10, kännetecknad av att en av ljus- källoma är anordnad att utsända ljus i ett strålknippe koaxiellt med detektoms optiska axel.
12. Ögondetektionsanläggning enligt krav 5, kännetecknad av att ljuskälloma är indelade i två enheter, varvid den första enheten är anordnad att avge ljus, som ger upphov till rödögseffekt och därmed är lämpat för att, ur bilder upptagna med belysning från endast denna enhet, bestäm- ma ögats blickriktning, och den andra enheten är anordnad att avge ljus lärnpat för att, ur bilder upptagna med belysning från endast denna enhet, bestämma ögats avstånd till detektom, varvid styrenheten är anordnad att aktivera endera eller båda av dessa enheter inför upptagandet av varje bild.
13. Ögondetektionsanläggning innefattande - en eller flera ljuskällor för utsändande av ljus i riktning mot en användares huvud, - en detektor för mottagande av ljus från en användares huvud och för att upprepat uppta bilder därav, och - en utvärderingsenhet kopplad till detektorn för bestämning av ett ögas läge och/eller blickrikt- ning, kännetecknad av att utvärderingsenheten är anordnad - att i en aktuell bild upptagen av detektorn avgöra, huruvida bilden innehåller bilder av en använ- dares båda ögon, och - att i det fall, att utvärderingsenheten avgör, att en avbildning av endast ett öga finns i den aktuel- 10 15 20 25 30 35 40 524 003 ll la bilden, bestämma att detta öga är samma öga som finns avbildat i en tidigare upptagen bild, förutsatt att avbildningen av ögat har en position i den aktuella bilden som är tillräckligt nära po- sitionen för avbildningen av ögat i den tidigare upptagna bilden.
14. Ögondetektionsanläggning enligt krav 13, kännetecknad av att i det fall, att utvärde- ringsenheten avgör, att en avbildning av endast ett öga finns i den aktuella bilden, att positionen för avbildningen av ögat i den aktuella bilden inte motsvarar eller är tillräckligt nära positionen för något öga i en eller flera tidigare upptagna bilder och att positionen för avbildningen av ögat i den aktuella bilden är sådan, att avståndet i sidled till den aktuella bildens ena kant är mindre, men till den andra kanten är större, än ett avstånd, som motsvarar avståndet mellan användarens ögon, är utvärderingsanordning att ta det öga, av vilket en avbildning finns i den aktuella bilden, vara det öga som innebär, att en avbildning av användarens andra öga skulle befinna sig utanför den aktuella bilden.
15. Ögondetektionsanläggning innefattande - minst två ljuskällor för utsändande av ljus i riktning mot en användares huvud, - en detektor för mottagande av ljus från en användares huvud och för att upprepat uppta bilder därav, och - en utvärderingsenhet kopplad till detektom, kännetecknad av - att minst två av ljuskälloma är placerade på avstånd från varandra för utsändande av minst två strålknippen för reflektion mot hornhinnan hos en användares öga, och - att utvärderingsenheten är anordnad att i en upptagen bild använda positionema för avbildningar av ljuskällornas reflektioner för att bestämma ögats placering i förhållande till detektorn.
16. Ögondetektionsanläggning enligt krav 15, kännetecknad av att utvärderingsenheten är anordnad att bestämrna avståndet mellan avbildningar av ljuskällomas reflektioner i en upptagen bild för att därur bestämma ögats avstånd från detektom.
17. Ögondetektionsanläggning enligt något av krav 15 - 16, kännetecknar] av minst tre ljuskällor anordnade i ett bestämt mönster, varvid utvärderingsenheten är anordnad att bestämma positionema för avbildningar av ljuskällomas reflektioner och att använda alla de bestämda posi- tionema för att bestämma ögats placering i förhållande till detektorn.
18. Ögondetektionsanläggning enligt något av krav 15 - 17, kännetecknad av att ljuskäl- loma är indelade i två enheter, varvid den första enheten är anordnad att avge ljus lämpat för att, ur bilder upptagna med belysning från endast denna enhet, bestämma ögats blickriktning och den andra enheten är anordnad att avge ljus lämpat för att, ur bilder upptagna med belysning från en- dast denna enhet, bestämma ögats avstånd till detektorn, varvid styrenheten är anordnad att akti- vera endera eller båda av dessa enheter inför upptagandet av varje bild.
19. Ögondetektionsanläggning enligt något av krav 15 - 18, kännetecknad av minst tre ljuskällor, varav minst två är placerade vid en kant, särskilt den övre eller undre kanten, av en bildskärm och en är placerad vid en motstående kant av bildskärmen, varvid utvärderingsenheten är anordnad att bestämma positionerna för avbildningar av ljuskällomas reflektioner och att an- vända de bestämda positionema för att bestämma ögats placering i förhållande till detektom. 10 524 003 12
20. Ögondetektionsanläggning enligt något av krav 15 - 19, kännetecknad av minst tre ljuskällor placerade i rät linje vid en kant av en bildskärm, varvid utvärderingsenheten är anord- nad att bestämma positionerna för avbildningar av ljuskällomas reflektioner och att använda de bestämda positionerna för att bestämma ögats placering i förhållande till detektorn.
21. Ögondetektionsanläggning enligt något av krav 15 - 20, kännetecknad av att en av ljuskälloma är anordnad att utsända ljus i ett strålknippe koaxiellt med detektoms optiska axel.
22. Ögondetektionsanläggning enligt krav 15, kännetecknad av att ljuskälloma är indelade i två enheter, varvid den första enheten är anordnad att avge ljus, som ger upphov till rödögsef- fekt och därmed är lämpat för att, ur bilder upptagna med belysning från endast denna enhet, be- stämma ögats blickriktning, och den andra enheten är anordnad att avge ljus lämpat fór att, ur bil- der upptagna med belysning från endast denna enhet, bestämma ögats avstånd till detektorn, var- vid styrenheten är anordnad att aktivera endera eller båda av dessa enheter inför upptagandet av varje bild.
Priority Applications (13)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| SE0203457A SE524003C2 (sv) | 2002-11-21 | 2002-11-21 | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
| US10/535,227 US7572008B2 (en) | 2002-11-21 | 2003-11-21 | Method and installation for detecting and following an eye and the gaze direction thereof |
| AT03776116T ATE432038T1 (de) | 2002-11-21 | 2003-11-21 | Installation zum nachweis und zur verfolgung eines auges und seiner blickrichtung |
| ES03776116T ES2327633T3 (es) | 2002-11-21 | 2003-11-21 | Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. |
| JP2004553361A JP4783018B2 (ja) | 2002-11-21 | 2003-11-21 | 眼及びその凝視方向を検知し、追跡する方法と装置 |
| CNB2003801036960A CN100421614C (zh) | 2002-11-21 | 2003-11-21 | 用于检测和跟踪眼睛及其注视方向的方法和装置 |
| DK03776116T DK1562469T3 (da) | 2002-11-21 | 2003-11-21 | Installation til at detekere og fölge et öje og dets synsretning |
| AU2003284816A AU2003284816A1 (en) | 2002-11-21 | 2003-11-21 | Method and installation for detecting and following an eye and the gaze direction thereof |
| PT03776116T PT1562469E (pt) | 2002-11-21 | 2003-11-21 | Instalação para detectar e seguir um olho e a direcção do olhar do mesmo |
| PCT/SE2003/001813 WO2004045399A1 (en) | 2002-11-21 | 2003-11-21 | Method and installation for detecting and following an eye and the gaze direction thereof |
| EP03776116A EP1562469B1 (en) | 2002-11-21 | 2003-11-21 | Installation for detecting and following an eye and the gaze direction thereof |
| DE60327798T DE60327798D1 (de) | 2002-11-21 | 2003-11-21 | Installation zum nachweis und zur verfolgung eines auges und seiner blickrichtung |
| JP2011046089A JP5297486B2 (ja) | 2002-11-21 | 2011-03-03 | 眼及びその凝視方向を検知し、追跡する装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| SE0203457A SE524003C2 (sv) | 2002-11-21 | 2002-11-21 | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| SE0203457D0 SE0203457D0 (sv) | 2002-11-21 |
| SE0203457L SE0203457L (sv) | 2004-05-22 |
| SE524003C2 true SE524003C2 (sv) | 2004-06-15 |
Family
ID=20289646
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| SE0203457A SE524003C2 (sv) | 2002-11-21 | 2002-11-21 | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
Country Status (12)
| Country | Link |
|---|---|
| US (1) | US7572008B2 (sv) |
| EP (1) | EP1562469B1 (sv) |
| JP (2) | JP4783018B2 (sv) |
| CN (1) | CN100421614C (sv) |
| AT (1) | ATE432038T1 (sv) |
| AU (1) | AU2003284816A1 (sv) |
| DE (1) | DE60327798D1 (sv) |
| DK (1) | DK1562469T3 (sv) |
| ES (1) | ES2327633T3 (sv) |
| PT (1) | PT1562469E (sv) |
| SE (1) | SE524003C2 (sv) |
| WO (1) | WO2004045399A1 (sv) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2238889A1 (en) | 2009-04-01 | 2010-10-13 | Tobii Technology AB | Adaptive camera and illuminator eyetracker |
| US11853477B2 (en) | 2013-03-01 | 2023-12-26 | Tobii Ab | Zonal gaze driven interaction |
Families Citing this family (217)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7963652B2 (en) | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
| WO2005046465A1 (en) * | 2003-11-14 | 2005-05-26 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
| JP4500992B2 (ja) * | 2004-01-14 | 2010-07-14 | 国立大学法人静岡大学 | 三次元視点計測装置 |
| US10039445B1 (en) | 2004-04-01 | 2018-08-07 | Google Llc | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
| CA2561287C (en) * | 2004-04-01 | 2017-07-11 | William C. Torch | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
| US7322696B2 (en) * | 2004-04-19 | 2008-01-29 | Shamir Optical Industry | Customized lens, and system and method of producing thereof |
| EP2202609B8 (en) | 2004-06-18 | 2016-03-09 | Tobii AB | Eye control of computer apparatus |
| CN1293446C (zh) * | 2005-06-02 | 2007-01-03 | 北京中星微电子有限公司 | 一种非接触式目控操作系统和方法 |
| EP1928296B1 (en) | 2005-09-27 | 2011-05-04 | Penny AB | A device for controlling an external unit |
| WO2007043954A1 (en) * | 2005-10-10 | 2007-04-19 | Tobii Technology Ab | Eye tracker having an extended span of operating distances |
| CN101336089A (zh) * | 2006-01-26 | 2008-12-31 | 诺基亚公司 | 眼睛跟踪器设备 |
| WO2007101690A1 (en) * | 2006-03-09 | 2007-09-13 | Tobii Technology Ab | Eye determination apparatus |
| AU2007247852B2 (en) | 2006-05-04 | 2012-01-19 | Commonwealth Scientific And Industrial Research Organisation | An electronic media system |
| US8197539B2 (en) | 2006-05-05 | 2012-06-12 | University Of Southern California | Intraocular camera for retinal prostheses |
| US20080147488A1 (en) * | 2006-10-20 | 2008-06-19 | Tunick James A | System and method for monitoring viewer attention with respect to a display and determining associated charges |
| KR100850357B1 (ko) * | 2006-12-06 | 2008-08-04 | 한국전자통신연구원 | 시선 위치 추적 방법 및 그 장치 |
| ES2316272B1 (es) * | 2007-02-16 | 2009-11-30 | Iriscom Sistemas, S.L . | Sistema de seguimiento ocular para el gobierno de un ordenador. |
| GB0709405D0 (en) * | 2007-05-16 | 2007-06-27 | Univ Edinburgh | Testing vision |
| EP2150170B1 (en) | 2007-05-23 | 2016-05-11 | Mirametrix Inc. | Methods and apparatus for estimating point-of-gaze in three dimensions |
| DE102008006090A1 (de) | 2008-01-25 | 2009-07-30 | Claudius Zelenka | Verfahren zur störungsfreien Erkennung der Position der Augen |
| EP2242419B1 (en) * | 2008-02-14 | 2016-01-13 | Nokia Technologies Oy | Device and method for determining gaze direction |
| JP5163982B2 (ja) * | 2008-06-16 | 2013-03-13 | 国立大学法人神戸大学 | 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ |
| TWI432172B (zh) * | 2008-10-27 | 2014-04-01 | Utechzone Co Ltd | Pupil location method, pupil positioning system and storage media |
| US20100118199A1 (en) * | 2008-11-10 | 2010-05-13 | Kabushiki Kaisha Toshiba | Video/Audio Processor and Video/Audio Processing Method |
| DK2389095T3 (da) * | 2009-01-26 | 2014-11-17 | Tobii Technology Ab | Detektering af blikpunkt hjulpet af optiske referencesignaler |
| CN101807110B (zh) * | 2009-02-17 | 2012-07-04 | 由田新技股份有限公司 | 瞳孔定位方法及系统 |
| WO2010118292A1 (en) | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
| US8320623B2 (en) * | 2009-06-17 | 2012-11-27 | Lc Technologies, Inc. | Systems and methods for 3-D target location |
| US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
| TWI497247B (zh) * | 2010-01-28 | 2015-08-21 | Chi Mei Comm Systems Inc | 實現亮度調節的資料處理設備及方法 |
| US20110205148A1 (en) * | 2010-02-24 | 2011-08-25 | Corriveau Philip J | Facial Tracking Electronic Reader |
| JP5529660B2 (ja) * | 2010-07-20 | 2014-06-25 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
| US9760123B2 (en) | 2010-08-06 | 2017-09-12 | Dynavox Systems Llc | Speech generation device with a projected display and optical inputs |
| KR20120057033A (ko) * | 2010-11-26 | 2012-06-05 | 한국전자통신연구원 | Iptv 제어를 위한 원거리 시선 추적 장치 및 방법 |
| US9185352B1 (en) | 2010-12-22 | 2015-11-10 | Thomas Jacques | Mobile eye tracking system |
| US20120244935A1 (en) * | 2011-03-24 | 2012-09-27 | International Business Machines Corporation | Synchronizing game character display with game player viewing detection |
| US8911087B2 (en) | 2011-05-20 | 2014-12-16 | Eyefluence, Inc. | Systems and methods for measuring reactions of head, eyes, eyelids and pupils |
| US8885877B2 (en) | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
| US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
| US20130033524A1 (en) * | 2011-08-02 | 2013-02-07 | Chin-Han Wang | Method for performing display control in response to eye activities of a user, and associated apparatus |
| JP5912351B2 (ja) | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
| CN103842941B (zh) * | 2011-09-09 | 2016-12-07 | 泰利斯航空电子学公司 | 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制 |
| CN103843047A (zh) * | 2011-10-06 | 2014-06-04 | 本田技研工业株式会社 | 警报装置 |
| US8976110B2 (en) | 2011-10-27 | 2015-03-10 | Tobii Technology Ab | Power management in an eye-tracking system |
| EP3200046A1 (en) | 2011-10-27 | 2017-08-02 | Tobii Technology AB | Power management in an eye-tracking system |
| EP2587342A1 (en) | 2011-10-28 | 2013-05-01 | Tobii Technology AB | Method and system for user initiated query searches based on gaze data |
| US9071740B1 (en) | 2011-10-28 | 2015-06-30 | Google Inc. | Modular camera system |
| US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
| US8860660B2 (en) | 2011-12-29 | 2014-10-14 | Grinbath, Llc | System and method of determining pupil center position |
| US9910490B2 (en) | 2011-12-29 | 2018-03-06 | Eyeguide, Inc. | System and method of cursor position control based on the vestibulo-ocular reflex |
| CN102436306A (zh) * | 2011-12-30 | 2012-05-02 | 四川虹欧显示器件有限公司 | 3d显示系统的控制方法和装置 |
| US10540008B2 (en) | 2012-01-04 | 2020-01-21 | Tobii Ab | System for gaze interaction |
| US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
| US10488919B2 (en) | 2012-01-04 | 2019-11-26 | Tobii Ab | System for gaze interaction |
| US10394320B2 (en) | 2012-01-04 | 2019-08-27 | Tobii Ab | System for gaze interaction |
| US10025381B2 (en) | 2012-01-04 | 2018-07-17 | Tobii Ab | System for gaze interaction |
| US9197686B1 (en) | 2012-01-06 | 2015-11-24 | Google Inc. | Backfill of video stream |
| DE102012003283A1 (de) | 2012-02-20 | 2013-08-22 | 4tiitoo AG | Verfahren und Vorrichtung zur blickgestützten Steuerung |
| JP5926210B2 (ja) | 2012-03-21 | 2016-05-25 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
| ES2898981T3 (es) | 2012-08-09 | 2022-03-09 | Tobii Ab | Activación rápida en un sistema de seguimiento de la mirada |
| US9575960B1 (en) * | 2012-09-17 | 2017-02-21 | Amazon Technologies, Inc. | Auditory enhancement using word analysis |
| JP6056323B2 (ja) * | 2012-09-24 | 2017-01-11 | 富士通株式会社 | 視線検出装置、視線検出用コンピュータプログラム |
| US20140085198A1 (en) | 2012-09-26 | 2014-03-27 | Grinbath, Llc | Correlating Pupil Position to Gaze Location Within a Scene |
| EP2712541B1 (en) | 2012-09-27 | 2015-12-30 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Tiled image based scanning for head and/or eye position for eye tracking |
| CN103777861A (zh) * | 2012-10-23 | 2014-05-07 | 韩国电子通信研究院 | 终端和用于在终端中控制触摸操作的方法 |
| US20140139556A1 (en) * | 2012-11-22 | 2014-05-22 | Shanghai Powermo Information Tech. Co. Ltd. | Apparatus and method for displaying software keyboards thereof |
| US9612656B2 (en) | 2012-11-27 | 2017-04-04 | Facebook, Inc. | Systems and methods of eye tracking control on mobile device |
| KR101417433B1 (ko) * | 2012-11-27 | 2014-07-08 | 현대자동차주식회사 | 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법 |
| US20140198034A1 (en) | 2013-01-14 | 2014-07-17 | Thalmic Labs Inc. | Muscle interface device and method for interacting with content displayed on wearable head mounted displays |
| US9921648B2 (en) * | 2013-02-22 | 2018-03-20 | University Of Seoul Industry Cooperation Foundation | Apparatuses, methods and recording medium for control portable communication terminal and its smart watch |
| US9864498B2 (en) | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
| US20140247208A1 (en) | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Invoking and waking a computing device from stand-by mode based on gaze detection |
| US11714487B2 (en) | 2013-03-04 | 2023-08-01 | Tobii Ab | Gaze and smooth pursuit based continuous foveal adjustment |
| US10082870B2 (en) | 2013-03-04 | 2018-09-25 | Tobii Ab | Gaze and saccade based graphical manipulation |
| US10895908B2 (en) | 2013-03-04 | 2021-01-19 | Tobii Ab | Targeting saccade landing prediction using visual history |
| US9898081B2 (en) | 2013-03-04 | 2018-02-20 | Tobii Ab | Gaze and saccade based graphical manipulation |
| US9665171B1 (en) | 2013-03-04 | 2017-05-30 | Tobii Ab | Gaze and saccade based graphical manipulation |
| GB2511868B (en) * | 2013-03-15 | 2020-07-15 | Tobii Ab | Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject |
| US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
| US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
| US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
| US12504816B2 (en) | 2013-08-16 | 2025-12-23 | Meta Platforms Technologies, Llc | Wearable devices and associated band structures for sensing neuromuscular signals using sensor pairs in respective pods with communicative pathways to a common processor |
| US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
| US9143880B2 (en) | 2013-08-23 | 2015-09-22 | Tobii Ab | Systems and methods for providing audio to a user based on gaze input |
| EP3036620B1 (en) | 2013-08-23 | 2017-03-29 | Tobii AB | Systems and methods for providing audio to a user based on gaze input |
| US10310597B2 (en) | 2013-09-03 | 2019-06-04 | Tobii Ab | Portable eye tracking device |
| US10686972B2 (en) | 2013-09-03 | 2020-06-16 | Tobii Ab | Gaze assisted field of view control |
| KR101926942B1 (ko) | 2013-09-03 | 2019-03-07 | 토비 에이비 | 휴대용 눈 추적 디바이스 |
| WO2015038810A2 (en) * | 2013-09-11 | 2015-03-19 | Firima Inc. | User interface based on optical sensing and tracking of user's eye movement and position |
| WO2015038160A1 (en) | 2013-09-16 | 2015-03-19 | Intel Corporation | Camera and light source synchronization for object tracking |
| KR101503159B1 (ko) * | 2013-10-15 | 2015-03-16 | (주)이스트소프트 | 시선의 위치를 감지하여 터치스크린을 제어하는 방법 |
| EP3063602B1 (en) * | 2013-11-01 | 2019-10-23 | Intel Corporation | Gaze-assisted touchscreen inputs |
| KR101470243B1 (ko) * | 2013-11-15 | 2014-12-05 | 현대자동차주식회사 | 시선 검출 장치 및 그 시선 검출 방법 |
| US10558262B2 (en) | 2013-11-18 | 2020-02-11 | Tobii Ab | Component determination and gaze provoked interaction |
| US10317995B2 (en) | 2013-11-18 | 2019-06-11 | Tobii Ab | Component determination and gaze provoked interaction |
| WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
| US9580081B2 (en) | 2014-01-24 | 2017-02-28 | Tobii Ab | Gaze driven interaction for a vehicle |
| US10017114B2 (en) | 2014-02-19 | 2018-07-10 | Magna Electronics Inc. | Vehicle vision system with display |
| US10409366B2 (en) | 2014-04-28 | 2019-09-10 | Adobe Inc. | Method and apparatus for controlling display of digital content using eye movement |
| US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
| US9477079B2 (en) | 2014-06-25 | 2016-10-25 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays |
| US9411417B2 (en) | 2014-07-07 | 2016-08-09 | Logitech Europe S.A. | Eye gaze tracking system and method |
| US9678567B2 (en) | 2014-07-16 | 2017-06-13 | Avaya Inc. | Indication of eye tracking information during real-time communications |
| GB2528446B (en) | 2014-07-21 | 2021-08-04 | Tobii Tech Ab | Method and apparatus for detecting and following an eye and/or the gaze direction thereof |
| WO2016022612A1 (en) * | 2014-08-04 | 2016-02-11 | Innosys, Inc. | Lighting systems |
| US9952883B2 (en) | 2014-08-05 | 2018-04-24 | Tobii Ab | Dynamic determination of hardware |
| US10288910B2 (en) | 2014-11-14 | 2019-05-14 | ESSILOR INTERNATIONAL Charenton-le-Pont | Devices and methods for determining the position of a characterizing point of an eye and for tracking the direction of the gaze of a wearer of spectacles |
| US9405120B2 (en) | 2014-11-19 | 2016-08-02 | Magna Electronics Solutions Gmbh | Head-up display and vehicle using the same |
| EP3051386A1 (en) | 2015-01-30 | 2016-08-03 | 4tiitoo GmbH | Eye tracking system and method |
| US10242379B2 (en) | 2015-01-30 | 2019-03-26 | Adobe Inc. | Tracking visual gaze information for controlling content display |
| CA2976903A1 (en) | 2015-02-17 | 2016-08-25 | Thalmic Labs Inc. | Systems, devices, and methods for eyebox expansion in wearable heads-up displays |
| US10621431B2 (en) * | 2015-03-27 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Camera that uses light from plural light sources disposed on a device |
| GB201507224D0 (en) * | 2015-04-28 | 2015-06-10 | Microsoft Technology Licensing Llc | Eye gaze correction |
| US10197805B2 (en) | 2015-05-04 | 2019-02-05 | North Inc. | Systems, devices, and methods for eyeboxes with heterogeneous exit pupils |
| US9544485B2 (en) | 2015-05-27 | 2017-01-10 | Google Inc. | Multi-mode LED illumination system |
| US10078219B2 (en) | 2015-05-28 | 2018-09-18 | Thalmic Labs Inc. | Wearable heads-up display with integrated eye tracker and different optical power holograms |
| US9554063B2 (en) | 2015-06-12 | 2017-01-24 | Google Inc. | Using infrared images of a monitored scene to identify windows |
| US9886620B2 (en) * | 2015-06-12 | 2018-02-06 | Google Llc | Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera |
| US9454820B1 (en) | 2015-06-12 | 2016-09-27 | Google Inc. | Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination |
| US9235899B1 (en) | 2015-06-12 | 2016-01-12 | Google Inc. | Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination |
| US9386230B1 (en) | 2015-06-12 | 2016-07-05 | Google Inc. | Day and night detection based on one or more of illuminant detection, lux level detection, and tiling |
| JP6582604B2 (ja) * | 2015-06-23 | 2019-10-02 | 富士通株式会社 | 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム |
| CN108474873A (zh) | 2015-09-04 | 2018-08-31 | 赛尔米克实验室公司 | 用于将全息光学元件与眼镜镜片整合在一起的系统、制品和方法 |
| US10016130B2 (en) | 2015-09-04 | 2018-07-10 | University Of Massachusetts | Eye tracker system and methods for detecting eye parameters |
| US10061383B1 (en) | 2015-09-16 | 2018-08-28 | Mirametrix Inc. | Multi-feature gaze tracking system and method |
| US20170097753A1 (en) | 2015-10-01 | 2017-04-06 | Thalmic Labs Inc. | Systems, devices, and methods for interacting with content displayed on head-mounted displays |
| US9904051B2 (en) | 2015-10-23 | 2018-02-27 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking |
| TWI627438B (zh) * | 2015-11-12 | 2018-06-21 | 柯尼卡美能達股份有限公司 | 鏡頭單元、攝像裝置及行動機器 |
| US10324297B2 (en) | 2015-11-30 | 2019-06-18 | Magna Electronics Inc. | Heads up display system for vehicle |
| CN105528577B (zh) * | 2015-12-04 | 2019-02-12 | 深圳大学 | 基于智能眼镜的识别方法 |
| US10802190B2 (en) | 2015-12-17 | 2020-10-13 | Covestro Llc | Systems, devices, and methods for curved holographic optical elements |
| US9785234B2 (en) | 2015-12-26 | 2017-10-10 | Intel Corporation | Analysis of ambient light for gaze tracking |
| WO2017113018A1 (en) | 2015-12-31 | 2017-07-06 | Mirametrix Inc. | System and apparatus for gaze tracking |
| EP3187977A1 (en) | 2015-12-31 | 2017-07-05 | Tobii AB | System for gaze interaction |
| US10303246B2 (en) | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
| US10151926B2 (en) | 2016-01-29 | 2018-12-11 | North Inc. | Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display |
| CN105763810B (zh) * | 2016-03-28 | 2019-04-16 | 努比亚技术有限公司 | 基于人眼的拍照装置及方法 |
| JP2017182739A (ja) * | 2016-03-31 | 2017-10-05 | 富士通株式会社 | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム |
| CN108353137A (zh) | 2016-04-07 | 2018-07-31 | 托比股份公司 | 用于基于视觉的人机交互的图像传感器 |
| US10594974B2 (en) | 2016-04-07 | 2020-03-17 | Tobii Ab | Image sensor for vision based on human computer interaction |
| CN109313383A (zh) | 2016-04-13 | 2019-02-05 | 赛尔米克实验室公司 | 用于聚焦激光投射器的系统、设备和方法 |
| US10401621B2 (en) | 2016-04-19 | 2019-09-03 | Magna Electronics Inc. | Display unit for vehicle head-up display system |
| CN107305629A (zh) * | 2016-04-21 | 2017-10-31 | 王溯 | 目光识别装置及方法 |
| WO2020112986A1 (en) | 2018-11-27 | 2020-06-04 | Facebook Technologies, Inc. | Methods and apparatus for autocalibration of a wearable electrode sensor system |
| US10277874B2 (en) | 2016-07-27 | 2019-04-30 | North Inc. | Systems, devices, and methods for laser projectors |
| US10416725B2 (en) * | 2016-07-27 | 2019-09-17 | Tobii Ab | Wearable device having a display, lens, illuminator, and image sensor |
| WO2018027326A1 (en) | 2016-08-12 | 2018-02-15 | Thalmic Labs Inc. | Systems, devices, and methods for variable luminance in wearable heads-up displays |
| US10372591B2 (en) | 2016-09-07 | 2019-08-06 | International Business Machines Corporation | Applying eye trackers monitoring for effective exploratory user interface testing |
| CN109716265A (zh) | 2016-09-20 | 2019-05-03 | 托比股份公司 | 基于注视和扫视的图形操纵 |
| CN109923499B (zh) | 2016-09-27 | 2022-07-29 | 托比股份公司 | 便携式眼睛追踪装置 |
| US10180615B2 (en) | 2016-10-31 | 2019-01-15 | Google Llc | Electrochromic filtering in a camera |
| US10215987B2 (en) | 2016-11-10 | 2019-02-26 | North Inc. | Systems, devices, and methods for astigmatism compensation in a wearable heads-up display |
| CA3045192A1 (en) | 2016-11-30 | 2018-06-07 | North Inc. | Systems, devices, and methods for laser eye tracking in wearable heads-up displays |
| US10365492B2 (en) | 2016-12-23 | 2019-07-30 | North Inc. | Systems, devices, and methods for beam combining in wearable heads-up displays |
| US10718951B2 (en) | 2017-01-25 | 2020-07-21 | North Inc. | Systems, devices, and methods for beam combining in laser projectors |
| WO2018156912A1 (en) | 2017-02-27 | 2018-08-30 | Tobii Ab | System for gaze interaction |
| US10877647B2 (en) | 2017-03-21 | 2020-12-29 | Hewlett-Packard Development Company, L.P. | Estimations within displays |
| US10460527B2 (en) * | 2017-06-30 | 2019-10-29 | Tobii Ab | Systems and methods for displaying images in a virtual world environment |
| US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
| US11129530B2 (en) | 2017-09-08 | 2021-09-28 | Tobii Ab | Eye tracking using eyeball center position |
| CN112040858B (zh) | 2017-10-19 | 2024-06-07 | 元平台技术有限公司 | 用于识别与神经肌肉源信号相关的生物结构的系统和方法 |
| US20190121135A1 (en) | 2017-10-23 | 2019-04-25 | North Inc. | Free space multiple laser diode modules |
| EP3732548B1 (en) | 2017-12-28 | 2024-05-29 | Tobii AB | Exposure time control |
| CN108256910A (zh) * | 2018-01-10 | 2018-07-06 | 京东方科技集团股份有限公司 | 内容推荐方法、装置及电子设备 |
| US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
| US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
| US10459237B2 (en) | 2018-02-01 | 2019-10-29 | Dell Products L.P. | System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user |
| WO2019185136A1 (en) | 2018-03-28 | 2019-10-03 | Tobii Ab | Method and system for controlling illuminators |
| US10342425B1 (en) | 2018-03-28 | 2019-07-09 | Tobii Ab | Method and system for controlling illuminators |
| TWI705354B (zh) * | 2018-05-22 | 2020-09-21 | 宏達國際電子股份有限公司 | 眼球追蹤裝置及其光源控制方法 |
| US10288879B1 (en) | 2018-05-31 | 2019-05-14 | Tobii Ab | Method and system for glint/reflection identification |
| US10324529B1 (en) * | 2018-05-31 | 2019-06-18 | Tobii Ab | Method and system for glint/reflection identification |
| WO2019228634A1 (en) | 2018-05-31 | 2019-12-05 | Tobii Ab | Method and system for glint/reflection identification |
| CN108762511B (zh) * | 2018-06-14 | 2020-08-25 | 北京七鑫易维信息技术有限公司 | 一种光源控制方法及装置 |
| CN110740246A (zh) * | 2018-07-18 | 2020-01-31 | 阿里健康信息技术有限公司 | 一种图像矫正方法、移动设备和终端设备 |
| CN110850594B (zh) * | 2018-08-20 | 2022-05-17 | 余姚舜宇智能光学技术有限公司 | 头戴式可视设备及用于头戴式可视设备的眼球追踪系统 |
| US11353952B2 (en) * | 2018-11-26 | 2022-06-07 | Tobii Ab | Controlling illuminators for optimal glints |
| US10885882B2 (en) | 2018-12-06 | 2021-01-05 | Tobii Ab | Reducing aliasing artifacts in foveated rendering using cross-resolution modulation |
| US10775885B2 (en) | 2019-02-15 | 2020-09-15 | Dell Products L.P. | Information handling system and method to improve the accuracy of eye tracking data generated by an eye tracking system |
| WO2020201999A2 (en) | 2019-04-01 | 2020-10-08 | Evolution Optiks Limited | Pupil tracking system and method, and digital display device and digital image rendering system and method using same |
| US11644897B2 (en) | 2019-04-01 | 2023-05-09 | Evolution Optiks Limited | User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same |
| US10712817B1 (en) | 2019-06-27 | 2020-07-14 | Tobii Ab | Image re-projection for foveated rendering |
| US20220129068A1 (en) * | 2019-07-11 | 2022-04-28 | Hewlett-Packard Development Company, L.P. | Eye tracking for displays |
| US11545131B2 (en) * | 2019-07-16 | 2023-01-03 | Microsoft Technology Licensing, Llc | Reading order system for improving accessibility of electronic content |
| CN110251799B (zh) * | 2019-07-26 | 2021-07-20 | 深圳市康宁医院(深圳市精神卫生研究所、深圳市精神卫生中心) | 神经反馈治疗仪 |
| US10788893B1 (en) | 2019-08-06 | 2020-09-29 | Eyetech Digital Systems, Inc. | Computer tablet augmented with internally integrated eye-tracking camera assembly |
| CN114258279A (zh) * | 2019-08-16 | 2022-03-29 | 苹果公司 | 使用经调制的同轴照明的瞳孔评估 |
| US11322113B2 (en) | 2019-09-12 | 2022-05-03 | Logitech Europe S.A. | Techniques for eye fatigue mitigation |
| US10842430B1 (en) | 2019-09-12 | 2020-11-24 | Logitech Europe S.A. | Eye fatigue detection using visual imaging |
| CN112578556B (zh) | 2019-09-27 | 2023-02-21 | 托比股份公司 | 用于减少来自光学装置的不合需的反射的眼睛跟踪系统 |
| JP7576610B2 (ja) * | 2019-09-27 | 2024-10-31 | アルコン インコーポレイティド | 即時視線校正システム及び方法 |
| KR102696650B1 (ko) | 2019-09-30 | 2024-08-22 | 삼성디스플레이 주식회사 | 전자 장치 |
| WO2021073743A1 (en) | 2019-10-17 | 2021-04-22 | Huawei Technologies Co., Ltd. | Determining user input based on hand gestures and eye tracking |
| CN112949370A (zh) | 2019-12-10 | 2021-06-11 | 托比股份公司 | 眼睛事件检测 |
| US10928904B1 (en) * | 2019-12-31 | 2021-02-23 | Logitech Europe S.A. | User recognition and gaze tracking in a video system |
| US11163995B2 (en) | 2019-12-31 | 2021-11-02 | Logitech Europe S.A. | User recognition and gaze tracking in a video system |
| US12329514B2 (en) | 2020-01-09 | 2025-06-17 | Wavefront Dynamics, Inc. | Methods for dynamic position measurement of ocular structures using purkinje reflection spots |
| US10685748B1 (en) | 2020-02-12 | 2020-06-16 | Eyetech Digital Systems, Inc. | Systems and methods for secure processing of eye tracking data |
| US11921917B2 (en) | 2020-04-07 | 2024-03-05 | Eyetech Digital Systems, Inc. | Compact eye-tracking camera systems and methods |
| US10996753B1 (en) * | 2020-04-07 | 2021-05-04 | Eyetech Digital Systems, Inc. | Multi-mode eye-tracking with independently operable illuminators |
| CN111700586B (zh) * | 2020-07-01 | 2023-09-29 | 业成科技(成都)有限公司 | 眼动追踪装置及应用其的电子装置 |
| SE544921C2 (en) | 2020-08-27 | 2023-01-03 | Tobii Ab | Eye tracking system |
| CN116507267A (zh) * | 2020-09-22 | 2023-07-28 | 苹果公司 | 用于视网膜眼睛跟踪的多个注视相关照明源 |
| SE2051433A1 (en) | 2020-12-08 | 2022-06-09 | Tobii Ab | Method and system for glint classification |
| US11593962B2 (en) | 2020-12-29 | 2023-02-28 | Tobii Ab | Eye gaze tracking system, associated methods and computer programs |
| US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
| US11503998B1 (en) | 2021-05-05 | 2022-11-22 | Innodem Neurosciences | Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases |
| US12343081B2 (en) | 2021-05-19 | 2025-07-01 | Wavefront Dynamics, Inc. | Optical aberrometer systems for customizing intraocular lens |
| US12458536B2 (en) | 2021-05-19 | 2025-11-04 | Wavefront Dynamics, Inc. | Methods for customizing intraocular lens using an optical aberrometer |
| JPWO2023084356A1 (sv) | 2021-11-12 | 2023-05-19 | ||
| US12002290B2 (en) | 2022-02-25 | 2024-06-04 | Eyetech Digital Systems, Inc. | Systems and methods for hybrid edge/cloud processing of eye-tracking image data |
| US11995232B1 (en) | 2022-12-09 | 2024-05-28 | Shopify Inc. | Systems and methods for responsive user interface based on gaze depth |
| CN115836837B (zh) * | 2023-02-20 | 2023-05-02 | 潍坊医学院附属医院 | 眼科检测装置 |
| DE102023000955B3 (de) * | 2023-03-13 | 2024-05-29 | Mercedes-Benz Group AG | Fahrzeuginsassenerfassungsvorrichtung und Fahrzeug |
| SE2350740A1 (en) | 2023-06-16 | 2024-12-17 | Tobii Ab | Driver distraction from uncertain gaze estimation |
| ES1307022Y (es) * | 2024-03-15 | 2024-07-19 | Univ La Laguna | Sistema de neurorrehabilitacion |
| US20250335023A1 (en) * | 2024-04-24 | 2025-10-30 | Huawei Technologies Co., Ltd. | Methods and systems for controlling vehicle functions with gaze |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2739331B2 (ja) * | 1988-11-16 | 1998-04-15 | 株式会社エイ・ティ・アール通信システム研究所 | 非接触視線検出装置 |
| JP2541688B2 (ja) * | 1990-05-21 | 1996-10-09 | 日産自動車株式会社 | 眼位置検出装置 |
| JP2522859B2 (ja) * | 1990-12-14 | 1996-08-07 | 日産自動車株式会社 | 眼位置検出装置 |
| JPH0761314B2 (ja) * | 1991-10-07 | 1995-07-05 | コナミ株式会社 | 網膜反射光量測定装置及び該装置を用いた視線検出装置 |
| JP3109230B2 (ja) * | 1992-03-17 | 2000-11-13 | 日産自動車株式会社 | 車両運転者の眼球位置検出装置 |
| JPH06148513A (ja) * | 1992-10-30 | 1994-05-27 | Canon Inc | 視線検出装置 |
| US5638176A (en) * | 1996-06-25 | 1997-06-10 | International Business Machines Corporation | Inexpensive interferometric eye tracking system |
| GB2315858A (en) * | 1996-08-01 | 1998-02-11 | Sharp Kk | System for eye detection and gaze direction determination |
| US6351273B1 (en) * | 1997-04-30 | 2002-02-26 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
| DE19731301C2 (de) | 1997-07-13 | 2001-05-10 | Smi Senso Motoric Instr Gmbh | Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse |
| JPH1156782A (ja) * | 1997-08-12 | 1999-03-02 | Techno Works:Kk | 二光源及び画像差分手段を用いた眼球特徴点検出方式 |
| AUPP048097A0 (en) * | 1997-11-21 | 1997-12-18 | Xenotech Research Pty Ltd | Eye tracking apparatus |
| US6152563A (en) * | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
| JP2000163564A (ja) * | 1998-12-01 | 2000-06-16 | Fujitsu Ltd | 目の追跡装置および瞬き検出装置 |
| JP3605080B2 (ja) * | 2002-02-04 | 2004-12-22 | キヤノン株式会社 | 視線検出装置 |
| US7206435B2 (en) * | 2002-03-26 | 2007-04-17 | Honda Giken Kogyo Kabushiki Kaisha | Real-time eye detection and tracking under various light conditions |
-
2002
- 2002-11-21 SE SE0203457A patent/SE524003C2/sv not_active IP Right Cessation
-
2003
- 2003-11-21 DE DE60327798T patent/DE60327798D1/de not_active Expired - Lifetime
- 2003-11-21 EP EP03776116A patent/EP1562469B1/en not_active Expired - Lifetime
- 2003-11-21 US US10/535,227 patent/US7572008B2/en not_active Expired - Lifetime
- 2003-11-21 ES ES03776116T patent/ES2327633T3/es not_active Expired - Lifetime
- 2003-11-21 WO PCT/SE2003/001813 patent/WO2004045399A1/en not_active Ceased
- 2003-11-21 JP JP2004553361A patent/JP4783018B2/ja not_active Expired - Fee Related
- 2003-11-21 AT AT03776116T patent/ATE432038T1/de not_active IP Right Cessation
- 2003-11-21 DK DK03776116T patent/DK1562469T3/da active
- 2003-11-21 PT PT03776116T patent/PT1562469E/pt unknown
- 2003-11-21 AU AU2003284816A patent/AU2003284816A1/en not_active Abandoned
- 2003-11-21 CN CNB2003801036960A patent/CN100421614C/zh not_active Expired - Lifetime
-
2011
- 2011-03-03 JP JP2011046089A patent/JP5297486B2/ja not_active Expired - Fee Related
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2238889A1 (en) | 2009-04-01 | 2010-10-13 | Tobii Technology AB | Adaptive camera and illuminator eyetracker |
| US11853477B2 (en) | 2013-03-01 | 2023-12-26 | Tobii Ab | Zonal gaze driven interaction |
Also Published As
| Publication number | Publication date |
|---|---|
| US20060238707A1 (en) | 2006-10-26 |
| SE0203457L (sv) | 2004-05-22 |
| JP2006507054A (ja) | 2006-03-02 |
| EP1562469B1 (en) | 2009-05-27 |
| ES2327633T3 (es) | 2009-11-02 |
| DE60327798D1 (de) | 2009-07-09 |
| WO2004045399A1 (en) | 2004-06-03 |
| EP1562469A1 (en) | 2005-08-17 |
| CN1725976A (zh) | 2006-01-25 |
| US7572008B2 (en) | 2009-08-11 |
| AU2003284816A1 (en) | 2004-06-15 |
| PT1562469E (pt) | 2009-08-05 |
| ATE432038T1 (de) | 2009-06-15 |
| JP4783018B2 (ja) | 2011-09-28 |
| DK1562469T3 (da) | 2009-08-17 |
| CN100421614C (zh) | 2008-10-01 |
| SE0203457D0 (sv) | 2002-11-21 |
| JP5297486B2 (ja) | 2013-09-25 |
| JP2011115606A (ja) | 2011-06-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| SE524003C2 (sv) | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel | |
| KR102669768B1 (ko) | 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템 | |
| KR102000865B1 (ko) | 눈 추적 디바이스 및 눈 추적 디바이스를 동작시키기 위한 방법 | |
| US8576390B1 (en) | System and method for determining and controlling focal distance in a vision system camera | |
| FI125445B (sv) | Blickstyrningsanordning | |
| WO2000026713A1 (en) | Eye tracking system | |
| JP2006280938A (ja) | 安全な眼球検出 | |
| JP2006105889A (ja) | 眼検出装置および画像表示装置 | |
| CN111522431B (zh) | 使用眼睛跟踪系统对闪光进行分类 | |
| US10607096B2 (en) | Z-dimension user feedback biometric system | |
| KR20140034937A (ko) | 접촉 없이 조작될 수 있는 측정 장치 및 이와 같은 측정 장치를 위한 제어 방법 | |
| EP4285204B1 (en) | Eye tracking illumination | |
| CN104657702B (zh) | 眼球侦测装置、瞳孔侦测方法与虹膜辨识方法 | |
| US20080018856A1 (en) | Corneo-scleral topography system | |
| JP3477279B2 (ja) | 視線検出装置 | |
| JP4451195B2 (ja) | 視線検出装置 | |
| US10685448B2 (en) | Optical module and a method for objects' tracking under poor light conditions | |
| EP4107603B1 (en) | Gaze tracking | |
| US20220079484A1 (en) | Evaluation device, evaluation method, and medium | |
| EP4629135A1 (en) | Apparatus and methods for comprehensive focusing in imaging environments | |
| WO2008100332A1 (en) | Corneo-scleral topography system | |
| JPH06308371A (ja) | 視線検出装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| NUG | Patent has lapsed |