KR102815809B1 - 영상 처리 방법 및 장치 - Google Patents
영상 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR102815809B1 KR102815809B1 KR1020180154351A KR20180154351A KR102815809B1 KR 102815809 B1 KR102815809 B1 KR 102815809B1 KR 1020180154351 A KR1020180154351 A KR 1020180154351A KR 20180154351 A KR20180154351 A KR 20180154351A KR 102815809 B1 KR102815809 B1 KR 102815809B1
- Authority
- KR
- South Korea
- Prior art keywords
- region
- image processing
- image
- feature
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
도 2는 일 실시예에 따른 영상 처리 방법을 나타낸 흐름도.
도 3은 다른 실시예에 따른 영상 처리 방법을 나타낸 흐름도.
도 4는 일 실시예에 따라 얼굴 영역에 관한 정보를 출력하는 과정을 설명하기 위한 도면.
도 5는 일 실시예에 따른 제1 검증기 및 제2 검증기의 검출 결과를 설명하기 위한 도면.
도 6은 다른 실시예에 따른 영상 처리 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따른 영상 처리 장치의 블록도.
Claims (29)
- 영상 프레임을 수신하는 단계;
상기 영상 프레임에 포함된 사용자의 얼굴 영역을 획득하는 단계;
미리 정해진 복수의 정점들(points)을 상기 얼굴 영역에 포함된 복수의 특징 부위들에 정렬(align)시켜 정렬 결과를 얻는 단계;
상기 복수의 특징 부위들의 조합에 해당하는 제1 영역에 기초하여, 상기 정렬 결과를 1차적으로 검증(check)하는 단계로서, 상기 제1 영역이 상기 복수의 특징 부위들의 조합에 해당하는 클래스인지 여부를 상기 복수의 특징 부위들의 특징점으로부터 추출된 SIFT 특징에 기초하여 1차 검증을 수행하는 단계;
상기 복수의 특징 부위들 중 개별 특징 부위에 해당하는 제2 영역에 기초하여, 상기 정렬 결과를 2차적으로 검증하는 단계로서, 상기 제2 영역이 상기 개별 특징 부위에 해당하는 클래스인지 여부를 상기 개별 특징 부위의 특징점으로부터 추출된 SIFT 특징에 기초하여 2차 검증을 수행하는 단계;
상기 1차 검증 및 상기 2차 검증 중 적어도 하나를 통과하지 못한 경우, 상기 얼굴 영역을 재 검출하는 단계; 및
상기 1차 검증 및 상기 2차 검증을 통과한 경우, 상기 얼굴 영역에 관한 정보를 출력하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 얼굴 영역을 획득하는 단계는
상기 영상 프레임이 초기 영상 프레임(initial image frame)인 경우, 상기 영상 프레임에 포함된 사용자의 얼굴 영역을 검출하는 단계; 및
상기 영상 프레임이 상기 초기 영상 프레임이 아닌 경우, 상기 영상 프레임의 이전 영상 프레임들 중 어느 하나의 영상 프레임에 기초하여 검출된 얼굴 영역을 수신하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 정렬하는 단계는
상기 복수의 정점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 정렬하는 단계는
상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 정점들을 이동시키는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임이 초기 영상 프레임인 경우,
상기 정렬 전 복수의 정점들은 복수의 사용자들의 특징 부위들의 평균 위치에 대응하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임이 초기 영상 프레임이 아닌 경우,
상기 정렬 전 복수의 정점들은 이전 영상 프레임에 기초하여 정렬된 복수의 정점들에 대응하는, 영상 처리 방법. - 제1항에 있어서,
상기 복수의 특징 부위들은
눈 및 코를 포함하고,
상기 개별 특징 부위는
상기 눈을 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 1차적으로 검증하는 단계는
상기 제1 영역 내 영상 정보에 기초하여, 상기 제1 영역이 상기 복수의 특징 부위들의 조합을 포함하는지 여부를 검증하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 1차적으로 검증하는 단계는
상기 복수의 특징부위의 특징점으로부터 추출된 SIFT 특징을 학습한 제1 서포트 벡터 머신 분류기인 제1 검증기를 이용하여 수행되는, 영상 처리 방법. - 제1항에 있어서,
상기 2차적으로 검증하는 단계는
상기 제2 영역 내 영상 정보에 기초하여, 상기 제2 영역이 상기 개별 특징 부위에 해당하는지 여부를 검증하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 2차적으로 검증하는 단계는
상기 개별 특징 부위의 특징점으로부터 추출된 SIFT 특징을 학습한 제2 서포트 벡터 머신 분류기인 제2 검증기를 이용하여 수행되는, 영상 처리 방법. - 제1항에 있어서,
상기 얼굴 영역에 관한 정보를 출력하는 단계는
상기 얼굴 영역에 포함된 눈동자의 위치, 상기 눈동자의 위치에 의한 시점(view point), 상기 얼굴 영역에 표현되는 표정 중 적어도 하나에 대한 정보를 출력하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 재 검출된 얼굴 영역에 기초하여, 상기 정렬하는 단계, 상기 1차적으로 검증하는 단계, 및 상기 2차적으로 검증하는 단계를 반복적으로 수행하는 단계
를 더 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임은
컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함하는, 영상 처리 방법. - 하드웨어와 결합되어 제1항 내지 제14항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
- 영상 프레임에 포함된 사용자의 얼굴 영역을 획득하고, 미리 정해진 복수의 정점들을 상기 얼굴 영역에 포함된 복수의 특징 부위들에 정렬시켜 정렬 결과를 얻고, 상기 복수의 특징 부위들의 조합에 해당하는 제1 영역에 기초하여, 상기 정렬 결과를 1차적으로 검증하고, 상기 복수의 특징 부위들 중 개별 특징 부위에 해당하는 제2 영역에 기초하여, 상기 정렬 결과를 2차적으로 검증하며, 상기 1차 검증 및 상기 2차 검증 중 적어도 하나를 통과하지 못한 경우, 상기 얼굴 영역을 재 검출하는 프로세서; 및
상기 영상 프레임을 수신하고, 상기 1차 검증 및 상기 2차 검증을 통과한 경우, 상기 얼굴 영역에 관한 정보를 출력하는 통신 인터페이스
를 포함하며,
상기 프로세서는
상기 정렬 결과를 상기 1차적으로 검증하는 경우에 상기 제1 영역이 상기 복수의 특징 부위들의 조합에 해당하는 클래스인지 여부를 상기 복수의 특징 부위들의 특징점으로부터 추출된 SIFT 특징에 기초하여 1 차 검증을 수행하고,
상기 정렬 결과를 상기 2 차적으로 검증하는 경우, 상기 제2 영역이 상기 개별 특징 부위에 해당하는 클래스인지 여부를 상기 개별 특징 부위의 특징점으로부터 추출된 SIFT 특징에 기초하여 상기 2차 검증을 수행하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 영상 프레임이 초기 영상 프레임인 경우, 상기 영상 프레임에 포함된 사용자의 얼굴 영역을 검출하고,
상기 영상 프레임이 상기 초기 영상 프레임이 아닌 경우, 상기 영상 프레임의 이전 영상 프레임들 중 어느 하나의 영상 프레임에 기초하여 검출된 얼굴 영역을 수신하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 복수의 정점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 정점들을 이동시키는, 영상 처리 장치. - 제16항에 있어서,
상기 영상 프레임이 초기 영상 프레임인 경우,
상기 정렬 전 복수의 정점들은 복수의 사용자들의 특징 부위들의 평균 위치에 대응하는, 영상 처리 장치. - 제16항에 있어서,
상기 영상 프레임이 초기 영상 프레임이 아닌 경우,
상기 정렬 전 복수의 정점들은 이전 영상 프레임에 기초하여 정렬된 복수의 정점들에 대응하는, 영상 처리 장치. - 제16항에 있어서,
상기 복수의 특징 부위들은
눈 및 코를 포함하고,
상기 개별 특징 부위는
상기 눈을 포함하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 제1 영역 내 영상 정보에 기초하여, 상기 제1 영역이 상기 복수의 특징 부위들의 조합을 포함하는지 여부를 검증하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 제1 영역 내 영상 정보에 기초하여, 상기 제1 영역이 상기 복수의 특징 부위들을 조합에 해당하는 클래스인지 여부를 제1 검증기를 이용하여 검증하고, 상기 제1 검증기는 상기 복수의 특징부의 특징점으로부터 추출된 SIFT 특징을 학습한 제1 서포트 벡터 머신 분류기인, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 제2 영역 내 영상 정보에 기초하여, 상기 제2 영역이 상기 개별 특징 부위에 해당하는지 여부를 검증하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 제2 영역 내 영상 정보에 기초하여, 상기 제2 영역이 상기 개별 특징 부위에 해당하는 클래스인지 여부를 제2 검증기를 이용하여 검증하고, 상기 제2 검증기는 상기 개별 특징부의 특징점으로부터 추출된 SIFT 특징을 학습한 제2 서포트 벡터 머신 분류기인, 영상 처리 장치. - 제16항에 있어서,
상기 통신 인터페이스는
상기 얼굴 영역에 포함된 눈동자의 위치, 상기 눈동자의 위치에 의한 시점, 상기 얼굴 영역에 표현되는 표정 중 적어도 하나에 대한 정보를 출력하는, 영상 처리 장치. - 제16항에 있어서,
상기 프로세서는
상기 재 검출된 얼굴 영역에 기초하여, 상기 정렬하는 과정, 상기 1차적으로 검증하는 과정, 및 상기 2차적으로 검증하는 과정을 반복적으로 수행하는, 영상 처리 장치. - 제16항에 있어서,
상기 영상 프레임은
컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함하는, 영상 처리 장치.
Priority Applications (7)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180154351A KR102815809B1 (ko) | 2018-12-04 | 2018-12-04 | 영상 처리 방법 및 장치 |
| US16/416,389 US10915736B2 (en) | 2018-12-04 | 2019-05-20 | Image processing method and apparatus |
| CN201910659582.7A CN111277812B (zh) | 2018-12-04 | 2019-07-22 | 图像处理方法和设备 |
| JP2019194390A JP7419017B2 (ja) | 2018-12-04 | 2019-10-25 | 映像処理方法及び装置 |
| EP19211797.6A EP3663970B1 (en) | 2018-12-04 | 2019-11-27 | Image processing method and apparatus |
| US17/146,660 US11538277B2 (en) | 2018-12-04 | 2021-01-12 | Image processing method and apparatus |
| US18/145,406 US11972634B2 (en) | 2018-12-04 | 2022-12-22 | Image processing method and apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180154351A KR102815809B1 (ko) | 2018-12-04 | 2018-12-04 | 영상 처리 방법 및 장치 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20200067465A KR20200067465A (ko) | 2020-06-12 |
| KR102815809B1 true KR102815809B1 (ko) | 2025-06-04 |
Family
ID=68699322
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020180154351A Active KR102815809B1 (ko) | 2018-12-04 | 2018-12-04 | 영상 처리 방법 및 장치 |
Country Status (5)
| Country | Link |
|---|---|
| US (3) | US10915736B2 (ko) |
| EP (1) | EP3663970B1 (ko) |
| JP (1) | JP7419017B2 (ko) |
| KR (1) | KR102815809B1 (ko) |
| CN (1) | CN111277812B (ko) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102815809B1 (ko) | 2018-12-04 | 2025-06-04 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
| KR102824646B1 (ko) | 2019-08-26 | 2025-06-25 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
| US12382010B2 (en) * | 2020-10-30 | 2025-08-05 | Kyocera Corporation | Detection device and image display system |
| US12445612B2 (en) * | 2023-04-06 | 2025-10-14 | Honeywell International Inc. | Methods and systems for compressing video data |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006228061A (ja) * | 2005-02-18 | 2006-08-31 | Fujitsu Ltd | 顔追跡プログラムおよび顔追跡方法 |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1211640A3 (en) | 2000-09-15 | 2003-10-15 | Canon Kabushiki Kaisha | Image processing methods and apparatus for detecting human eyes, human face and other objects in an image |
| TW569148B (en) * | 2002-04-09 | 2004-01-01 | Ind Tech Res Inst | Method for locating facial features in an image |
| US7894637B2 (en) * | 2004-05-21 | 2011-02-22 | Asahi Kasei Corporation | Device, program, and method for classifying behavior content of an object person |
| JP4218720B2 (ja) * | 2006-09-22 | 2009-02-04 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
| JP4811259B2 (ja) * | 2006-12-11 | 2011-11-09 | 日産自動車株式会社 | 視線方向推定装置及び視線方向推定方法 |
| JP2009110048A (ja) * | 2007-10-26 | 2009-05-21 | Seiko Epson Corp | 顔領域の設定 |
| DE102007056528B3 (de) | 2007-11-16 | 2009-04-02 | Seereal Technologies S.A. | Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren |
| KR101381439B1 (ko) * | 2011-09-15 | 2014-04-04 | 가부시끼가이샤 도시바 | 얼굴 인식 장치 및 얼굴 인식 방법 |
| KR20130067465A (ko) | 2011-12-14 | 2013-06-24 | 현대자동차주식회사 | 특징점을 이용한 얼굴방향 추적 장치 및 그 방법 |
| KR101977638B1 (ko) | 2012-02-29 | 2019-05-14 | 삼성전자주식회사 | 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
| US9268993B2 (en) * | 2013-03-13 | 2016-02-23 | Futurewei Technologies, Inc. | Real-time face detection using combinations of local and global features |
| KR20150064977A (ko) | 2013-12-04 | 2015-06-12 | 건국대학교 산학협력단 | 얼굴정보 기반의 비디오 분석 및 시각화 시스템 |
| KR101610525B1 (ko) | 2014-10-20 | 2016-04-07 | 현대자동차주식회사 | 조도를 고려한 동공 검출 장치 및 그 방법 |
| KR102349059B1 (ko) * | 2014-11-07 | 2022-01-10 | 삼성전자주식회사 | 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법 |
| US9704038B2 (en) | 2015-01-07 | 2017-07-11 | Microsoft Technology Licensing, Llc | Eye tracking |
| EP3259734B1 (en) | 2015-02-20 | 2024-07-24 | Seeing Machines Limited | Glare reduction |
| KR101717222B1 (ko) | 2015-04-24 | 2017-03-17 | 가천대학교 산학협력단 | 시선 검출 시스템 및 그 방법 |
| KR101755883B1 (ko) | 2015-11-09 | 2017-07-07 | 현대자동차주식회사 | 시선 추적 장치 및 그의 눈 특징점 검출 오류 판별 방법 |
| US9959678B2 (en) | 2016-06-03 | 2018-05-01 | Oculus Vr, Llc | Face and eye tracking using facial sensors within a head-mounted display |
| KR101819164B1 (ko) | 2016-07-29 | 2018-01-17 | 상명대학교산학협력단 | 시선 추적 장치 및 방법 |
| KR102487223B1 (ko) | 2016-07-29 | 2023-01-12 | 백석대학교산학협력단 | 눈동자 추적 기반의 하르유사특징을 이용한 얼굴인증 방법 |
| KR102476897B1 (ko) | 2016-10-05 | 2022-12-12 | 삼성전자주식회사 | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 |
| CN106599656A (zh) * | 2016-11-28 | 2017-04-26 | 深圳超多维科技有限公司 | 显示方法、装置及电子设备 |
| KR102324468B1 (ko) * | 2017-03-28 | 2021-11-10 | 삼성전자주식회사 | 얼굴 인증을 위한 장치 및 방법 |
| KR102410834B1 (ko) | 2017-10-27 | 2022-06-20 | 삼성전자주식회사 | 반사 영역을 제거하는 방법, 사용자의 눈을 추적하는 방법 및 그 장치 |
| KR102455633B1 (ko) * | 2017-12-21 | 2022-10-17 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
| GB2571300B (en) * | 2018-02-23 | 2020-05-27 | Sony Interactive Entertainment Inc | Eye tracking method and apparatus |
| KR102815809B1 (ko) * | 2018-12-04 | 2025-06-04 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
-
2018
- 2018-12-04 KR KR1020180154351A patent/KR102815809B1/ko active Active
-
2019
- 2019-05-20 US US16/416,389 patent/US10915736B2/en active Active
- 2019-07-22 CN CN201910659582.7A patent/CN111277812B/zh active Active
- 2019-10-25 JP JP2019194390A patent/JP7419017B2/ja active Active
- 2019-11-27 EP EP19211797.6A patent/EP3663970B1/en active Active
-
2021
- 2021-01-12 US US17/146,660 patent/US11538277B2/en active Active
-
2022
- 2022-12-22 US US18/145,406 patent/US11972634B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006228061A (ja) * | 2005-02-18 | 2006-08-31 | Fujitsu Ltd | 顔追跡プログラムおよび顔追跡方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3663970B1 (en) | 2024-05-22 |
| US20230130355A1 (en) | 2023-04-27 |
| EP3663970A1 (en) | 2020-06-10 |
| JP2020091848A (ja) | 2020-06-11 |
| US10915736B2 (en) | 2021-02-09 |
| US11538277B2 (en) | 2022-12-27 |
| JP7419017B2 (ja) | 2024-01-22 |
| US20210133431A1 (en) | 2021-05-06 |
| US20200175258A1 (en) | 2020-06-04 |
| CN111277812A (zh) | 2020-06-12 |
| CN111277812B (zh) | 2024-09-27 |
| KR20200067465A (ko) | 2020-06-12 |
| US11972634B2 (en) | 2024-04-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10572009B2 (en) | Eye tracking method, electronic device, and non-transitory computer readable storage medium | |
| US10990170B2 (en) | Eye tracking method, electronic device, and non-transitory computer readable storage medium | |
| KR102815809B1 (ko) | 영상 처리 방법 및 장치 | |
| KR102415503B1 (ko) | 분류기 학습 방법 및 객체 검출 방법 | |
| KR102476897B1 (ko) | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 | |
| KR20190096703A (ko) | 영상 융합 방법 및 장치 | |
| KR20160054783A (ko) | 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법 | |
| KR20200052068A (ko) | 눈 추적 방법 및 장치 | |
| US12236615B2 (en) | Image processing method and apparatus | |
| KR102415507B1 (ko) | 영상 처리 방법 및 영상 처리 장치 | |
| KR20220013834A (ko) | 영상 처리 방법 및 장치 | |
| KR102879262B1 (ko) | 눈 복원 기반의 눈 추적 방법 및 장치 | |
| US20250245962A1 (en) | Adaptive interpupillary distance estimation for video see-through (vst) extended reality (xr) or other applications | |
| KR102357763B1 (ko) | 제스처 인식을 통한 디바이스 제어 방법 및 장치 | |
| KR20240107987A (ko) | 동영상의 객체 시퀀스를 복원하는 장치 및 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20181204 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211109 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20181204 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240725 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250305 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250528 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20250529 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |