KR101815020B1 - 인터페이스 제어 장치 및 방법 - Google Patents
인터페이스 제어 장치 및 방법 Download PDFInfo
- Publication number
- KR101815020B1 KR101815020B1 KR1020110046174A KR20110046174A KR101815020B1 KR 101815020 B1 KR101815020 B1 KR 101815020B1 KR 1020110046174 A KR1020110046174 A KR 1020110046174A KR 20110046174 A KR20110046174 A KR 20110046174A KR 101815020 B1 KR101815020 B1 KR 101815020B1
- Authority
- KR
- South Korea
- Prior art keywords
- dimensional
- information
- interaction
- user
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 본 발명의 일실시예에 따른 인터페이스 제어 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일실시예에 따른 관심 영역을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 깊이 영상을 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 제어 시작 인터액션 및 제어 종료 인터액션을 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 인터액션을 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 고정 인터액션을 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 사용자의 시선을 이용하는 인터액션에 대한 도면이다.
도 9는 본 발명의 일실시예에 따른 사용자의 시선을 이용하는 고정 인터액션을 나타내는 도면이다.
도 10은 본 발명의 일실시예에 따른 조작 영역을 나타내는 도면이다.
도 11은 본 발명의 일실시예에 따른 인터페이스 제어 장치의 생성부의 구성을 나타내는 도면이다.
도 12는 본 발명의 일실시예에 따른 2차원 또는 3차원 그래픽 사용자 인터페이스를 나타내는 도면이다.
도 13은 본 발명의 일실시예에 따른 인터페이스 제어 장치가 사용자의 위치에 대응하여 2차원 또는 3차원 그래픽 사용자 인터페이스를 제어하는 동작을 나타내는 도면이다.
도 14는 본 발명의 일실시예에 따른 인터페이스 제어 방법을 나타내는 흐름도이다.
110: 센서
120: 사용자
130: 2차원 또는 3차원 그래픽 사용자 인터페이스
Claims (26)
- 사용자와 연관된 영상(Image)을 획득하는 센서; 및
상기 사용자와 상기 센서 간의 거리, 상기 영상의 크기 및 공기 중의 관심 영역 창(window)의 크기에 기반하여 관심 영역(Region of Interest)의 크기를 결정하고, 상기 관심 영역의 크기에 기반한 사용자 입력(user input)과 연관된 정보를 생성하고, 상기 정보에 기반하여 인터페이스를 제어하는 처리부
를 포함하는 인터페이스 제어 장치. - 삭제
- 제1항에 있어서,
상기 처리부는
하기 수식 1을 이용하여 상기 관심 영역(Region of Interest, ROI)의 너비를 연산하고, 하기 수식 2를 이용하여 상기 관심 영역의 높이를 연산하는 인터페이스 제어 장치.
[수식 1]
[수식 2]
단, ROIwidth(pixel) : 관심 영역의 너비
Dcur : 센서 및 사용자 사이의 거리에 대한 센티미터(centimeter) 값
Imagewidth 및 Imageheight : 깊이 영상의 높이 및 너비
FoVwidth 및 FoVwidth : 깊이 카메라의 렌즈로 인한 시야의 높이 및 너비
Kwidth : 공기 중의 관심 영역 창의 평균 너비
Kheight : 공기 중의 관심 영역 창의 평균 높이 - 제1항에 있어서,
상기 처리부는
상기 영상의 현재 프래임 및 적어도 하나의 이전 프래임 간의 깊이 차이값을 연산하고, 상기 깊이 차이값에 기반하여 상기 정보를 생성하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 처리부는
상기 영상으로부터 상기 사용자의 머리의 위치에 대한 정보 및 상기 머리의 회전에 대한 정보를 추출하고, 상기 머리의 위치에 대한 정보 및 상기 머리의 회전에 대한 정보에 기반하여 시선 정보를 생성하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 정보는
상기 사용자의 손의 이동에 대한 정보 및 상기 손의 자세(Posture)에 대한 정보 중 적어도 하나를 포함하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 처리부는
상기 정보가 제어 시작 인터액션에 대응하는 경우, 2차원 또는 3차원 그래픽 사용자 인터페이스의 제어를 시작하고,
상기 정보가 제어 종료 인터액션에 대응하는 경우, 상기 2차원 또는 3차원 그래픽 사용자 인터페이스의 제어를 종료하는 인터페이스 제어 장치. - 제7항에 있어서,
상기 제어 시작 인터액션은
상기 사용자가 손을 들어올리는 동작 및 상기 사용자가 상기 손을 미는 동작 중 적어도 하나를 포함하는 인터페이스 제어 장치. - 제7항에 있어서,
상기 제어 종료 인터액션은
상기 사용자가 손을 내리는 동작을 포함하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 처리부는
상기 정보가 정밀 인터액션에 대응하는 경우, 상기 정보에 대응하는 조작 영역을 표시하고, 상기 조작 영역 안의 2차원 또는 3차원 그래픽 사용자 인터페이스를 제어하는 인터페이스 제어 장치. - 제10항에 있어서,
상기 정밀 인터액션은
상기 사용자가 양손을 상기 사용자의 앞으로 이동시키고, 상기 양손 중 어느 하나를 기준값을 초과하는 시간 동안 정지시키는 동작을 포함하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 처리부는
2차원 또는 3차원 그래픽 사용자 인터페이스를 제어하는 복수 개의 인터액션 중 상기 정보에 대응하는 인터액션이 있는 경우, 상기 정보에 대응하는 인터액션에 기반하여 상기 2차원 또는 3차원 그래픽 사용자 인터페이스를 제어하고,
상기 복수 개의 인터액션 중 상기 정보에 대응하는 인터액션이 없는 경우, 상기 정보에 기반하여 상기 2차원 또는 3차원 그래픽 사용자 인터페이스의 컨트롤 포인트의 이동을 제어하는 인터페이스 제어 장치. - 제12항에 있어서,
상기 복수 개의 인터액션은
실행 인터액션, 취소 인터액션, 드래그&드롭(Drag&Drop) 인터액션, 스크롤링(Scrolling) 인터액션, 회전(Rotation) 인터액션 및 스케일링(Scaling) 인터액션 중 적어도 하나를 포함하는 인터페이스 제어 장치. - 제13항에 있어서,
상기 실행 인터액션은
상기 사용자가 손을 썸스-업(Thumbs-Up) 자세로 하는 동작을 포함하는 인터페이스 제어 장치. - 제13항에 있어서,
상기 취소 인터액션은
상기 사용자가 손을 썸스-다운(Thumbs-Down) 자세로 하는 동작을 포함하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 영상은
상기 사용자와 연관된 색상 영상 및 IR 영상을 더 포함하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 영상에 기반하여, 2차원 또는 3차원 그래픽 사용자 인터페이스를 생성하는 생성부; 및
상기 2차원 또는 3차원 그래픽 사용자 인터페이스를 디스플레이 장치로 출력하는 출력부
를 더 포함하는 인터페이스 제어 장치. - 제17항에 있어서,
상기 생성부는
상기 영상으로부터 상기 사용자의 왼쪽 눈 및 오른쪽 눈의 위치에 대한 정보를 추출하고, 상기 왼쪽 눈의 위치에 대응하여 왼쪽 뷰포인트의 위치를 조정하며, 상기 오른쪽 눈의 위치에 대응하여 오른쪽 뷰포인트의 위치를 조정하는 뷰포인트 조정부;
상기 왼쪽 뷰포인트의 위치에 기반하여 왼쪽 3차원 신을 렌더링하고, 상기 오른쪽 뷰포인트의 위치에 기반하여 오른쪽 3차원 신을 렌더링하는 3차원 신 렌더링부; 및
상기 렌더링된 왼쪽 3차원 신 및 상기 렌더링된 오른쪽 3차원 신을 결합하여, 상기 2차원 또는 3차원 그래픽 사용자 인터페이스를 생성하는 3D GUI 생성부
를 포함하는 인터페이스 제어 장치. - 제18항에 있어서,
상기 뷰포인트 조정부는
상기 센서의 센싱 범위 안에 복수 명의 사용자가 있고, 상기 복수 명의 사용자 중 제어 시작 인터액션을 입력한 주사용자가 있는 경우, 상기 주사용자의 왼쪽 눈 및 오른쪽 눈의 위치에 대한 정보를 추출하고, 상기 주사용자의 왼쪽 눈의 위치에 대응하여 상기 왼쪽 뷰포인트의 위치를 조정하며, 상기 주사용자의 오른쪽 눈의 위치에 대응하여 상기 오른쪽 뷰포인트의 위치를 조정하는 인터페이스 제어 장치. - 제19항에 있어서,
상기 뷰포인트 조정부는
상기 주사용자가 없는 경우, 상기 복수 명의 사용자 각각의 왼쪽 눈 및 오른쪽 눈의 평균 위치에 대한 정보를 추출하고, 상기 복수 명의 사용자 각각의 왼쪽 눈의 평균 위치에 대응하여 상기 왼쪽 뷰포인트의 위치를 조정하며, 상기 복수 명의 사용자 각각의 오른쪽 눈의 평균 위치에 대응하여 상기 오른쪽 뷰포인트의 위치를 조정하는 인터페이스 제어 장치. - 제1항에 있어서,
상기 인터페이스는
적어도 하나의 UI 객체를 큐브 형식으로 표시하는 3차원 큐브 뷰, 상기 적어도 하나의 UI 객체를 썸네일 이미지 형식으로 표시하는 3차원 썸네일 뷰 및 상기 적어도 하나의 UI 객체를 슬라이드 형식으로 표시하는 3차원 슬라이드 뷰 중 적어도 하나를 이용하여 상기 적어도 하나의 UI 객체를 표시하는 인터페이스 제어 장치. - 센서로부터 사용자와 연관된 영상(Image)을 획득하는 단계;
상기 사용자와 상기 센서 간의 거리, 상기 영상의 크기 및 공기 중의 관심 영역 창(window)의 크기에 기반하여 관심 영역(Region of Interest)의 크기를 결정하는 단계;
상기 관심 영역의 크기에 기반한 사용자 입력(user input)과 연관된 정보를 생성하는 단계; 및
상기 정보에 기반하여 인터페이스를 제어하는 단계
를 포함하는 인터페이스 제어 방법. - 제22항에 있어서,
상기 제어하는 단계는,
상기 정보가 제어 시작 인터액션에 대응하는 경우, 2차원 또는 3차원 그래픽 사용자 인터페이스의 제어를 시작하고,
상기 정보가 제어 종료 인터액션에 대응하는 경우, 상기 2차원 또는 3차원 그래픽 사용자 인터페이스의 제어를 종료하는 인터페이스 제어 방법. - 제22항에 있어서,
상기 제어하는 단계는,
2차원 또는 3차원 그래픽 사용자 인터페이스를 제어하는 복수 개의 인터액션 중 상기 정보에 대응하는 인터액션이 있는 경우, 상기 정보에 대응하는 인터액션에 기반하여 상기 2차원 또는 3차원 그래픽 사용자 인터페이스를 제어하고,
상기 복수 개의 인터액션 중 상기 정보에 대응하는 인터액션이 없는 경우, 상기 정보에 기반하여 상기 2차원 또는 3차원 그래픽 사용자 인터페이스의 컨트롤 포인트의 이동을 제어하는 인터페이스 제어 방법. - 제22항에 있어서,
상기 영상에 기반하여, 2차원 또는 3차원 그래픽 사용자 인터페이스를 생성하는 단계; 및
상기 2차원 또는 3차원 그래픽 사용자 인터페이스를 디스플레이 장치로 출력하는 단계
를 더 포함하는 인터페이스 제어 방법. - 제22항 내지 제25항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/212,838 US9141189B2 (en) | 2010-08-26 | 2011-08-18 | Apparatus and method for controlling interface |
| US14/842,448 US9710068B2 (en) | 2010-08-26 | 2015-09-01 | Apparatus and method for controlling interface |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20100082848 | 2010-08-26 | ||
| KR1020100082848 | 2010-08-26 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20120020045A KR20120020045A (ko) | 2012-03-07 |
| KR101815020B1 true KR101815020B1 (ko) | 2018-01-31 |
Family
ID=46128814
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020110046174A Active KR101815020B1 (ko) | 2010-08-26 | 2011-05-17 | 인터페이스 제어 장치 및 방법 |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101815020B1 (ko) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12449908B2 (en) | 2020-12-31 | 2025-10-21 | Samsung Electronics Co., Ltd. | Augmented reality device, and method for controlling augmented reality device |
Families Citing this family (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
| US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
| JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
| EP2626771B1 (en) * | 2012-02-09 | 2018-01-10 | Samsung Electronics Co., Ltd | Display apparatus and method for controlling a camera mounted on a display apparatus |
| US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
| KR101394604B1 (ko) * | 2012-05-21 | 2014-05-13 | 주식회사 에스원 | 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치 |
| KR102051418B1 (ko) | 2012-09-28 | 2019-12-03 | 삼성전자주식회사 | 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치 |
| KR102095765B1 (ko) * | 2012-10-19 | 2020-04-01 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
| KR102117261B1 (ko) * | 2013-03-05 | 2020-06-01 | 삼성전자주식회사 | 거리 검출 및 생체 인증 방법, 저장 매체 및 단말 |
| US20140258942A1 (en) * | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
| US9449392B2 (en) | 2013-06-05 | 2016-09-20 | Samsung Electronics Co., Ltd. | Estimator training method and pose estimating method using depth image |
| KR102294193B1 (ko) | 2014-07-16 | 2021-08-26 | 삼성전자주식회사 | 프로브 속도에 기초한 컴퓨터 보조 진단 지원 장치 및 방법 |
| KR101647969B1 (ko) * | 2014-09-12 | 2016-08-12 | 재단법인대구디지털산업진흥원 | 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램 |
| KR102354458B1 (ko) * | 2015-08-19 | 2022-01-21 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어방법 |
| KR101914194B1 (ko) * | 2016-11-30 | 2018-11-01 | 조선대학교산학협력단 | 관성센서 및 뎁스 카메라를 이용한 모션 취득 시스템 및 이를 이용한 모션 취득 방법 |
| KR101883866B1 (ko) | 2016-12-23 | 2018-08-01 | 단국대학교 산학협력단 | 지면 접촉식 손가락 입력 장치 및 방법 |
| KR101998786B1 (ko) | 2017-08-31 | 2019-07-10 | 단국대학교 산학협력단 | 가상공간을 위한 비접촉식 손가락 입력 장치 및 방법 |
| KR102808499B1 (ko) * | 2019-11-11 | 2025-05-16 | 엘지전자 주식회사 | Xr 디바이스 및 그 제어 방법 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040135744A1 (en) * | 2001-08-10 | 2004-07-15 | Oliver Bimber | Virtual showcases |
| US20040242988A1 (en) * | 2003-02-24 | 2004-12-02 | Kabushiki Kaisha Toshiba | Operation recognition system enabling operator to give instruction without device operation |
| US20050059488A1 (en) * | 2003-09-15 | 2005-03-17 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
| US20060038881A1 (en) * | 2004-08-19 | 2006-02-23 | Microsoft Corporation | Stereoscopic image display |
| US20080030460A1 (en) * | 2000-07-24 | 2008-02-07 | Gesturetek, Inc. | Video-based image control system |
-
2011
- 2011-05-17 KR KR1020110046174A patent/KR101815020B1/ko active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080030460A1 (en) * | 2000-07-24 | 2008-02-07 | Gesturetek, Inc. | Video-based image control system |
| US20040135744A1 (en) * | 2001-08-10 | 2004-07-15 | Oliver Bimber | Virtual showcases |
| US20040242988A1 (en) * | 2003-02-24 | 2004-12-02 | Kabushiki Kaisha Toshiba | Operation recognition system enabling operator to give instruction without device operation |
| US20050059488A1 (en) * | 2003-09-15 | 2005-03-17 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
| US20060038881A1 (en) * | 2004-08-19 | 2006-02-23 | Microsoft Corporation | Stereoscopic image display |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12449908B2 (en) | 2020-12-31 | 2025-10-21 | Samsung Electronics Co., Ltd. | Augmented reality device, and method for controlling augmented reality device |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20120020045A (ko) | 2012-03-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101815020B1 (ko) | 인터페이스 제어 장치 및 방법 | |
| US9141189B2 (en) | Apparatus and method for controlling interface | |
| US9939914B2 (en) | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface | |
| US8890812B2 (en) | Graphical user interface adjusting to a change of user's disposition | |
| US9619105B1 (en) | Systems and methods for gesture based interaction with viewpoint dependent user interfaces | |
| TWI516093B (zh) | 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法 | |
| US9456203B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
| US20110107216A1 (en) | Gesture-based user interface | |
| JP2025505466A (ja) | ユーザー制御3次元シーン | |
| US20120056989A1 (en) | Image recognition apparatus, operation determining method and program | |
| US20150002419A1 (en) | Recognizing interactions with hot zones | |
| GB2524473A (en) | Controlling a computing-based device using gestures | |
| US9432652B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
| KR20120105864A (ko) | 가상 객체 제어 장치 및 방법 | |
| US8988500B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
| US20150033157A1 (en) | 3d displaying apparatus and the method thereof | |
| JP5341126B2 (ja) | 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 | |
| KR101288590B1 (ko) | 적외선 카메라를 이용한 모션제어 장치 및 방법 | |
| WO2016102948A1 (en) | Coherent touchless interaction with stereoscopic 3d images | |
| Zhang et al. | Free-hand gesture control with" touchable" virtual interface for human-3DTV interaction | |
| GB2547701A (en) | Method and apparatus for autostereoscopic display platform |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 9 |