KR102452881B1 - Apparatus of processing image and method thereof - Google Patents
Apparatus of processing image and method thereof Download PDFInfo
- Publication number
- KR102452881B1 KR102452881B1 KR1020210162082A KR20210162082A KR102452881B1 KR 102452881 B1 KR102452881 B1 KR 102452881B1 KR 1020210162082 A KR1020210162082 A KR 1020210162082A KR 20210162082 A KR20210162082 A KR 20210162082A KR 102452881 B1 KR102452881 B1 KR 102452881B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- frame
- pixel
- noise
- still image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
Description
영상 처리 장치 및 방법에 관한 것이다.It relates to an image processing apparatus and method.
과거의 만화(comic, cartoon)은, 종이 등의 물리적 매체에 인쇄된 후 배포되는 출판 과정을 통해 독자들에게 전달되는 것이 일반적이었다. 최근에는 정보 통신 기술의 발달에 따라서, 웹사이트나 전자 북을 기반으로 만화가 배포되고 있으며, 독자는 단말기를 이용해 웹 사이트에 접속하거나 전자 북을 다운로드 하여 배포된 만화를 보고 읽는 것이 일상화되어 가고 있다. 최근에는 동영상처럼 만화 내의 캐릭터나 주요 사물 등이 움직이는 무빙툰(Moving Toon)의 제작도 활발하다. 무빙툰은 보통 다수의 정적 이미지로 구성된 만화, 일례로 웹툰(webtoon) 등에 부가 삽입되어, 만화를 열람하는 독자에게 추가적으로 동적 이미지 및 이에 부가된 음향 효과를 제공함으로써, 독자들이 만화를 더욱 생동감 있게 즐길 수 있도록 한다. 그러나, 이러한 무빙툰은 그 제작에 있어서 다수의 인력 및 비용을 요구할 뿐만 아니라, 상대적으로 만화의 각각의 컷보다 사이즈가 크기 때문에, 원래의 만화보다 영상 품질이 상대적으로 저하되기 쉬웠다. 이렇게 저품질의 무빙툰은 독자들에게 흥미를 유발하기 보다는 반대로 독자들의 만화에 대한 집중도를 떨어뜨리는 역효과를 야기하기도 하였다.In the past, it was common for comics (comics) to be delivered to readers through a publishing process that was printed on a physical medium such as paper and then distributed. Recently, according to the development of information and communication technology, cartoons are distributed based on websites or e-books, and it is becoming common for readers to access the website using a terminal or download an e-book to view and read the distributed cartoons. Recently, the production of Moving Toons, in which characters or main objects in cartoons move like a video, is also active. Moving toons are usually inserted into cartoons consisting of a large number of static images, for example, webtoons, and provide additional dynamic images and sound effects to the readers who read the cartoons, so that readers can enjoy cartoons more vividly. make it possible However, the moving toon not only requires a large number of manpower and cost in its production, but also has a relatively larger size than each cut of the cartoon, so that the image quality is relatively easy to deteriorate compared to the original cartoon. Such low-quality moving toon did not arouse interest in readers, but on the contrary, it also caused the adverse effect of lowering the concentration of the readers on the cartoon.
적어도 하나의 정지영상에 대해 조합 및 초해상화(super-resolution)를 수행하여 높은 품질의 동영상을 생성할 수 있는 영상 처리 장치 및 방법을 제공하는 것을 해결하고자 하는 과제로 한다.An object of the present invention is to provide an image processing apparatus and method capable of generating a high-quality moving image by performing combination and super-resolution on at least one still image.
상술한 과제를 해결하기 위하여 영상 처리 장치 및 방법이 제공된다.In order to solve the above problems, an image processing apparatus and method are provided.
영상 처리 장치는, 적어도 하나의 원영상을 획득하는 입력부, 상기 적어도 하나의 원영상에 대응하는 적어도 하나의 정지영상에 노이즈를 부가하고, 상기 적어도 하나의 정지 영상을 조합하여 동영상을 생성하고, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하고, 적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 프로세서를 포함할 수 있다.The image processing apparatus includes an input unit for acquiring at least one original image, adding noise to at least one still image corresponding to the at least one original image, combining the at least one still image to generate a moving picture, and and a processor configured to perform denoising processing on at least one frame of a moving image, and obtaining a moving image corresponding to the at least one still image based on a denoising processing result for the at least one frame.
상기 적어도 하나의 정지 영상은, 상기 적어도 하나의 원 영상의 일부를 크롭하여 획득된 크롭된 정지 영상을 포함할 수 있다.The at least one still image may include a cropped still image obtained by cropping a portion of the at least one original image.
상기 적어도 하나의 정지 영상은, 상기 크롭된 정지 영상의 크기를 확장한 확장된 정지영상을 포함할 수 있다.The at least one still image may include an extended still image in which a size of the cropped still image is expanded.
상기 프로세서는, 상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하고, 상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀을 상기 제1 프레임의 대응하는 픽셀의 픽셀 값으로 대체하여 상기 디노이징 처리를 수행하여 제1 디노이징 영상을 획득할 수도 있다.The processor is configured to detect a difference between a pixel of a first frame and a pixel of a second frame of the moving picture, wherein a difference exists between a pixel of the first frame and a pixel of the second frame, and the pixel of the second frame If the pixel value of has a value corresponding to black or white, the denoising process is performed by replacing the pixel of the second frame with the pixel value of the corresponding pixel of the first frame to obtain a first denoising image You may.
상기 프로세서는, 상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득할 수도 있다.The processor may obtain a second denoising image by applying at least one filter to the first denoising image.
상기 프로세서는, 상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해, 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하거나, 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하거나, 블록 값을 영상 내의 각 프레임마다 설정하거나 또는 영상 내에서 부분적으로 변화된 색 영역 값을 보정하여 상기 제2 디노이징 영상을 획득하는 것도 가능하다.The processor removes chroma-based grain noise of a very small pixel size from at least one frame among all frames of the first denoised video, or a pixel value in which noise is uniformly present every predetermined number of frames It is also possible to obtain the second denoising image by substituting a pixel value or similar value around the pixel, setting a block value for each frame in the image, or correcting a partially changed color gamut value in the image.
상기 프로세서는, 학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득할 수도 있다.The processor may obtain a final denoising image corresponding to the second denoising image by using a learning algorithm.
상기 적어도 하나의 정지영상에 부가되는 노이즈는 그레인 노이즈를 포함할 수 있다.The noise added to the at least one still image may include grain noise.
영상 처리 방법은, 적어도 하나의 원영상을 획득하는 단계, 상기 적어도 하나의 원영상에 대응하는 적어도 하나의 정지영상에 노이즈를 부가하는 단계, 상기 적어도 하나의 정지 영상을 조합하여 동영상을 생성하는 단계, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계 및 적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 단계를 포함할 수 있다.The image processing method includes: obtaining at least one original image; adding noise to at least one still image corresponding to the at least one original image; and generating a moving image by combining the at least one still image. , performing denoising processing on at least one frame of the moving image, and obtaining a moving image corresponding to the at least one still image based on a result of denoising processing for at least one frame. .
상기 적어도 하나의 정지 영상은, 상기 적어도 하나의 원 영상의 일부를 크롭하여 획득된 크롭된 정지 영상을 포함할 수 있다.The at least one still image may include a cropped still image obtained by cropping a portion of the at least one original image.
상기 적어도 하나의 정지 영상은, 상기 크롭된 정지 영상의 크기를 확장한 확장된 정지영상을 포함할 수 있다.The at least one still image may include an extended still image in which a size of the cropped still image is expanded.
영상 처리 방법은, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는, 상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하는 단계, 상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀을 상기 제1 프레임의 대응하는 픽셀의 픽셀 값으로 대체하여 제1 디노이징 영상을 획득하는 단계를 포함할 수 있다.In the image processing method, the performing the denoising process on at least one frame of the moving picture includes: detecting a difference between a pixel of a first frame and a pixel of a second frame of the moving picture; and a pixel of the first frame and if there is a difference between the pixels of the second frame and the pixel value of the pixel of the second frame has a value corresponding to black or white, the pixel of the second frame is set to the corresponding pixel of the first frame. The method may include obtaining a first denoising image by substituting a pixel value of .
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는, 상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계를 더 포함하는 것도 가능하다.The denoising may further include obtaining a second denoising image by applying at least one filter to the first denoising image.
상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계는, 상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하는 단계, 상기 제1 디노이징된 동영상의 모든 프레임 중 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하는 단계, 블록 값을 영상 내의 각 프레임마다 설정하는 단계 및 영상 내에서 부분적으로 변화된 색 영역 값을 보정하는 단계 중 적어도 하나를 포함할 수도 있다.The step of obtaining a second denoised image by applying at least one filter to the first denoised image may include: a chroma series having a very small pixel size for at least one frame among all frames of the first denoised moving image. removing grain noise, replacing the value of a pixel in which noise is uniformly in every predetermined number of frames among all frames of the first denoised video with a pixel value or similar value around the pixel, and a block value The method may include at least one of setting for each frame in the image and correcting a partially changed color gamut value in the image.
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는, 학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득하는 단계를 더 포함하는 것도 가능하다.The denoising may further include obtaining a final denoising image corresponding to the second denoising image using a learning algorithm.
상기 적어도 하나의 정지영상에 부가되는 노이즈는, 그레인 노이즈를 포함할 수도 있다.The noise added to the at least one still image may include grain noise.
상술한 영상 처리 장치 및 방법에 의하면, 적어도 하나의 정지영상에 대해 조합 및 초해상화를 수행하여 정지 영상에 대응하는 높은 품질의 동영상을 생성할 수 있게 된다.According to the above-described image processing apparatus and method, it is possible to generate a high-quality moving image corresponding to the still image by performing combination and super-resolution on at least one still image.
상술한 영상 처리 장치 및 방법에 의하면, 저해상도, 일례로 SD(Standard Definition) 수준의 정지영상을 이용하여, 이에 대응하는 고해상도, 일례로 UHD(Ultra High Definition) 수준의 정지영상 또는 동영상을 획득할 수 있게 되는 효과도 얻을 수 있다.According to the image processing apparatus and method described above, by using a still image of a low resolution, for example, SD (Standard Definition) level, a corresponding high resolution, for example, UHD (Ultra High Definition) level still image or video can be obtained. effect can be obtained.
상술한 영상 처리 장치 및 방법에 의하면, 원 영상을 단순히 스케일 업(Scale-up)을 하여 획득한 경우보다 잡음이 상대적으로 적으면서도 원 영상과 더욱 유사한 고품질의 영상을 생성할 수 있게 되는 장점도 얻을 수 있다.According to the above-described image processing apparatus and method, it is possible to generate a high-quality image more similar to the original image while having relatively less noise than when the original image is simply scaled-up. can
상술한 영상 처리 장치 및 방법에 의하면, 일련의 정지영상을 포함하는 카툰(Cartoon) 또는 코믹(comic)을 이용한 고품질 동영상 생성의 편의성을 개선할 수 있게 되는 장점도 존재한다.According to the above-described image processing apparatus and method, there is also an advantage in that it is possible to improve the convenience of generating a high-quality video using a cartoon or a comic including a series of still images.
도 1은 영상 처리 장치의 일 실시예에 대한 블록도이다.
도 2는 크롭부의 동작의 일례를 설명하기 위한 도면이다.
도 3은 크기조절부의 동작의 일례를 설명하기 위한 도면이다.
도 4는 디노이징부의 일 실시예에 대한 블록도이다.
도 5는 노이즈 추가 전후의 영상의 일례를 설명하기 위한 도면이다.
도 6은 영상조합부의 동작의 일례를 설명하기 위한 도면이다.
도 7은 제1 노이즈 처리부의 동작의 일례를 설명하기 위한 도면이다.
도 8은 학습 처리 결과에 따른 영상의 일례를 설명하기 위한 도면이다.
도 9는 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 최대 신호 대 잡음비(PSNR: Peak Signal-to-noise ratio)를 도시한 도면이다.
도 10은 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 구조적 유사도 인덱스 맵(SSIM: Structural Similarity Index Map)을 도시한 도면이다.
도 11은 영상 처리 방법의 일 실시예에 대한 흐름도이다.1 is a block diagram of an embodiment of an image processing apparatus.
2 is a view for explaining an example of the operation of the crop unit.
3 is a view for explaining an example of the operation of the size adjustment unit.
4 is a block diagram of an embodiment of a denoising unit.
5 is a diagram for explaining an example of an image before and after adding noise.
6 is a view for explaining an example of the operation of the image combining unit.
7 is a diagram for explaining an example of the operation of the first noise processing unit.
8 is a diagram for explaining an example of an image according to a learning processing result.
9 is a diagram illustrating a peak signal-to-noise ratio (PSNR) between an output result of an image processing apparatus and a simple scale-up result.
10 is a diagram illustrating a Structural Similarity Index Map (SSIM) between an output result of an image processing apparatus and a simple scale-up result.
11 is a flowchart of an image processing method according to an embodiment.
이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 및/또는 하드웨어로 구현될 수 있으며, 실시예에 따라 하나의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 복수의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 하나의 '부'가 복수의 물리적 또는 논리적 부품들로 구현되는 것도 가능하다. 명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분이 상호 간에 물리적으로 연결되었음을 의미할 수도 있고, 및/또는 전기적으로 연결되었음을 의미할 수도 있다. 또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다. 제1 내지 제N(N은 1 이상의 자연수) 등의 표현은, 적어도 하나의 부분(들)을 다른 부분(들)으로부터 구분하기 위한 것으로, 특별한 기재가 없는 이상 이들이 순차적임을 반드시 의미하지는 않는다. 또한 단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.In the following specification, the same reference numerals refer to the same components unless otherwise specified. The term added with 'unit' used below may be implemented in software and/or hardware, and according to an embodiment, one 'unit' may be implemented as one physical or logical part, or a plurality of 'units' may be implemented as one physical or logical part. It may be implemented as one physical or logical part, or one 'unit' may be implemented with a plurality of physical or logical parts. Throughout the specification, when a certain part is connected to another part, it may mean that a certain part and another part are physically connected to each other and/or electrically connected to each other. In addition, when it is said that a part includes another part, it does not exclude another part other than the other part unless otherwise stated, and it means that another part may be further included according to the designer's choice. do. Expressions such as first to Nth (N is a natural number equal to or greater than 1) are for distinguishing at least one part(s) from other part(s), and unless otherwise specified, it does not necessarily mean that they are sequential. Also, the singular expression may include the plural expression unless the context clearly dictates otherwise.
이하 도 1 내지 도 10을 참조하여 영상 처리 장치의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an image processing apparatus will be described with reference to FIGS. 1 to 10 .
도 1은 영상 처리 장치의 일 실시예에 대한 블록도이다.1 is a block diagram of an embodiment of an image processing apparatus.
도 1에 도시된 바를 참조하면, 영상 처리 장치(10)는 일 실시예에 있어서 영상 처리를 수행할 수 있도록 마련된 프로세서(100)를 포함할 수 있으며, 입력부(11), 저장부(15) 및 출력부(19) 중 적어도 하나를 더 포함할 수 있다.Referring to FIG. 1 , the image processing apparatus 10 may include a
입력부(11)는 하나 또는 둘 이상의 영상(90, 이하 원 영상)을 수신 및 획득하고, 획득한 하나 또는 둘 이상의 원 영상(90)을 저장부(15) 및 프로세서(100) 중 적어도 하나로 전달할 수 있다. 실시예에 따라서, 하나 또는 둘 이상의 원 영상(90)은 정지영상을 포함할 수 있으며, 보다 구체적으로 예를 들어, 실사 사진, 도안 또는 만화(코믹, 카툰 또는 웹툰(webtoon) 등을 포함 가능함) 등을 포함할 수 있다. 여기서, 만화는, 코믹, 카툰 또는 웹툰 등에 포함된 적어도 하나의 컷(장면)을 포함할 수도 있다. 또한, 둘 이상의 원 영상(90)은 시간적으로 또는 스토리적으로 상호 연관된 것일 수도 있다. 예를 들어, 둘 이상의 원 영상(90)은, 하나의 만화 내에 연속적이거나 또는 불연속적으로 배치된 둘 이상의 컷을 포함할 수도 있다. 입력부(11)는 사용자나 설계자(이하 사용자 등)가 직접 입력부(11)를 조작하여 그림으로써 원 영상(90)을 획득할 수도 있고, 외부의 다른 저장 매체(일례로 외장 메모리 장치나 스마트폰 등)으로부터 전달 받아 원 영상(90)을 획득할 수도 있으며, 크롤링 등을 통해 획득된 웹 상의 그림(만화의 적어도 한 컷 등)을 수신함으로써 원 영상(90)을 획득할 수도 있다. 입력부(90)는, 영상 처리 장치(10)와 일체형으로 마련된 것일 수도 있고, 또는 물리적으로 분리 가능하게 마련된 것일 수도 있다. 또한, 입력부(90)는 프로세서(100)의 동작을 위해 필요한 각종 설정 값 등을 사용자로부터 입력 받을 수도 있다. 입력부(90)는, 예를 들어, 키보드, 마우스, 태블릿 입력 장치, 터치 스크린, 터치 패드, 트랙 볼, 트랙패드, 스캐너 장치, 영상 촬영 모듈 및/또는 마이크로 폰 등을 포함할 수 있다. 또한 실시예에 따라, 입력부(90)는, 외부의 다른 장치(일례로 휴대용 메모리 장치 등)로부터 데이터 등의 수신이 가능한 데이터 입출력 단자나, 외부의 다른 장치와 유무선 통신 네트워크를 통해 연결되는 통신 모듈(일례로 랜 카드, 근거리 통신 모듈 또는 이동통신 모듈 등) 등을 포함할 수도 있다. 여기서, 근거리 통신 모듈은, 근거리 통신 네트워크에 접속하기 위해 이용되는 통신 모듈을 포함할 수 있으며, 근거리 통신 네트워크는, 예를 들어, 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신, 초광대역(UWB: Ultra-WideBand) 통신, 엔에프씨(NFC: Near Field Communication), 알에프아이디(RFID: Radio-Frequency IDentification) 및/또는 지그비(zigbee) 통신 등을 기반으로 구현된 네트워크를 포함할 수 있다.The
저장부(15)는, 프로세서(100)의 동작에 필요하거나, 프로세서(100)의 동작 과정에서 생성되거나 또는 프로세서(100)에 의해 최종적으로 획득된 결과(일례로 최종 영상(98))를 일시적 또는 비일시적으로 저장할 수 있다. 또한, 저장부(15)는 적어도 하나의 프로그램(앱, 애플리케이션 또는 소프트웨어 등으로 지칭 가능함)이나 적어도 하나의 프로그램을 위한 필요한 각종 설정 값 등을 저장할 수도 있다. 여기서, 저장부(15)에 저장된 프로그램은, 프로그래머 등의 설계자에 의해 직접 작성 또는 수정된 후 저장부(15)에 저장된 것일 수도 있고, 다른 물리적 기록 매체(일례로 외장 메모리 장치나 콤팩트 디스크(CD) 등)으로부터 전달받아 저장된 것일 수도 있으며, 및/또는 유무선 통신 네트워크를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득 또는 갱신된 것일 수도 있다. 저장부(15)는, 실시예에 따라서 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 보조기억장치는, 플래시 메모리 장치(솔리드 스테이트 드라이브(SSD, Solid State Drive) 등), SD(Secure Digital) 카드, 하드 디스크 드라이브(HDD, Hard Disc Drive), 콤팩트 디스크, 디브이디(DVD) 또는 레이저 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The
출력부(19)는, 프로세서(100)의 처리 여부에 대한 정보, 프로세서(100)의 처리 결과(일례로 최종 영상(98)), 프로세서(100)의 처리 과정에서 획득된 영상(들), 입력부(11)가 획득한 원 영상(90) 및/또는 기타 저장부(15) 등에 저장된 데이터나 설정 값 등을 외부로 출력하여 사용자 등에게 제공하거나 또는 다른 장치(미도시. 일례로 스마트폰이나 태블릿 피씨 등)로 전달할 수 있다. 실시예에 따라서, 출력부(19)는, 영상 처리 장치(10)와 일체형으로 마련된 것일 수도 있고, 또는 물리적으로 분리 가능하게 마련된 것일 수도 있다. 출력부(19)는, 예를 들어, 디스플레이, 프린터 장치, 스피커 장치, 영상 출력 단자, 데이터 입출력 단자 및/또는 통신 모듈 등을 포함할 수도 있다.The
프로세서(100)는 적어도 하나의 원 영상(90)을 이용하여 적어도 하나의 원 영상(90)에 대응하는 최종 영상(98)을 획득할 수 있다. 여기서, 적어도 하나의 원 영상(90)은 적어도 하나의 정지영상을 포함하고, 획득된 최종 영상(98)은 각각의 정지원 영상(90)에 대한 처리 결과에 따라 획득된 정지영상 각각을 프레임으로 하여 구축된 동영상을 포함할 수도 있다. 이 경우, 프로세서(100)는 사용자 등의 입력부(11)에 대한 조작이나 미리 정의된 설정에 따라 동작하여 적어도 하나의 원 영상(90)을 기반으로 최종 영상(98)을 생성할 수도 있으며, 이를 위해 저장부(15)에 저장된 프로그램을 실행시킬 수도 있다. 프로세서(100)는, 예를 들어, 중앙 처리 장치(CPU: Central Processing Unit), 그래픽 처리 장치(GPU: Graphic Processing Unit), 마이크로 컨트롤러 유닛(MCU: Micro Controller Unit), 애플리케이션 프로세서(AP: Application Processor), 전자 제어 유닛(ECU: Electronic Controlling Unit), 기본보드 관리 컨트롤러(BMC: Baseboard Management Controller), 마이컴(Micom: Micro Processor) 및/또는 이외 각종 연산 및 제어 처리를 수행할 수 있는 적어도 하나의 전자 장치 등을 포함할 수 있다. 이들 처리 또는 제어 장치는, 예를 들어, 하나 또는 둘 이상의 반도체 칩, 회로 또는 관련 부품 등을 단독으로 이용하거나 조합하여 구현된 것일 수도 있다.The
프로세서(100)는, 일 실시예에 의하면, 도 1에 도시된 바와 같이, 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140)를 포함할 수 있다. 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 둘은 논리적으로 구분되는 것일 수도 있고 또는 물리적으로 구분되는 것일 수도 있다. 논리적으로 구분되는 경우, 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 둘은 하나의 프로세싱 유닛(일례로 중앙처리장치)을 이용하여 구현될 수 있고, 물리적으로 구분되는 경우, 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 둘은 서로 상이한 프로세싱 유닛(일례로 중앙 처리 장치 및 그래픽 처리 장치 등)을 이용하여 구현될 수 있다. 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 하나는, 필요에 따라 생략될 수도 있다. 예를 들어, 크롭부(110) 또는 크기 조절부(120)는 생략될 수도 있으며, 이에 따라 크롭(crop) 또는 크기 확대도 생략될 수도 있다.The
도 2는 크롭부의 동작의 일례를 설명하기 위한 도면이다.2 is a view for explaining an example of the operation of the crop unit.
크롭부(110)는, 도 2에 도시된 바와 같이, 적어도 하나의 원영상(90)의 일부를 크롭하여, 적어도 하나의 원영상(90)에 대응하여 소정 비율의 정지영상(91, 이하 크롭된 정지영상)을 획득할 수 있다. 여기서, 소정의 비율은, 사용자 등에 의해 미리 설정된 것일 수 있으며, 일례로 4:3, 16:9 또는 21:9 등을 포함할 수 있다. 실시예에 따라서, 크롭부(110)는 입력된 모든 원 영상(90), 즉 모든 정지영상(90)에 대해서 크롭을 수행할 수도 있고, 또는 입력된 모든 원 영상(90) 중 일부의 정지영상(90)에 대해서 크롭을 수행할 수도 있다. 후자의 경우, 크롭이 수행되는 정지영상(90)은 사용자 등에 의해 선택된 것일 수도 있고, 미리 정의된 설정에 따라서 프로세서(100)에 의해 선택된 것일 수도 있다.As shown in FIG. 2 , the
일 실시예에 의하면, 크롭부(110)는 크롭의 대상이 되는 정지영상(90)의 가로 길이, 세로 길이 또는 이들 간의 비율에 따라서 크롭을 수행할 수도 있다. 구체적으로 예를 들어, 크롭부(110)는, 정지영상(90)의 가로 길이가 세로 길이에 대해서 기설정된 비율보다 작다면 정지영상(90)의 상측 일부분 및 하측 일부분 중 적어도 하나를 제거하고, 정지영상(90)의 세로 길이가 가로 길이에 대해서 기설정된 비율보다 작다면 정지영상(90)의 좌측 일부분 및 우측 일부분 중 적어도 하나를 제거함으로써, 정지영상(90)의 일부를 제거할 수도 있다. 이 경우, 크롭부(110)는, 정지영상(90)의 두 개의 중심선(A1, A2)을 결정하고, 결정된 두 개의 중심선(A1, A2) 중 적어도 하나를 기준으로 하여, 두 개의 중심선(A1, A2) 중 적어도 하나로부터 소정 거리 이상 떨어진 상측 일부분, 하측 일부분, 좌측 일부분 및 하측 일부분 중 적어도 하나를 절개함으로써 크롭을 수행할 수도 있다. 다른 실시예에 의하면, 크롭부(110)는 정지영상(90) 내에 주요 피사체(B, 예를 들어, 인물(인물의 얼굴 등)이나 동물 등)를 검출하고, 만약 주요 피사체(B)가 정지영상(90) 내에 존재한다면, 주요 피사체(B)가 크롭된 정지영상(91) 내에 존재하도록 상측 일부분, 하측 일부분, 좌측 일부분 및 하측 일부분 중 적어도 일부분을 제거하여 정지영상(90)에 대한 크롭을 수행할 수도 있다. 이 경우, 크롭부(110)는, 검출된 주요 피사체(B)가 크롭된 정지영상(91)의 적절한 위치(예를 들어, 중심이나 상단으로부터 3분의 1 지점 등)에 배치되도록 크롭을 수행할 수도 있다. 주요 피사체(B)의 검출 등은, 영상(90) 내에서 특정한 피사체를 검출하기 위해 기 마련된 소정의 알고리즘(일례로 학습 알고리즘)을 이용하여 수행될 수 있으며, 예를 들어, 소정의 알고리즘은 특징점이나 엣지 등을 먼저 검출한 후, 검출된 특징점이나 엣지 등을 이용하여 주요 피사체(B)를 인식하도록 마련된 것일 수도 있다. 주요 피사체(B)를 검출하여 크롭하는 경우에도, 크롭부(110)는 정지영상(90)의 가로 길이, 세로 길이 또는 이들 간의 비율을 더 반영하여 크롭을 수행하는 것도 가능하다.According to an embodiment, the
크롭된 정지영상(91)은 크기조절부(120)로 전달될 수 있다.The cropped still
도 3은 크기조절부의 동작의 일례를 설명하기 위한 도면이다.3 is a view for explaining an example of the operation of the size adjustment unit.
크기조절부(120)는, 도 3에 도시된 바와 같이, 크롭된 정지영상(91)의 크기를 확장하여 보다 큰 크기의 정지영상(92, 이하 확장된 정지영상)을 획득할 수 있다. 예를 들어, 크기조절부(120)는, 크롭부(110)로부터 1920*1080(FHD) 크기의 크롭된 정지영상(91)이 전달되면, 이에 응하여 크롭된 정지영상(91)으로부터 3840*2160(UHD) 크기의 확장된 정지영상(92)을 획득할 수도 있다. 일 실시예에 의하면, 크롭된 정지영상(91)의 확장은, 정지영상(91)의 각각의 픽셀(화소)에 대응하는 하나 이상의 픽셀을 추가적으로 생성하고, 추가적으로 생성된 픽셀에 대응하는 픽셀의 픽셀 값(일례로 RGB나 CMYK 값 등)을 복제하여 기록함으로써 수행될 수도 있다. 예를 들어, 크기조절부(120)는 크롭된 정지영상(91)의 각 픽셀에 대응하는 세 개의 픽셀을 추가하고, 추가된 세 개의 픽셀에 원래의 픽셀의 값을 입력하여 적절히 배치함으로써, 그 크기가 크롭된 정지영상(91)보다 4배인 확장된 정지영상(92)을 획득할 수 있다. 확장된 정지영상(92)은 디노이징부(130)로 전달될 수 있다. As shown in FIG. 3 , the
도 4는 디노이징부의 일 실시예에 대한 블록도이다.4 is a block diagram of an embodiment of a denoising unit.
디노이징부(130)는, 도 4에 도시된 바와 같이, 크기조절부(120)로부터 적어도 하나의 확장된 정지영상(92)을 수신하고, 적어도 하나의 확장된 정지영상(92)으로부터 디노이징(denoising)된 영상(도 8의 97)을 하나 이상 획득하고, 디노이징된 영상(97)을 최종 영상 생성부(140)로 전달할 수 있다. 일 실시예에 따르면, 디노이징부(130)는, 노이즈 부가부(131), 영상 조합부(132), 제1 노이즈 처리부(133), 제2 노이즈 처리부(134) 및 학습 처리부(135)를 포함할 수 있다. 실시예에 따라서, 노이즈 부가부(131), 영상 조합부(132), 제1 노이즈 처리부(133), 제2 노이즈 처리부(134) 및 학습 처리부(135) 중 적어도 하나는 생략될 수도 있다.As shown in FIG. 4 , the denoising unit 130 receives at least one extended still image 92 from the
도 5는 노이즈 추가 전후의 영상의 일례를 설명하기 위한 도면이다.5 is a diagram for explaining an example of an image before and after adding noise.
노이즈 부가부(131)는 도 5에 도시된 바와 같이 확장된 정지영상(92)에 노이즈를 부가하여 노이즈가 부가된 정지영상(93)을 획득할 수 있다. 상술한 크기조절부(120)의 동작과 같이 정지영상(91)을 과도하게 확장하게 되면, 확장된 정지영상(92)에는 불규칙적인 노이즈가 발생하게 된다. 노이즈 부가부(131)는, 이와 같이 불규칙적 노이즈를 갖는 확장된 정지영상(92)에 임의의 노이즈를 부가 및 추가함으로써, 영상(92) 내의 불규칙적인 노이즈를 대체적으로 규칙적으로 만들 수 있다. 다시 말해서, 노이즈가 부가된 정지영상(93)은 대략 규칙적인 노이즈를 가지게 된다. 실시예에 따라서, 노이즈 부가부(131)는, 영상(92, 93)이 지나치게 변형되지 않도록 하기 위해, 확장된 정지영상(92)의 총 픽셀수의 일정 비율(일례로 약 5%)만큼 노이즈를 확장된 정지영상(92)에 추가하여 노이즈가 부가된 정지영상(93)을 획득하는 것도 가능하다. 일 실시예에 의하면, 확장된 정지영상(92)에 부가되는 노이즈는 그레인(grain) 노이즈를 포함할 수 있다. 이 경우, 노이즈 부가부(131)는, 그레인 노이즈 추가를 위해 별도로 마련된 적어도 하나의 필터(92a)를 확장된 정지영상(93)에 적용함으로써, 노이즈가 부가된 정지영상(93)을 획득할 수도 있다. 노이즈의 부가에 따라서 노이즈가 부가된 정지영상(93)의 해상도는 확장된 정지영상(92)의 해상도보다 하락하게 된다. 노이즈가 부가된 정지영상(93)은 영상조합부(132)로 전달될 수 있다.As shown in FIG. 5 , the noise adding unit 131 may obtain a
도 6은 영상조합부의 동작의 일례를 설명하기 위한 도면이다.6 is a view for explaining an example of the operation of the image combining unit.
영상조합부(132)는 노이즈 부가부(131)로부터 적어도 하나의 노이즈가 부가된 정지영상(들)(93, 93-1, 93-2, 93-3)을 수신하고, 수신한 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)을 기반으로 적어도 하나의 동영상(94)을 획득할 수 있다. 이 경우, 영상조합부(132)는, 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)을, 순차적으로 또는 임의적으로, 연결 및 조합하여 동영상(94)을 생성할 수 있으며, 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3) 각각은 생성된 동영상(94)의 동영상 프레임으로 이용된다. 여기서, 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)은, 상술한 크롭부(110), 크기조절부(120) 및 디노이징부(130)에 의해, 각각 개별적으로 크롭 처리, 크기 조절 및 노이즈 부가가 수행된 것일 수 있다. 이 경우, 각각의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)은, 동일한 방식으로 크롭되고, 동일한 크기로 조절되며 및/또는 동종의 필터(92a)를 이용하여 노이즈가 부가된 것일 수도 있다. 또한, 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)의 순차적 연결 및 조합은, 기 정의된 스토리 라인 순서를 따르거나 또는 적어도 하나의 정지영상(93, 93-1, 93-2, 93-3)의 입력 순서에 따라 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)이 차례대로 배치되는 것을 포함할 수 있다. 영상조합부(132)는 소정의 동영상 압축 규격(코덱)을 기반으로 하여 상술한 동영상(94)을 생성할 수도 있으며, 예를 들어, MPEG-2, MPEG-4(일례로 H.264) 포맷 등을 이용하여 동영상(94)을 생성할 수도 있다. 생성된 동영상(94)은 제1 노이즈 처리부(133)으로 전달될 수 있다.The
도 7은 제1 노이즈 처리부의 동작의 일례를 설명하기 위한 도면이다.7 is a diagram for explaining an example of the operation of the first noise processing unit.
도 7에 도시된 바를 참조하면, 제1 노이즈 처리부(133)는 적어도 하나의 동영상(94)을 영상조합부(132)로부터 획득하고, 적어도 하나의 동영상(94)에 대해 디노이징을 수행하여 제1 디노이징된 프레임(95-1)을 획득하거나 또는 제1 디노이징된 프레임(95-1)을 포함하는 제1 디노이징된 동영상(95)을 획득할 수 있다. 일 실시예에 있어서, 제1 노이즈 처리부(133)의 디노이징은, 도 7에 도시된 바와 같이, 동영상(94) 내의 적어도 두 개의 프레임(94-1, 94-2)을 이용하여 수행될 수도 있다. 여기서, 적어도 두 개의 프레임(94-1, 94-2)은 상호 연속적인 프레임일 수도 있고, 및/또는 동영상(94) 내의 모든 프레임 중에서 특정한 패턴에 따라 또는 임의적으로 선택된 상호 불연속적인 프레임일 수도 있다. Referring to FIG. 7 , the first
실시예에 따라서, 제1 노이즈 처리부(133)는, 노이즈 처리를 위하여 먼저 적어도 하나의 프레임(일례로 제1 프레임(94-1))의 적어도 하나의 픽셀과, 적어도 하나의 다른 프레임(일례로 제2 프레임(94-2))의 적어도 하나의 픽셀 간의 차이를, 픽셀마다 검출할 수 있다. 여기서, 제1 프레임(94-1)의 적어도 하나의 픽셀과 제2 프레임(94-2)의 적어도 하나의 픽셀은 상호 대응하는 것일 수 있다. 또한, 제2 프레임(94-2)은, 제1 프레임(94-1)의 다음 순서의 프레임일 수도 있다. 이어서, 제1 노이즈 처리부(133)는, 적어도 양 프레임(94-1, 94-2)의 픽셀 간에 차이가 존재하거나 그 차이가 기준 값을 초과하는 경우, 제2 프레임(94-2)의 해당 픽셀이 흑색 내지 백색에 해당하는 값을 가지고 있는지 판단할 수 있다. 만약 제2 프레임(94-2)의 적어도 일 픽셀의 픽셀 값이 흑색 내지 백색에 해당한다고 판단되면, 제1 노이즈 처리부(133)는 해당 픽셀에 노이즈가 존재하는 것으로 판단하고, 노이즈가 존재하는 제2 프레임(94-2)의 해당 픽셀의 픽셀 값을 제1 프레임(94-1)의 대응하는 픽셀의 픽셀 값으로 대체하여 새로운 제2 프레임(95-2)를 획득할 수 있다. 이와 같이 동영상(94) 내의 모든 또는 일부의 프레임(94-1, 94-2)에 대해 노이즈 처리가 수행되면, 노이즈 처리가 수행된 프레임(95-2)을 포함하는 제1 디노이징된 동영상(95)이 획득된다. 일 실시예에 따르면, 제1 노이즈 처리부(133)는, 수신한 동영상(94)의 모든 또는 일부의 프레임(94-1, 94-2)을 추출한 후, 상술한 바와 같이 노이즈를 처리하고 노이즈가 처리된 프레임(95-2)(들)을 조합하거나 노이즈가 처리된 프레임(95-2)으로 기존의 프레임(94-2)을 대체하여 제1 디노이징된 동영상(95)을 획득하는 것도 가능하다.According to an exemplary embodiment, the first
실시예에 따라서, 제1 노이즈 처리부(133)는, 동영상 프로그램 등에 기 마련된 소정의 필터를 이용하여 노이즈 처리를 수행하여, 제1 디노이징된 동영상(95)을 획득할 수도 있다. 이 경우, 동영상 프로그램을 위한 노이즈 레벨의 설정 값은 -85% 내지 -80%로 설정될 수도 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the first
제1 노이즈 처리부(133)에 의해 디노이징된 각각의 프레임(95-2) 또는 이들을 포함하는 제1 디노이징된 동영상(95)은 제2 노이즈 처리부(134)로 전달될 수 있다.Each frame 95 - 2 denoised by the first
제2 노이즈 처리부(134)는 제1 디노이징된 각각의 프레임(95-2) 또는 제1 디노이징된 동영상(95)을 수신하고, 제1 디노이징된 각각의 프레임(95-2) 또는 제1 디노이징된 동영상(95)을 기반으로 재차 디노이징된 영상(도 8의 96, 이하 제2 디노이징된 영상, 정지영상 및/또는 동영상일 수 있음)을 획득할 수 있다. 이 경우, 제2 노이즈 처리부(134)는 수신한 모든 또는 일부의 프레임(95-2) 또는 제1 디노이징된 동영상(95)의 모든 또는 일부의 프레임에 대해서 부가적으로 노이즈 처리를 수행할 수 있으며, 보다 구체적으로 예를 들어, 적어도 하나의 프레임 내에 존재하는 매우 작은 픽셀(일례로 1픽셀) 크기의 흑백 점(크로마 계열의 그레인 노이즈)를 제거하여 영상을 이루지 않는 픽셀을 제거하도록 할 수도 있고, 소정 개수의 프레임(일례로 4프레임) 단위로 노이즈를 측정한 후, 이들 프레임 모두에 공통적으로 측정되는 균일한 노이즈를 제거하고 노이즈에 해당하는 부분을 인근 픽셀의 픽셀 값 또는 이의 유사 값으로 대체할 수도 있으며, 노이즈를 제거하는 과정에서 생성된 블록 값을 각각의 프레임마다 설정하도록 할 수도 있고(예를 들어, 영상(95) 내의 프레임 중 손상이 없는 프레임을 선택하고, 해당 프레임을 학습하고, 학습 결과를 기반으로 다른 손상된 프레임의 블러 처리된 부분의 픽셀 값을 수정하여 수행될 수도 있음), 및/또는 영상의 확장 과정에서 부분적으로 변화된 색 영역 값을 기존의 이미지와 동일하게 수정할 수도 있다(예를 들어, 영상의 확장 시 경계나 그 주변에서는 레인보우 효과가 발생하는데, 이를 확장 전의 대응하는 위치의 픽셀 값으로 대체함으로써 수행될 수도 있음). 예시된 바 외에도 제2 노이즈 처리부(134)는, 사용자나 설계자 등의 임의적 선택에 따라 영상(95)의 화질 개선을 위해 필요한 다양한 디노이징 처리를 상술한 처리에 추가하여 또는 상술한 처리를 대체하여 수행할 수도 있다.The second noise processing unit 134 receives each of the first denoised frames 95-2 or the first
제2 노이즈 처리부(134)는, 실시예에 따라, 제1 디노이징된 각각의 프레임(95-2), 즉, 제1 디노이징된 동영상(95)의 각각의 프레임에 대해 적어도 하나의 필터(함수 등으로 지칭 가능함)를 적용하여 두번째 디노이징을 수행할 수 있다. 여기서, 적어도 하나의 필터는, 예를 들어, 디노이즈(Denoising) 필터(이 경우, 설정 값은, 예를 들어, Despot count는 1로, 임계값(Threshold)은 4/5/5로, 검색 반경은 2, 유사도 반경(Similarity radius)는 4로, 강도는 1.2로 설정되고, 블록(Block)은 48/48/3으로 설정될 수도 있음), 디그레인(Degrain) 필터(디그레인 필터 적용 시, 예를 들어, 크로마(Chroma)가 선택되고, 소프트(soft)는 0/0/0으로 설정될 수도 있음), 디블록(DeBlock) 필터(설정 값은, 예를 들어, 퀀트(Quant)는 25로, 오프셋은 0/0으로, 시큐(CQ)는 2.0으로 설정될 수도 있음), 디할로(Dehalo) 필터(해당 필터의 적용 시, 예를 들어, 리페어(repair) 및 에스모드(SMode)가 선택되고, 리페어의 모드는 17로 설정될 수도 있음), 디링(Dering) 필터(임계값으로 2가 설정될 수도 있음), 디레인보우(Derainbow) 필터(일례로 강도는 200으로, 지름은 11로 설정될 수도 있음), 더스트 제거 필터(해당 필터 채용 시, 임계 값은 10/10으로, 장면 변화는 25로, 최대 차이 선택(Max diff Choose)은 50으로, dupthresh는 64로, TRatio는 3으로, 루마 공간/시간(Luma spatial/temporal)은 100/20으로, 크로마 공간/시간(Chroma spatial/temporal)은 15/5로 설정되고, 공간 모드(Spatial mode)가 선택되며, 반복 회수는 2로 설정될 수도 있음), 샤픈(Sharpen) 필터(이 경우, 강도는 100으로, 범위 샤프닝은 11로 설정되고, 영점은 16, 파워는 4, 댐프(damp)는 4/48, 언더슛(Undershoot)은 1/2로 설정될 수 있으며, 무제한 모드에서 오버슛은 1/2로, 매끄러움은 20으로 설정되고, 모든 경계에 대해서 샤프닝 모드와, HQ 모드가 선택될 수도 있음), 라인 필터(해당 필터 적용 시, 예를 들어, 디바이스는 -1로, 강도는 1.0으로, 라인 임계값은 2/12로, 블러는 2로, 깊이는 80으로 설정될 수도 있음) 및 스태빌라이저(Stabilizer) 필터 중 적어도 하나의 필터를 포함할 수도 있으나, 이에 한정되는 것은 아니다. 또한, 상술한 필터와 관련된 설정 값(들)은, 사용자나 설계자 등에 의해, 결정될 수 있으며, 사용자나 설계자 등이 정한 설정 값들은 상술한 예시(들) 중 적어도 하나와 동일할 수도 있고 또는 상이할 수도 있다.According to an embodiment, the second noise processing unit 134 may include at least one filter ( function, etc.) to perform the second denoising. Here, the at least one filter is, for example, a denoising filter (in this case, a set value, for example, Despot count is 1, Threshold is 4/5/5, search Radius is set to 2, Similarity radius is set to 4, Intensity is set to 1.2, Block can also be set to 48/48/3), Degrain filter (when the Degrain filter is applied) , e.g. Chroma is selected, soft may be set to 0/0/0), DeBlock filter (setting values are e.g. Quant is 25, the offset may be set to 0/0, and the CQ may be set to 2.0), a Dehalo filter (when applying that filter, for example, repair and SMode) is selected, the repair mode may be set to 17), a Dering filter (a threshold value of 2 may be set), and a Derainbow filter (eg intensity of 200 and diameter of 11) ), dust removal filter (when employing that filter, Threshold to 10/10, Scene Change to 25, Max diff Choose to 50, dupthresh to 64, TRatio to 3 , Luma spatial/temporal is set to 100/20, Chroma spatial/temporal is set to 15/5, Spatial mode is selected, and the number of iterations is 2 ), Sharpen filter (in this case, intensity is set to 100, range sharpening is set to 11, zero is 16, power is 4, damp is 4/48, undershoot ) can be set to 1/2, overshoot is set to 1/2 in unlimited mode, smoothness is set to 20, sharpening mode and HQ mode may be selected for all boundaries), line filters (correspondingWhen applying a filter, for example, Device may be set to -1, Intensity to 1.0, Line Threshold to 2/12, Blur to 2, Depth to 80) and at least of a Stabilizer filter. It may include one filter, but is not limited thereto. In addition, the setting value(s) related to the above-described filter may be determined by a user or a designer, and the setting values determined by the user or designer may be the same as or different from at least one of the above-described example(s). may be
도 8은 학습 처리 결과에 따른 영상의 일례를 설명하기 위한 도면이다.8 is a diagram for explaining an example of an image according to a learning processing result.
학습처리부(135)는, 도 8에 도시된 바와 같이, 제2 노이즈 처리부(134)에 의해 획득된 제2 디노이징된 영상(96, 정지영상 또는 동영상을 포함 가능함)을 수신하고, 획득한 제2 디노이징된 영상(96) 및 적어도 하나의 학습 알고리즘(135-1)을 이용하여 최종적인 디노이징된 영상(97, 정지영상 또는 동영상을 포함할 수 있음)을 획득할 수 있다. 이 경우, 실시예에 따라서 제2 디노이징된 영상(96)의 모든 프레임 또는 일부의 프레임 각각마다 적어도 하나의 학습 알고리즘(135-1)을 기반으로 대응하는 결과가 획득될 수 있다. 적어도 하나의 학습 알고리즘(135-1)은, 제2 디노이징된 영상(96)을 입력으로 하여 화질 등이 향상된 영상(97)을 출력할 수 있도록 사전에 훈련된 것일 수 있다. 예를 들어, 학습 알고리즘(135-1)은 엣지 주변에 발생된 픽셀 번짐을 제거하거나, 주요 피사체(B) 등과 같이 원하는 부분이 획득될 영상(97)의 중심에 배치되도록 중심점을 설정할 수 있도록 사전에 훈련된 것일 수 있다. 적어도 하나의 학습 알고리즘(135-1)은, 예를 들어, 심층 신경망(DNN: Deep Neural Network), 합성곱 신경망(CNN: Convolutional Neural Network), 다층 퍼셉트론(Multi-layer Perceptron), 순환 신경망(RNN: Recurrent Neural Network), 합성곱 순환 신경망(CRNN: Convolutional Recurrent Neural Network), 심층 신뢰 신경망(DBN: Deep Belief Network), 심층 Q-네트워크(Deep Q-Networks), 장단기 메모리(LSTM: Long short term memory), 서포트 벡터 머신(SVM: support vector machine), 생성적 적대 신경망(GAN: Generative Adversarial Network) 및/또는 조건적 생성적 적대 신경망(cGAN: Conditional GAN) 등의 학습 모델을 단독으로 또는 조합하여 구현된 것일 수 있다. The
학습처리부(135)의 처리 결과에 따라 최종적으로 디노이징된 영상(97)을 획득할 수 있게 된다. 학습처리부(135)에 의해 처리 및 획득된 디노이징된 영상(97)은 최종 영상 생성부(140)로 전달될 수 있다.According to the processing result of the
최종영상생성부(140)는 최종적으로 디노이징된 영상(97)을 이용하여 도 1에 도시된 바와 같이 최종 영상(98, 정지화상 또는 동영상을 포함 가능함)을 획득하여 출력할 수 있다. 예를 들어, 최종영상생성부(140)는 최종적으로 디노이징된 영상(97)이 하나 이상의 정지영상(들)인 경우, 정지영상(들)을 연결 및 조합하면서 소정의 압축 규격을 기반으로 렌더링을 수행하여 최종적인 동영상, 즉 최종 영상(98)을 획득할 수도 있고, 동영상인 최종적으로 디노이징된 영상(97)을 소정의 압축 규격에 따라 압축하여 최종 영상(98)을 획득할 수도 있다. 최종 영상(98)은 저장부(15)나 출력부(19)로 전달되고, 사용자 등에게 시각적 및/또는 청각적으로 출력되거나 다른 정보 처리 장치 등으로 전달될 수도 있다.The
상술한 영상 처리 장치(10)는, 상술한 동작의 전부 또는 일부를 수행하기 위하여 특별히 고안된 적어도 하나의 장치를 이용하여 구현될 수도 있고, 또는 적어도 하나의 정보처리장치를 단독으로 이용하거나 조합 이용함으로써 구현될 수도 있다. 여기서, 적어도 하나의 정보처리장치는, 예를 들어, 데스크톱 컴퓨터, 랩톱 컴퓨터, 서버용 하드웨어 장치, 스캐너 장치, 프린터 장치, 삼차원 프린터 장치, 스마트 폰, 태블릿 피씨, 스마트 시계, 스마트 태그, 스마트 밴드, 두부 장착형 디스플레이(HMD: Head Mounted Display) 장치, 휴대용 게임기, 개인용 디지털 보조기(PDA: Personal Digital Assistant), 내비게이션 장치, 스마트 키, 리모트 컨트롤러(리모컨), 디지털 텔레비전, 셋 톱 박스, 디지털 미디어 플레이어 장치, 미디어 스트리밍 장치, 디브이디 재생 장치, 컴팩트 디스크 재생 장치, 음향 재생 장치(인공 지능 스피커 등), 가전 기기(일례로 냉장고, 선풍기, 공조기, 오븐 또는 세탁기 등), 유인 또는 무인 이동체(일례로 승용차, 버스나 이륜차와 같은 차량, 이동성 로봇, 무선 모형 차량, 로봇 청소기 등), 유인 또는 무인 비행체(일례로 항공기나, 헬리콥터나, 드론, 모형 비행기, 모형 헬리콥터 등), 의료 시스템, 가정용, 산업용 또는 군사용 로봇, 산업용 또는 군사용 기계, 전자 칠판, 또는 전자 광고판 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 설계자나 사용자 등은 상황이나 조건에 따라서 상술한 정보처리장치 이외에도 정보의 연산 처리 및 제어가 다양한 장치 중 적어도 하나를 상술한 영상 처리 장치(10)로 고려하여 채용할 수 있다.The above-described image processing apparatus 10 may be implemented using at least one device specially designed to perform all or part of the above-described operations, or by using at least one information processing apparatus alone or in combination. may be implemented. Here, the at least one information processing device is, for example, a desktop computer, a laptop computer, a server hardware device, a scanner device, a printer device, a 3D printer device, a smart phone, a tablet PC, a smart watch, a smart tag, a smart band, a head Head Mounted Display (HMD) Devices, Handheld Game Machines, Personal Digital Assistants (PDAs), Navigation Devices, Smart Keys, Remote Controllers (Remote Controls), Digital Televisions, Set Top Boxes, Digital Media Player Devices, Media Streaming devices, DVD playback devices, compact disc playback devices, sound playback devices (such as artificial intelligence speakers), home appliances (such as refrigerators, fans, air conditioners, ovens or washing machines), manned or unmanned vehicles (such as cars, buses or Vehicles such as two-wheeled vehicles, mobile robots, wireless model vehicles, robotic vacuums, etc.), manned or unmanned aerial vehicles (such as aircraft, helicopters, drones, model airplanes, model helicopters, etc.), medical systems, household, industrial or military robots; It may include, but is not limited to, an industrial or military machine, an electronic blackboard, or an electronic billboard. A designer, a user, or the like may consider and employ, as the image processing device 10 , at least one of devices capable of arithmetic processing and control of information in addition to the above-described information processing device according to circumstances or conditions.
도 9는 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 최대 신호 대 잡음비(PSNR: Peak Signal-to-noise ratio)를 도시한 도면으로, y축은 최대 신호 대 잡음비를 의미하고, x축은 프레임을 의미한다. 녹색선은 상술한 영상 처리 장치(10)에 대한 최대 신호 대 잡음비를, 황색선은 단순 스케일 업만 영상에 적용했을 시의 최대 신호 대 잡음비를 나타낸다.9 is a diagram illustrating a peak signal-to-noise ratio (PSNR) between an output result of an image processing apparatus and a simple scale-up result, where the y-axis means the maximum signal-to-noise ratio, and the x-axis represents the frame. it means. The green line indicates the maximum signal-to-noise ratio for the image processing apparatus 10 described above, and the yellow line indicates the maximum signal-to-noise ratio when only simple scale-up is applied to the image.
도 9에 도시된 바를 참조하면, 영상 처리 장치(10)에 대한 최대 신호 대 잡음비는, 실측 결과 그 값이 대략 40을 중후반을 중심으로 큰 폭의 변화 없이 유지되고 있고, 평균 값은 약 41 정도로 나타나나, 단순 스케일 업만 한 경우에는 최대 신호 대 잡음비가 대략 15 이상 내지 30 이하에서 상당히 큰 폭으로 변화하고 있고, 그 평균 값은 약 18 정도로 나타났다. 이 점은 상술한 영상 처리 장치(10)의 처리에 의해 조합된 동영상의 노이즈가 매우 큰 폭으로 개선되었음을 의미한다.Referring to FIG. 9 , the maximum signal-to-noise ratio for the image processing apparatus 10 is maintained without significant change centered on the mid-to-late mid-to-late value of 40 as a result of measurement, and the average value is about 41 However, in the case of simple scale-up, the maximum signal-to-noise ratio varies considerably from about 15 to 30 or more, and the average value thereof is about 18. This means that the noise of the video combined by the processing of the above-described image processing apparatus 10 is greatly improved.
도 10은 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 구조적 유사도 인덱스 맵(SSIM: Structural Similarity Index Map)을 도시한 도면으로, y축은 원본 영상과의 유사도를 의미하고, x축은 프레임을 의미한다. 녹색선은 상술한 영상 처리 장치(10)에 대한 원본 영상과의 유사도를, 황색선은 단순 스케일 업만 영상에 적용했을 시의 원본 영상과의 유사도를 의미한다.10 is a diagram illustrating a Structural Similarity Index Map (SSIM) between an output result of an image processing apparatus and a simple scale-up result. The y-axis means similarity to the original image, and the x-axis means a frame. . The green line indicates the degree of similarity with the original image of the image processing apparatus 10 described above, and the yellow line indicates the degree of similarity with the original image when only simple scale-up is applied to the image.
도 10에 도시된 바를 참조하면, 영상 처리 장치(10)의 처리 결과 획득된 영상과 원본 영상과의 유사도는 매 프레임에 대해서 거의 1의 값에 근사하며, 대체적으로 0.95 이상을 나타낼 뿐만 아니라, 대체적으로 그 변화의 폭이 작다. 또한, 영상 처리 장치(10)에 의해 생성된 영상과 원본 영상의 유사도의 평균은 0.98로 나타났다. 이는 상술한 영상 처리 과정은 원본 영상을 거의 98% 보존함을 의미한다. 반면에 단순 스케일 업만 한 영상의 경우에는 영상의 유사도는 대략 0.7 내지 0.95 사이의 값을 가지며, 프레임마다 그 값이 매우 크게 변화하고 있다. 또한, 단순 스케일 업만 한 영상과 원본 영상과의 유사도의 평균은 0.87로, 상술한 영상 처리 장치(10)에 대한 유사도의 평균인 0.98에 비해 상당히 낮다. 이는 단순 스케일 업만을 수행했을 경우, 원본 영상의 보존율이 프레임에 따라 크게 차이가 나며, 영상의 품질이 상당히 저하됨을 나타내고 있다.Referring to FIG. 10 , the similarity between the image obtained as a result of the processing of the image processing apparatus 10 and the original image is approximately 1 for every frame, and generally represents 0.95 or more, and generally Therefore, the range of change is small. Also, the average of the similarity between the image generated by the image processing apparatus 10 and the original image was 0.98. This means that the above-described image processing process preserves almost 98% of the original image. On the other hand, in the case of a simple scale-up image, the similarity of the image has a value between about 0.7 and 0.95, and the value changes significantly for each frame. Also, the average of the similarity between the simple scale-up image and the original image is 0.87, which is significantly lower than the 0.98 average of the similarity to the image processing apparatus 10 described above. This indicates that when only simple scale-up is performed, the retention rate of the original image varies greatly depending on the frame, and the quality of the image is significantly deteriorated.
따라서, 도 9 및 도 10에 도시된 바와 같이, 상술한 영상 처리 장치(10)는, 정지 영상을 조합하여 동영상을 생성할 때, 원본 영상과 최대한 동일하면서 노이즈는 매우 적은 동영상을 생성하는 효과가 있음을 알 수 있다.Therefore, as shown in FIGS. 9 and 10 , when the above-described image processing apparatus 10 generates a moving image by combining still images, the effect of generating a moving image with as much as possible the same as the original image and very little noise is effective. it can be seen that there is
이하 도 11을 참조하여 영상 처리 방법의 여러 실시예에 대해서 설명하도록 한다.Hereinafter, various embodiments of an image processing method will be described with reference to FIG. 11 .
도 11은 영상 처리 방법의 일 실시예에 대한 흐름도이다.11 is a flowchart of an image processing method according to an embodiment.
도 11에 도시된 바를 참조하면, 먼저 다수의 정지영상이 획득될 수 있다(200). 다수의 정지영상은, 예를 들어, 실사 사진, 도안 또는 만화(일례로 코믹, 카툰 또는 웹툰 등의 하나 이상의 컷) 등을 포함할 수 있다. 다수의 정지 영상은 실시예에 따라서 시간적으로 또는 스토리적으로 연속된 것일 수도 있다. 다수의 정지영상의 획득은, 사용자나 설계자 등의 직접 입력, 외부의 저장매체로부터의 전달 및/또는 크롤링 등을 이용한 웹 서버 등으로부터의 전달 등을 기반으로 수행될 수도 있다.Referring to FIG. 11 , a plurality of still images may be acquired first ( 200 ). The plurality of still images may include, for example, live-action photos, designs, or cartoons (eg, one or more cuts such as comics, cartoons, or webtoons). The plurality of still images may be temporally or story-wise consecutive according to an embodiment. The acquisition of a plurality of still images may be performed based on a direct input of a user or a designer, transmission from an external storage medium, and/or transmission from a web server using crawling or the like.
적어도 하나의 정지영상은 각각 소정의 비율에 따라 크롭될 수 있다(210). 이에 따라 적어도 하나의 정지영상 각각마다 대응하는 적어도 하나의 크롭된 영상이 획득될 수 있다. 크롭은 정지영상의 가로 길이, 세로 길이 또는 가로 길이와 세로 길이 사이의 비율에 따라 수행될 수 있다. 이 경우, 크롭은 정지영상의 가로 길이가 세로 길이에 대해서 기설정된 비율보다 작다면 정지영상의 상측 일부분 및 하측 일부분 중 적어도 하나를 제거하고, 정지영상의 세로 길이가 가로 길이에 대해서 기설정된 비율보다 작다면 정지영상의 좌측 일부분 및 우측 일부분 중 적어도 하나를 제거하여 수행되는 것도 가능하다. 실시예에 따라서, 크롭은 정지영상의 적어도 하나의 중심선이 이용하여 수행되는 것도 가능하다. 또한, 크롭은 정지영상 내의 주요 피사체가 크롭된 정지영상 내에 적절하게 존재하도록 수행될 수도 있다.At least one still image may be cropped according to a predetermined ratio ( 210 ). Accordingly, at least one cropped image corresponding to each of the at least one still image may be obtained. Cropping may be performed according to a horizontal length, a vertical length, or a ratio between a horizontal length and a vertical length of the still image. In this case, if the horizontal length of the still image is smaller than a predetermined ratio with respect to the vertical length, the crop removes at least one of the upper part and the lower part of the still image, and the vertical length of the still image is greater than the preset ratio with respect to the horizontal length. If it is small, it may be performed by removing at least one of a left part and a right part of the still image. According to an embodiment, the cropping may be performed using at least one center line of the still image. Also, cropping may be performed so that a main subject in the still image is appropriately present in the cropped still image.
적어도 하나의 크롭된 정지 영상은 그 크기가 확대될 수 있다(220). 예를 들어, 1920*1080(FHD) 크기의 크롭된 정지영상은 3840*2160(UHD) 크기로 확장될 수도 있다. 이 경우, 크기의 확장은 픽셀의 복제 등을 통해 수행되는 것도 가능하다. 크기의 확대 과정(220)은 실시예에 따라 생략될 수도 있다.At least one cropped still image may be enlarged in size ( 220 ). For example, a cropped still image having a size of 1920*1080 (FHD) may be extended to a size of 3840*2160 (UHD). In this case, the size expansion may be performed through duplication of pixels or the like. The process of enlarging the
적어도 하나의 크롭된 정지 영상 또는 적어도 하나의 확장된 정지영상에 노이즈가 부가될 수 있다(230). 노이즈의 부가에 따라 영상은 대체적으로 규칙적인 노이즈를 가지게 된다. 여기서, 노이즈는 그레인 노이즈를 포함할 수 있다. 크롭된 정지 영상 또는 확장된 정지영상에 대한 노이즈의 추가는 소정의 필터(일례로 그레인 필터 등)을 이용하여 수행될 수도 있다.Noise may be added to the at least one cropped still image or the at least one extended still image ( 230 ). According to the addition of noise, the image generally has regular noise. Here, the noise may include grain noise. The addition of noise to the cropped still image or the extended still image may be performed using a predetermined filter (eg, a grain filter).
적어도 하나의 노이즈가 부가된 정지 영상은 연결 및 조합되고, 이에 따라 적어도 하나의 동영상이 획득될 수도 있다(240). 동영상의 획득은, 적어도 하나의 노이즈가 부가된 정지 영상을 순차적으로 조합하거나 또는 임의적으로 조합하여 수행될 수 있다. 이 경우, 적어도 하나의 노이즈가 부가된 정지 영상은 동영상의 각각의 프레임을 이루게 된다. 영상의 획득은 소정의 동영상 압축 규격을 기반으로 수행될 수도 있다.Still images to which at least one noise is added are connected and combined, and thus at least one moving image may be obtained ( 240 ). Acquisition of the moving image may be performed by sequentially or arbitrarily combining still images to which at least one noise is added. In this case, the still image to which at least one noise is added constitutes each frame of the moving picture. Image acquisition may be performed based on a predetermined video compression standard.
생성된 동영상을 기반으로 디노이징 처리가 수행된다(260). 일 실시예에 따르면, 디노이징 처리는 다수의 과정을 거쳐 수행될 수도 있다. A denoising process is performed based on the generated video ( 260 ). According to an embodiment, the denoising process may be performed through a plurality of processes.
예를 들어, 먼저 제1 디노이징이 수행된다. 제1 디노이징 과정에서는 디노이징을 위해 먼저 생성된 동영상의 적어도 두 개의 프레임(일례로 연속된 프레임)의 적어도 하나의 픽셀에 대한 차이가, 픽셀마다 검출될 수 있다. 즉, 제1 프레임의 적어도 하나의 픽셀과, 제1 프레임의 적어도 하나의 픽셀에 대응하는 제2 프레임(일례로 제1 프레임의 다음 순서의 프레임)의 적어도 하나의 픽셀 간의 차이가 검출될 수 있다. 만약 제1 프레임 및 제2 프레임의 서로 대응하는 픽셀 간에 차이가 존재하고, 제2 프레임의 적어도 하나의 픽셀이 흑색 내지 백색에 해당하는 값을 가지고 있다면, 제2 프레임의 적어도 하나의 픽셀에, 제2 프레임의 적어도 하나의 픽셀에 대응하는 제1 프레임의 픽셀의 픽셀 값을 기록할 수 있다. 이 경우, 제2 프레임의 적어도 하나의 픽셀의 기존의 픽셀 값은 삭제된다. 이와 같은 디노이징 과정은 모든 프레임 또는 일부의 프레임에 대해 수행될 수 있다.For example, first denoising is performed. In the first denoising process, a difference with respect to at least one pixel of at least two frames (eg, consecutive frames) of a moving picture first generated for denoising may be detected for each pixel. That is, a difference between at least one pixel of the first frame and at least one pixel of a second frame (eg, a frame next to the first frame) corresponding to the at least one pixel of the first frame may be detected. . If there is a difference between corresponding pixels of the first frame and the second frame, and at least one pixel of the second frame has a value corresponding to black to white, at least one pixel of the second frame, A pixel value of a pixel of the first frame corresponding to at least one pixel of the second frame may be recorded. In this case, the existing pixel value of at least one pixel of the second frame is deleted. This denoising process may be performed on all frames or some frames.
제1로 디노이징된 프레임 또는 이들을 포함하는 동영상에 대해 제2 디노이징이 수행될 수 있다. 이에 따라 제2 디노이징 영상이 획득될 수 있다. 예를 들어, 제2 디노이징은, 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해, 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하거나, 소정 개수의 프레임마다 존재하는 균일한 노이즈를 해당 노이즈가 존재하는 픽셀 주변의 픽셀 값 또는 이의 유사 값으로 대체하거나, 블록 값을 각각의 프레임마다 설정하거나 및/또는 영상의 확장 과정에서 부분적으로 변화된 색 영역 값을 보정하는 것 등을 포함할 수도 있다. 이러한 제2 디노이징을 위해서 적어도 하나의 필터가 이용될 수도 있으며, 적어도 하나의 필터는, 실시예에 따라서, 디노이즈 필터, 디그레인 필터, 디블록 필터, 디할로 필터, 디링 필터, 디레인보우 필터, 더스트 제거 필터, 샤픈 필터, 라인 필터 및 스태빌라이저 필터 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.Second denoising may be performed on the first denoised frame or a moving picture including them. Accordingly, a second denoising image may be obtained. For example, in the second denoising, chroma-based grain noise having a very small pixel size is removed from at least one frame among all frames of the first denoised moving image, or uniformly existing in every predetermined number of frames. This includes replacing the noise with a pixel value or a similar value around the pixel in which the noise exists, setting the block value for each frame, and/or correcting the partially changed color gamut value during the image expansion process. You may. At least one filter may be used for the second denoising, and the at least one filter may include a denoise filter, a degrain filter, a deblock filter, a dehalo filter, a dering filter, and a derainbow filter, according to an embodiment. , a dust removal filter, a sharpen filter, a line filter, and at least one of a stabilizer filter, but is not limited thereto.
제2 디노이징 처리된 영상은 적어도 하나의 학습 알고리즘을 채용하여 다시 보정된다. 이 경우, 적어도 하나의 학습 알고리즘은, 제2 디노이징된 영상을 입력 값으로 하고 최종적으로 디노이징된 영상을 출력 값으로 하도록 훈련된 것일 수 있다. 학습 알고리즘 기반의 보정은, 예를 들어, 경계(엣지) 주변에 발생된 픽셀 번짐을 제거하거나 주요 피사체의 위치 보정 등을 위해 이용될 수도 있다. 학습 알고리즘은 합성곱 신경망이나 심층 신경망 등을 사용자나 설계자의 선택에 따라 채용 가능한 적어도 하나의 학습 알고리즘을 포함할 수 있다.The second denoising-processed image is re-corrected by employing at least one learning algorithm. In this case, the at least one learning algorithm may be trained to use the second denoised image as an input value and finally to use the denoised image as an output value. The learning algorithm-based correction may be used, for example, to remove pixel blur generated around a boundary (edge) or to correct the position of a main subject. The learning algorithm may include at least one learning algorithm that can employ a convolutional neural network or a deep neural network according to a user's or designer's selection.
최종적으로 디노이징된 영상으로부터 최종 영상(동영상)이 획득된다(262). 최종 영상의 획득은, 최종적으로 디노이징된 정지영상을 조합하고 소정의 압축 규격에 따라 렌더링함으로써 수행될 수도 있고, 및/또는 최종적으로 디노이징된 동영상을 소정 압축 규격에 이용하여 렌더링함으로써 수행될 수도 있다. 최종 영상은 소정의 저장 매체에 저장되거나, 및/또는 유무선 통신 네트워크 등을 통해 소정의 정보처리장치(일례로 스마트폰이나 데스크톱 컴퓨터 등) 등으로 전달될 수 있다.Finally, a final image (movie) is obtained from the denoised image ( 262 ). Acquisition of the final image may be performed by combining the finally denoised still image and rendering according to a predetermined compression standard, and/or may be performed by rendering the finally denoised moving image according to the predetermined compression standard. have. The final image may be stored in a predetermined storage medium and/or transmitted to a predetermined information processing device (eg, a smart phone or a desktop computer) through a wired/wireless communication network or the like.
상술한 실시예에 따른 영상 처리 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 프로그램은, 명령어, 라이브러리, 데이터 파일 및/또는 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다. 상술한 영상 처리 방법을 구현하기 위한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 롬, 램 또는 플래시 메모리(일례로 솔리드 스테이트 드라이브(SSD) 등)와 같은 반도체 저장 매체나, 하드 디스크나 플로피 디스크와 같은 자기 디스크 저장 매체나, 콤팩트 디스크나 디브이디 등과 같은 광 기록 매체 등 컴퓨터 등의 호출에 따라 실행되는 하나 이상의 프로그램을 일시적 또는 비일시적으로 저장 가능한 적어도 한 종류의 물리적 저장 매체를 포함할 수 있다.The image processing method according to the above-described embodiment may be implemented in the form of a program that can be driven by a computer device. The program may include instructions, libraries, data files and/or data structures alone or in combination, and may be designed and manufactured using machine code or high-level language code. The program may be specially designed to implement the above-described method, or may be implemented using various functions or definitions that are known and available to those skilled in the art of computer software. In addition, here, the computer device may be implemented including a processor or memory that enables the function of the program to be realized, and may further include a communication device if necessary. A program for implementing the above-described image processing method may be recorded in a computer-readable recording medium. The computer-readable recording medium includes, for example, a semiconductor storage medium such as a ROM, RAM or flash memory (eg, a solid state drive (SSD), etc.), a magnetic disk storage medium such as a hard disk or a floppy disk, At least one type of physical storage medium capable of temporarily or non-temporarily storing one or more programs executed in response to a computer call, such as an optical recording medium such as a compact disk or DVD, may be included.
이상 영상 처리 장치 및 영상 처리 방법의 실시예에 대해 설명하였으나, 영상 처리 장치 또는 영상 처리 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현할 수 있는 다른 다양한 장치나 방법 역시 상술한 영상 처리 장치 또는 영상 처리 방법의 일 실시예가 될 수 있다. 예를 들어, 설명된 방법(들)이 설명된 바와 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소(들)가 설명된 바와 다른 형태로 결합, 연결 또는 조합되거나 다른 구성 요소 또는 균등물 등에 의하여 대치 또는 치환되더라도, 상술한 영상 처리 장치 및/또는 영상 처리 방법의 일 실시예가 될 수 있다.Although the embodiments of the image processing apparatus and the image processing method have been described above, the image processing apparatus or the image processing method is not limited only to the above-described embodiments. Various other devices or methods that can be implemented by a person skilled in the art by modifying and modifying the above-described embodiment based on the above-described embodiment may also be an embodiment of the above-described image processing apparatus or image processing method. For example, the described method(s) are performed in a different order than described, and/or the described component(s) of a system, structure, apparatus, circuit, etc., are combined, connected, or otherwise configured in a different manner than described. Even if they are combined or replaced or substituted by other components or equivalents, the above-described image processing apparatus and/or image processing method may be an embodiment.
10: 영상 처리 장치 90: 영상
91: 크롭된 정지영상 92: 확장된 정지영상
93: 노이즈가 부가된 정지영상 94: 동영상
95: 제1 디노이징된 영상 96: 제2 디노이징된 영상
97: 최종 디노이징된 영상 98: 최종 영상
100: 프로세서 110: 크롭부
120: 크기조절부 130: 디노이징부
140: 최종영상생성부10: image processing device 90: image
91: Cropped still image 92: Expanded still image
93: Still image with noise added 94: Movie
95: first denoised image 96: second denoised image
97: final denoised image 98: final image
100: processor 110: crop unit
120: size adjustment unit 130: denoising unit
140: final image generation unit
Claims (16)
상기 적어도 하나의 원 영상의 일부를 크롭하여 상기 적어도 하나의 원영상으로부터 적어도 하나의 크롭된 정지영상을 획득하고, 상기 적어도 하나의 크롭된 정지 영상의 크기를 확장하여 적어도 하나의 확장된 정지영상을 획득하고, 상기 적어도 하나의 확장된 정지영상에 임의의 노이즈를 부가하여 상기 적어도 하나의 확장된 정지영상이 규칙적인 노이즈를 가지게 하고, 상기 임의의 노이즈가 부가된 적어도 하나의 정지 영상을 조합하여 동영상을 생성하고, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하고, 적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 프로세서;를 포함하고,
상기 프로세서는,
상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하고,
상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단하고,
상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단되면, 상기 제2 프레임의 픽셀 값을 상기 제2 프레임의 픽셀에 대응하는 상기 제1 프레임의 픽셀의 픽셀 값으로 대체하여 제1 디노이징 영상을 획득하는 영상 처리 장치.an input unit for acquiring at least one original image that is a still image;
At least one cropped still image is obtained from the at least one original image by cropping a portion of the at least one original image, and at least one extended still image is obtained by expanding the size of the at least one cropped still image. acquiring, adding a random noise to the at least one extended still image so that the at least one extended still image has regular noise, and combining the at least one still image to which the random noise is added. a processor for generating a video, performing denoising processing on at least one frame of the video, and obtaining a video corresponding to the at least one still image based on a denoising process result for the at least one frame; do,
The processor is
detecting a difference between a pixel of a first frame and a pixel of a second frame of the video;
If there is a difference between the pixel of the first frame and the pixel of the second frame, and the pixel value of the pixel of the second frame has a value corresponding to black or white, noise is generated in the pixel of the second frame judged to exist,
When it is determined that noise exists in the pixels of the second frame, the pixel values of the second frame are replaced with the pixel values of the pixels of the first frame corresponding to the pixels of the second frame to obtain a first denoised image image processing device.
상기 프로세서는, 상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 영상 처리 장치.According to claim 1,
The processor may be configured to obtain a second denoised image by applying at least one filter to the first denoised image.
상기 프로세서는, 상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해, 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하거나, 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하거나, 블록 값을 영상 내의 각 프레임마다 설정하거나 또는 영상 내에서 부분적으로 변화된 색 영역 값을 보정하여 상기 제2 디노이징 영상을 획득하는 영상 처리 장치.6. The method of claim 5,
The processor removes chroma-based grain noise of a very small pixel size from at least one frame among all frames of the first denoised video, or a pixel value in which noise is uniformly present every predetermined number of frames An image processing apparatus for obtaining the second denoising image by substituting a pixel value or a similar value around the pixel, setting a block value for each frame in the image, or correcting a partially changed color gamut value in the image.
상기 프로세서는, 학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득하는 영상 처리 장치.6. The method of claim 5,
The processor is an image processing apparatus for obtaining a final denoising image corresponding to the second denoising image by using a learning algorithm.
상기 적어도 하나의 정지영상에 부가되는 노이즈는 그레인 노이즈를 포함하는 영상 처리 장치.According to claim 1,
The noise added to the at least one still image includes grain noise.
상기 적어도 하나의 원 영상의 일부를 크롭하여 상기 적어도 하나의 원 영상으로부터 적어도 하나의 크롭된 정지영상을 획득하는 단계;
상기 적어도 하나의 크롭된 정지 영상의 크기를 확장하여 적어도 하나의 확장된 정지영상을 획득하는 단계;
상기 적어도 하나의 확장된 정지영상에 임의의 노이즈를 부가하여 상기 적어도 하나의 확장된 정지영상이 규칙적인 노이즈를 가지게 하는 단계;
상기 임의의 노이즈가 부가된 적어도 하나의 정지 영상을 조합하여 동영상을 생성하는 단계;
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계; 및
적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 단계;를 포함하고,
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는,
상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하는 단계;
상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단하는 단계; 및
상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단되면, 상기 제2 프레임의 픽셀을 상기 제1 프레임의 대응하는 픽셀의 픽셀 값으로 대체하여 제1 디노이징 영상을 획득하는 단계;를 포함하는 영상 처리 방법.acquiring at least one original image that is a still image;
obtaining at least one cropped still image from the at least one original image by cropping a portion of the at least one original image;
obtaining at least one extended still image by expanding the size of the at least one cropped still image;
adding a random noise to the at least one extended still image so that the at least one extended still image has regular noise;
generating a moving picture by combining the at least one still image to which the random noise is added;
performing denoising processing on at least one frame of the moving picture; and
Including; obtaining a moving picture corresponding to the at least one still image based on the denoising processing result of the at least one frame;
The denoising process on at least one frame of the video includes:
detecting a difference between a pixel of a first frame and a pixel of a second frame of the moving picture;
If there is a difference between the pixel of the first frame and the pixel of the second frame, and the pixel value of the pixel of the second frame has a value corresponding to black or white, noise is generated in the pixel of the second frame determining that it exists; and
if it is determined that noise is present in the pixels of the second frame, replacing the pixels of the second frame with the pixel values of the corresponding pixels of the first frame to obtain a first denoised image; Way.
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는,
상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계;를 더 포함하는 영상 처리 방법.10. The method of claim 9,
The denoising process on at least one frame of the video includes:
and obtaining a second denoising image by applying at least one filter to the first denoising image.
상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계는,
상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하는 단계;
상기 제1 디노이징된 동영상의 모든 프레임 중 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하는 단계;
블록 값을 영상 내의 각 프레임마다 설정하는 단계; 및
영상 내에서 부분적으로 변화된 색 영역 값을 보정하는 단계; 중 적어도 하나를 포함하는 영상 처리 방법.14. The method of claim 13,
obtaining a second denoising image by applying at least one filter to the first denoising image,
removing chroma-based grain noise having a very small pixel size for at least one frame among all frames of the first denoised video;
replacing a pixel value in which noise is uniformly in every predetermined number of frames among all frames of the first denoised moving picture with a pixel value or similar value around the pixel;
setting a block value for each frame in the image; and
correcting a partially changed color gamut value in an image; An image processing method comprising at least one of
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는,
학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득하는 단계;를 더 포함하는 영상 처리 방법.14. The method of claim 13,
The denoising process on at least one frame of the video includes:
and obtaining a final denoising image corresponding to the second denoising image by using a learning algorithm.
상기 적어도 하나의 정지영상에 부가되는 노이즈는, 그레인 노이즈를 포함하는 영상 처리 방법.10. The method of claim 9,
The noise added to the at least one still image includes grain noise.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210162082A KR102452881B1 (en) | 2021-11-23 | 2021-11-23 | Apparatus of processing image and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210162082A KR102452881B1 (en) | 2021-11-23 | 2021-11-23 | Apparatus of processing image and method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102452881B1 true KR102452881B1 (en) | 2022-10-11 |
Family
ID=83599051
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210162082A Active KR102452881B1 (en) | 2021-11-23 | 2021-11-23 | Apparatus of processing image and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102452881B1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102734559B1 (en) * | 2023-11-16 | 2024-11-26 | 주식회사 웹툰올 | Apparatus for Webtoon Serial Service and Driving Method Thereof |
| WO2025056001A1 (en) * | 2023-09-15 | 2025-03-20 | 北京字跳网络技术有限公司 | Video generation method and apparatus, and electronic device and storage medium |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20040092131A (en) * | 2003-04-25 | 2004-11-03 | 엘지전자 주식회사 | method for reduction of impulse noise in display device |
| KR20130084232A (en) * | 2010-05-11 | 2013-07-24 | 톰슨 라이센싱 | Comfort noise and film grain processing for 3 dimensional video |
| KR101791573B1 (en) | 2016-10-21 | 2017-10-31 | 서강대학교산학협력단 | Super resolution system and method with convolution neural network |
| KR20200092197A (en) * | 2019-01-24 | 2020-08-03 | 팅크웨어(주) | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image |
| KR20200127809A (en) * | 2019-05-02 | 2020-11-11 | 삼성전자주식회사 | Electronic apparatus and image processing method thereof |
| KR20210019780A (en) | 2019-08-13 | 2021-02-23 | 엘지디스플레이 주식회사 | System and method for processing image |
| KR20210116923A (en) * | 2020-03-18 | 2021-09-28 | 에스케이텔레콤 주식회사 | Method for Training a Denoising Network, Method and Device for Operating Image Processor |
-
2021
- 2021-11-23 KR KR1020210162082A patent/KR102452881B1/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20040092131A (en) * | 2003-04-25 | 2004-11-03 | 엘지전자 주식회사 | method for reduction of impulse noise in display device |
| KR20130084232A (en) * | 2010-05-11 | 2013-07-24 | 톰슨 라이센싱 | Comfort noise and film grain processing for 3 dimensional video |
| KR101791573B1 (en) | 2016-10-21 | 2017-10-31 | 서강대학교산학협력단 | Super resolution system and method with convolution neural network |
| KR20200092197A (en) * | 2019-01-24 | 2020-08-03 | 팅크웨어(주) | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image |
| KR20200127809A (en) * | 2019-05-02 | 2020-11-11 | 삼성전자주식회사 | Electronic apparatus and image processing method thereof |
| KR20210019780A (en) | 2019-08-13 | 2021-02-23 | 엘지디스플레이 주식회사 | System and method for processing image |
| KR20210116923A (en) * | 2020-03-18 | 2021-09-28 | 에스케이텔레콤 주식회사 | Method for Training a Denoising Network, Method and Device for Operating Image Processor |
Non-Patent Citations (1)
| Title |
|---|
| 일본국 공개특허공보 제2011-180798호("화상 처리 장치 및 화상 처리 방법 및 프로그램", SONY CORP, 2011.09.15) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025056001A1 (en) * | 2023-09-15 | 2025-03-20 | 北京字跳网络技术有限公司 | Video generation method and apparatus, and electronic device and storage medium |
| KR102734559B1 (en) * | 2023-11-16 | 2024-11-26 | 주식회사 웹툰올 | Apparatus for Webtoon Serial Service and Driving Method Thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12579838B2 (en) | Perspective distortion correction on faces | |
| US11205256B2 (en) | Image transformation by fusion | |
| US9525821B2 (en) | Video stabilization | |
| US8494217B2 (en) | Image processing apparatus, image processing method, and program | |
| KR20170047167A (en) | Method and apparatus for converting an impression of a face in video | |
| KR102452881B1 (en) | Apparatus of processing image and method thereof | |
| EP3654240B1 (en) | Image processing apparatus and control method thereof | |
| KR20220029212A (en) | Electronic apparatus and controlling method thereof | |
| JP2019160299A (en) | Automated tracking and retaining of articulated object in sequence of image frames | |
| US11805312B2 (en) | Multi-media content modification | |
| KR102559721B1 (en) | Control method of electronic apparatus for selectively restore images according to field of view of user | |
| CN105578035A (en) | Image processing method and electronic device | |
| JP7154071B2 (en) | Driving state monitoring support system, driving state monitoring support method and program | |
| US10360943B2 (en) | Method, device and system for editing video | |
| US9953448B2 (en) | Method and system for image processing | |
| US12205246B2 (en) | Method and apparatus for improved object detection | |
| EP3259738B1 (en) | Using features at multiple scales for color transfer in augmented reality | |
| CN106713726A (en) | Method and apparatus for recognizing photographing way | |
| EP4641496A1 (en) | Power-efficient video conferencing | |
| KR102889500B1 (en) | Electronic device and Method for controlling the electronic device thereof | |
| KR102913127B1 (en) | Electronic device for detecting distortion in the projection area of image processing based beam-projector module and method operation thereof | |
| KR102160123B1 (en) | Display apparatus, image post-processing apparatus and method for image post-processing of contents | |
| US20230092409A1 (en) | Image processing systems and methods | |
| KR20200015001A (en) | Apparatus and method for image processing | |
| EP4672733A1 (en) | TRANSPARENT CONTROL WITH LOW PERFORMANCE REWARD |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 4 |