[go: up one dir, main page]

KR102452881B1 - Apparatus of processing image and method thereof - Google Patents

Apparatus of processing image and method thereof Download PDF

Info

Publication number
KR102452881B1
KR102452881B1 KR1020210162082A KR20210162082A KR102452881B1 KR 102452881 B1 KR102452881 B1 KR 102452881B1 KR 1020210162082 A KR1020210162082 A KR 1020210162082A KR 20210162082 A KR20210162082 A KR 20210162082A KR 102452881 B1 KR102452881 B1 KR 102452881B1
Authority
KR
South Korea
Prior art keywords
image
frame
pixel
noise
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210162082A
Other languages
Korean (ko)
Inventor
김지찬
Original Assignee
(주)코코믹스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)코코믹스 filed Critical (주)코코믹스
Priority to KR1020210162082A priority Critical patent/KR102452881B1/en
Application granted granted Critical
Publication of KR102452881B1 publication Critical patent/KR102452881B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/002
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to an image processing device and method. The image processing device comprises: an input unit for obtaining at least one original image; and a processor for adding noise to at least one still image corresponding to the at least one original image, generating a moving image by combining the at least one still image, performing denoising processing on at least one frame of the moving image, and obtaining the moving image corresponding to the at least one still image based on a denoising process result for at least one frame.

Description

영상 처리 장치 및 방법{APPARATUS OF PROCESSING IMAGE AND METHOD THEREOF}Image processing apparatus and method {APPARATUS OF PROCESSING IMAGE AND METHOD THEREOF}

영상 처리 장치 및 방법에 관한 것이다.It relates to an image processing apparatus and method.

과거의 만화(comic, cartoon)은, 종이 등의 물리적 매체에 인쇄된 후 배포되는 출판 과정을 통해 독자들에게 전달되는 것이 일반적이었다. 최근에는 정보 통신 기술의 발달에 따라서, 웹사이트나 전자 북을 기반으로 만화가 배포되고 있으며, 독자는 단말기를 이용해 웹 사이트에 접속하거나 전자 북을 다운로드 하여 배포된 만화를 보고 읽는 것이 일상화되어 가고 있다. 최근에는 동영상처럼 만화 내의 캐릭터나 주요 사물 등이 움직이는 무빙툰(Moving Toon)의 제작도 활발하다. 무빙툰은 보통 다수의 정적 이미지로 구성된 만화, 일례로 웹툰(webtoon) 등에 부가 삽입되어, 만화를 열람하는 독자에게 추가적으로 동적 이미지 및 이에 부가된 음향 효과를 제공함으로써, 독자들이 만화를 더욱 생동감 있게 즐길 수 있도록 한다. 그러나, 이러한 무빙툰은 그 제작에 있어서 다수의 인력 및 비용을 요구할 뿐만 아니라, 상대적으로 만화의 각각의 컷보다 사이즈가 크기 때문에, 원래의 만화보다 영상 품질이 상대적으로 저하되기 쉬웠다. 이렇게 저품질의 무빙툰은 독자들에게 흥미를 유발하기 보다는 반대로 독자들의 만화에 대한 집중도를 떨어뜨리는 역효과를 야기하기도 하였다.In the past, it was common for comics (comics) to be delivered to readers through a publishing process that was printed on a physical medium such as paper and then distributed. Recently, according to the development of information and communication technology, cartoons are distributed based on websites or e-books, and it is becoming common for readers to access the website using a terminal or download an e-book to view and read the distributed cartoons. Recently, the production of Moving Toons, in which characters or main objects in cartoons move like a video, is also active. Moving toons are usually inserted into cartoons consisting of a large number of static images, for example, webtoons, and provide additional dynamic images and sound effects to the readers who read the cartoons, so that readers can enjoy cartoons more vividly. make it possible However, the moving toon not only requires a large number of manpower and cost in its production, but also has a relatively larger size than each cut of the cartoon, so that the image quality is relatively easy to deteriorate compared to the original cartoon. Such low-quality moving toon did not arouse interest in readers, but on the contrary, it also caused the adverse effect of lowering the concentration of the readers on the cartoon.

대한민국 등록특허공보 제10-1791573호("컨볼루션 신경망을 이용한 비디오 스트림에 대한 수퍼 해상도 장치 및 방법", 서강대학교 산학협력단, 2017.10.31)Republic of Korea Patent Publication No. 10-1791573 ("Super-resolution apparatus and method for video stream using convolutional neural network", Sogang University Industry-University Cooperation Foundation, October 31, 2017) 대한민국 공개특허공보 제10-2021-0019780호("영상 처리 시스템 및 방법", 엘지디스플레이 주식회사, 2021.02.23)Republic of Korea Patent Publication No. 10-2021-0019780 ("Image processing system and method", LG Display Co., Ltd., 2021.02.23) 일본국 공개특허공보 제2011-180798호("화상 처리 장치 및 화상 처리 방법 및 프로그램", SONY CORP, 2011.09.15)Japanese Unexamined Patent Publication No. 2011-180798 ("Image processing apparatus and image processing method and program", SONY CORP, 2011.09.15)

적어도 하나의 정지영상에 대해 조합 및 초해상화(super-resolution)를 수행하여 높은 품질의 동영상을 생성할 수 있는 영상 처리 장치 및 방법을 제공하는 것을 해결하고자 하는 과제로 한다.An object of the present invention is to provide an image processing apparatus and method capable of generating a high-quality moving image by performing combination and super-resolution on at least one still image.

상술한 과제를 해결하기 위하여 영상 처리 장치 및 방법이 제공된다.In order to solve the above problems, an image processing apparatus and method are provided.

영상 처리 장치는, 적어도 하나의 원영상을 획득하는 입력부, 상기 적어도 하나의 원영상에 대응하는 적어도 하나의 정지영상에 노이즈를 부가하고, 상기 적어도 하나의 정지 영상을 조합하여 동영상을 생성하고, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하고, 적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 프로세서를 포함할 수 있다.The image processing apparatus includes an input unit for acquiring at least one original image, adding noise to at least one still image corresponding to the at least one original image, combining the at least one still image to generate a moving picture, and and a processor configured to perform denoising processing on at least one frame of a moving image, and obtaining a moving image corresponding to the at least one still image based on a denoising processing result for the at least one frame.

상기 적어도 하나의 정지 영상은, 상기 적어도 하나의 원 영상의 일부를 크롭하여 획득된 크롭된 정지 영상을 포함할 수 있다.The at least one still image may include a cropped still image obtained by cropping a portion of the at least one original image.

상기 적어도 하나의 정지 영상은, 상기 크롭된 정지 영상의 크기를 확장한 확장된 정지영상을 포함할 수 있다.The at least one still image may include an extended still image in which a size of the cropped still image is expanded.

상기 프로세서는, 상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하고, 상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀을 상기 제1 프레임의 대응하는 픽셀의 픽셀 값으로 대체하여 상기 디노이징 처리를 수행하여 제1 디노이징 영상을 획득할 수도 있다.The processor is configured to detect a difference between a pixel of a first frame and a pixel of a second frame of the moving picture, wherein a difference exists between a pixel of the first frame and a pixel of the second frame, and the pixel of the second frame If the pixel value of has a value corresponding to black or white, the denoising process is performed by replacing the pixel of the second frame with the pixel value of the corresponding pixel of the first frame to obtain a first denoising image You may.

상기 프로세서는, 상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득할 수도 있다.The processor may obtain a second denoising image by applying at least one filter to the first denoising image.

상기 프로세서는, 상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해, 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하거나, 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하거나, 블록 값을 영상 내의 각 프레임마다 설정하거나 또는 영상 내에서 부분적으로 변화된 색 영역 값을 보정하여 상기 제2 디노이징 영상을 획득하는 것도 가능하다.The processor removes chroma-based grain noise of a very small pixel size from at least one frame among all frames of the first denoised video, or a pixel value in which noise is uniformly present every predetermined number of frames It is also possible to obtain the second denoising image by substituting a pixel value or similar value around the pixel, setting a block value for each frame in the image, or correcting a partially changed color gamut value in the image.

상기 프로세서는, 학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득할 수도 있다.The processor may obtain a final denoising image corresponding to the second denoising image by using a learning algorithm.

상기 적어도 하나의 정지영상에 부가되는 노이즈는 그레인 노이즈를 포함할 수 있다.The noise added to the at least one still image may include grain noise.

영상 처리 방법은, 적어도 하나의 원영상을 획득하는 단계, 상기 적어도 하나의 원영상에 대응하는 적어도 하나의 정지영상에 노이즈를 부가하는 단계, 상기 적어도 하나의 정지 영상을 조합하여 동영상을 생성하는 단계, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계 및 적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 단계를 포함할 수 있다.The image processing method includes: obtaining at least one original image; adding noise to at least one still image corresponding to the at least one original image; and generating a moving image by combining the at least one still image. , performing denoising processing on at least one frame of the moving image, and obtaining a moving image corresponding to the at least one still image based on a result of denoising processing for at least one frame. .

상기 적어도 하나의 정지 영상은, 상기 적어도 하나의 원 영상의 일부를 크롭하여 획득된 크롭된 정지 영상을 포함할 수 있다.The at least one still image may include a cropped still image obtained by cropping a portion of the at least one original image.

상기 적어도 하나의 정지 영상은, 상기 크롭된 정지 영상의 크기를 확장한 확장된 정지영상을 포함할 수 있다.The at least one still image may include an extended still image in which a size of the cropped still image is expanded.

영상 처리 방법은, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는, 상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하는 단계, 상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀을 상기 제1 프레임의 대응하는 픽셀의 픽셀 값으로 대체하여 제1 디노이징 영상을 획득하는 단계를 포함할 수 있다.In the image processing method, the performing the denoising process on at least one frame of the moving picture includes: detecting a difference between a pixel of a first frame and a pixel of a second frame of the moving picture; and a pixel of the first frame and if there is a difference between the pixels of the second frame and the pixel value of the pixel of the second frame has a value corresponding to black or white, the pixel of the second frame is set to the corresponding pixel of the first frame. The method may include obtaining a first denoising image by substituting a pixel value of .

상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는, 상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계를 더 포함하는 것도 가능하다.The denoising may further include obtaining a second denoising image by applying at least one filter to the first denoising image.

상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계는, 상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하는 단계, 상기 제1 디노이징된 동영상의 모든 프레임 중 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하는 단계, 블록 값을 영상 내의 각 프레임마다 설정하는 단계 및 영상 내에서 부분적으로 변화된 색 영역 값을 보정하는 단계 중 적어도 하나를 포함할 수도 있다.The step of obtaining a second denoised image by applying at least one filter to the first denoised image may include: a chroma series having a very small pixel size for at least one frame among all frames of the first denoised moving image. removing grain noise, replacing the value of a pixel in which noise is uniformly in every predetermined number of frames among all frames of the first denoised video with a pixel value or similar value around the pixel, and a block value The method may include at least one of setting for each frame in the image and correcting a partially changed color gamut value in the image.

상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는, 학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득하는 단계를 더 포함하는 것도 가능하다.The denoising may further include obtaining a final denoising image corresponding to the second denoising image using a learning algorithm.

상기 적어도 하나의 정지영상에 부가되는 노이즈는, 그레인 노이즈를 포함할 수도 있다.The noise added to the at least one still image may include grain noise.

상술한 영상 처리 장치 및 방법에 의하면, 적어도 하나의 정지영상에 대해 조합 및 초해상화를 수행하여 정지 영상에 대응하는 높은 품질의 동영상을 생성할 수 있게 된다.According to the above-described image processing apparatus and method, it is possible to generate a high-quality moving image corresponding to the still image by performing combination and super-resolution on at least one still image.

상술한 영상 처리 장치 및 방법에 의하면, 저해상도, 일례로 SD(Standard Definition) 수준의 정지영상을 이용하여, 이에 대응하는 고해상도, 일례로 UHD(Ultra High Definition) 수준의 정지영상 또는 동영상을 획득할 수 있게 되는 효과도 얻을 수 있다.According to the image processing apparatus and method described above, by using a still image of a low resolution, for example, SD (Standard Definition) level, a corresponding high resolution, for example, UHD (Ultra High Definition) level still image or video can be obtained. effect can be obtained.

상술한 영상 처리 장치 및 방법에 의하면, 원 영상을 단순히 스케일 업(Scale-up)을 하여 획득한 경우보다 잡음이 상대적으로 적으면서도 원 영상과 더욱 유사한 고품질의 영상을 생성할 수 있게 되는 장점도 얻을 수 있다.According to the above-described image processing apparatus and method, it is possible to generate a high-quality image more similar to the original image while having relatively less noise than when the original image is simply scaled-up. can

상술한 영상 처리 장치 및 방법에 의하면, 일련의 정지영상을 포함하는 카툰(Cartoon) 또는 코믹(comic)을 이용한 고품질 동영상 생성의 편의성을 개선할 수 있게 되는 장점도 존재한다.According to the above-described image processing apparatus and method, there is also an advantage in that it is possible to improve the convenience of generating a high-quality video using a cartoon or a comic including a series of still images.

도 1은 영상 처리 장치의 일 실시예에 대한 블록도이다.
도 2는 크롭부의 동작의 일례를 설명하기 위한 도면이다.
도 3은 크기조절부의 동작의 일례를 설명하기 위한 도면이다.
도 4는 디노이징부의 일 실시예에 대한 블록도이다.
도 5는 노이즈 추가 전후의 영상의 일례를 설명하기 위한 도면이다.
도 6은 영상조합부의 동작의 일례를 설명하기 위한 도면이다.
도 7은 제1 노이즈 처리부의 동작의 일례를 설명하기 위한 도면이다.
도 8은 학습 처리 결과에 따른 영상의 일례를 설명하기 위한 도면이다.
도 9는 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 최대 신호 대 잡음비(PSNR: Peak Signal-to-noise ratio)를 도시한 도면이다.
도 10은 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 구조적 유사도 인덱스 맵(SSIM: Structural Similarity Index Map)을 도시한 도면이다.
도 11은 영상 처리 방법의 일 실시예에 대한 흐름도이다.
1 is a block diagram of an embodiment of an image processing apparatus.
2 is a view for explaining an example of the operation of the crop unit.
3 is a view for explaining an example of the operation of the size adjustment unit.
4 is a block diagram of an embodiment of a denoising unit.
5 is a diagram for explaining an example of an image before and after adding noise.
6 is a view for explaining an example of the operation of the image combining unit.
7 is a diagram for explaining an example of the operation of the first noise processing unit.
8 is a diagram for explaining an example of an image according to a learning processing result.
9 is a diagram illustrating a peak signal-to-noise ratio (PSNR) between an output result of an image processing apparatus and a simple scale-up result.
10 is a diagram illustrating a Structural Similarity Index Map (SSIM) between an output result of an image processing apparatus and a simple scale-up result.
11 is a flowchart of an image processing method according to an embodiment.

이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 및/또는 하드웨어로 구현될 수 있으며, 실시예에 따라 하나의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 복수의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 하나의 '부'가 복수의 물리적 또는 논리적 부품들로 구현되는 것도 가능하다. 명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분이 상호 간에 물리적으로 연결되었음을 의미할 수도 있고, 및/또는 전기적으로 연결되었음을 의미할 수도 있다. 또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다. 제1 내지 제N(N은 1 이상의 자연수) 등의 표현은, 적어도 하나의 부분(들)을 다른 부분(들)으로부터 구분하기 위한 것으로, 특별한 기재가 없는 이상 이들이 순차적임을 반드시 의미하지는 않는다. 또한 단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.In the following specification, the same reference numerals refer to the same components unless otherwise specified. The term added with 'unit' used below may be implemented in software and/or hardware, and according to an embodiment, one 'unit' may be implemented as one physical or logical part, or a plurality of 'units' may be implemented as one physical or logical part. It may be implemented as one physical or logical part, or one 'unit' may be implemented with a plurality of physical or logical parts. Throughout the specification, when a certain part is connected to another part, it may mean that a certain part and another part are physically connected to each other and/or electrically connected to each other. In addition, when it is said that a part includes another part, it does not exclude another part other than the other part unless otherwise stated, and it means that another part may be further included according to the designer's choice. do. Expressions such as first to Nth (N is a natural number equal to or greater than 1) are for distinguishing at least one part(s) from other part(s), and unless otherwise specified, it does not necessarily mean that they are sequential. Also, the singular expression may include the plural expression unless the context clearly dictates otherwise.

이하 도 1 내지 도 10을 참조하여 영상 처리 장치의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an image processing apparatus will be described with reference to FIGS. 1 to 10 .

도 1은 영상 처리 장치의 일 실시예에 대한 블록도이다.1 is a block diagram of an embodiment of an image processing apparatus.

도 1에 도시된 바를 참조하면, 영상 처리 장치(10)는 일 실시예에 있어서 영상 처리를 수행할 수 있도록 마련된 프로세서(100)를 포함할 수 있으며, 입력부(11), 저장부(15) 및 출력부(19) 중 적어도 하나를 더 포함할 수 있다.Referring to FIG. 1 , the image processing apparatus 10 may include a processor 100 provided to perform image processing according to an embodiment, and includes an input unit 11 , a storage unit 15 , and At least one of the output units 19 may be further included.

입력부(11)는 하나 또는 둘 이상의 영상(90, 이하 원 영상)을 수신 및 획득하고, 획득한 하나 또는 둘 이상의 원 영상(90)을 저장부(15) 및 프로세서(100) 중 적어도 하나로 전달할 수 있다. 실시예에 따라서, 하나 또는 둘 이상의 원 영상(90)은 정지영상을 포함할 수 있으며, 보다 구체적으로 예를 들어, 실사 사진, 도안 또는 만화(코믹, 카툰 또는 웹툰(webtoon) 등을 포함 가능함) 등을 포함할 수 있다. 여기서, 만화는, 코믹, 카툰 또는 웹툰 등에 포함된 적어도 하나의 컷(장면)을 포함할 수도 있다. 또한, 둘 이상의 원 영상(90)은 시간적으로 또는 스토리적으로 상호 연관된 것일 수도 있다. 예를 들어, 둘 이상의 원 영상(90)은, 하나의 만화 내에 연속적이거나 또는 불연속적으로 배치된 둘 이상의 컷을 포함할 수도 있다. 입력부(11)는 사용자나 설계자(이하 사용자 등)가 직접 입력부(11)를 조작하여 그림으로써 원 영상(90)을 획득할 수도 있고, 외부의 다른 저장 매체(일례로 외장 메모리 장치나 스마트폰 등)으로부터 전달 받아 원 영상(90)을 획득할 수도 있으며, 크롤링 등을 통해 획득된 웹 상의 그림(만화의 적어도 한 컷 등)을 수신함으로써 원 영상(90)을 획득할 수도 있다. 입력부(90)는, 영상 처리 장치(10)와 일체형으로 마련된 것일 수도 있고, 또는 물리적으로 분리 가능하게 마련된 것일 수도 있다. 또한, 입력부(90)는 프로세서(100)의 동작을 위해 필요한 각종 설정 값 등을 사용자로부터 입력 받을 수도 있다. 입력부(90)는, 예를 들어, 키보드, 마우스, 태블릿 입력 장치, 터치 스크린, 터치 패드, 트랙 볼, 트랙패드, 스캐너 장치, 영상 촬영 모듈 및/또는 마이크로 폰 등을 포함할 수 있다. 또한 실시예에 따라, 입력부(90)는, 외부의 다른 장치(일례로 휴대용 메모리 장치 등)로부터 데이터 등의 수신이 가능한 데이터 입출력 단자나, 외부의 다른 장치와 유무선 통신 네트워크를 통해 연결되는 통신 모듈(일례로 랜 카드, 근거리 통신 모듈 또는 이동통신 모듈 등) 등을 포함할 수도 있다. 여기서, 근거리 통신 모듈은, 근거리 통신 네트워크에 접속하기 위해 이용되는 통신 모듈을 포함할 수 있으며, 근거리 통신 네트워크는, 예를 들어, 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신, 초광대역(UWB: Ultra-WideBand) 통신, 엔에프씨(NFC: Near Field Communication), 알에프아이디(RFID: Radio-Frequency IDentification) 및/또는 지그비(zigbee) 통신 등을 기반으로 구현된 네트워크를 포함할 수 있다.The input unit 11 receives and obtains one or more images (90, hereinafter, the original image), and transmits the acquired one or more original images 90 to at least one of the storage unit 15 and the processor 100 . have. According to an embodiment, one or more of the original images 90 may include a still image, and more specifically, for example, a live-action photograph, a design, or a cartoon (comics, cartoons or webtoons may be included). and the like. Here, the cartoon may include at least one cut (scene) included in a comic, a cartoon, or a webtoon. Also, two or more original images 90 may be temporally or historically correlated. For example, the two or more original images 90 may include two or more cuts continuously or discontinuously arranged in one cartoon. The input unit 11 may obtain the original image 90 by directly operating the input unit 11 by a user or a designer (hereinafter referred to as a user, etc.) . The input unit 90 may be provided integrally with the image processing apparatus 10 or may be provided to be physically detachable. In addition, the input unit 90 may receive various setting values necessary for the operation of the processor 100 from the user. The input unit 90 may include, for example, a keyboard, a mouse, a tablet input device, a touch screen, a touch pad, a track ball, a track pad, a scanner device, an image capturing module, and/or a microphone. In addition, according to an embodiment, the input unit 90 is a data input/output terminal capable of receiving data from another external device (eg, a portable memory device, etc.) or a communication module connected to another external device through a wired/wireless communication network. (For example, a LAN card, a short-range communication module, a mobile communication module, etc.) and the like may be included. Here, the short-range communication module may include a communication module used to access a short-range communication network, and the short-distance communication network includes, for example, Wi-Fi, Wi-Fi Direct, and Bluetooth. (Bluetooth), Bluetooth Low Energy, CAN communication, Ultra-WideBand (UWB) communication, NFC (Near Field Communication), RFID (Radio-Frequency IDentification) and / or a network implemented based on zigbee communication or the like may be included.

저장부(15)는, 프로세서(100)의 동작에 필요하거나, 프로세서(100)의 동작 과정에서 생성되거나 또는 프로세서(100)에 의해 최종적으로 획득된 결과(일례로 최종 영상(98))를 일시적 또는 비일시적으로 저장할 수 있다. 또한, 저장부(15)는 적어도 하나의 프로그램(앱, 애플리케이션 또는 소프트웨어 등으로 지칭 가능함)이나 적어도 하나의 프로그램을 위한 필요한 각종 설정 값 등을 저장할 수도 있다. 여기서, 저장부(15)에 저장된 프로그램은, 프로그래머 등의 설계자에 의해 직접 작성 또는 수정된 후 저장부(15)에 저장된 것일 수도 있고, 다른 물리적 기록 매체(일례로 외장 메모리 장치나 콤팩트 디스크(CD) 등)으로부터 전달받아 저장된 것일 수도 있으며, 및/또는 유무선 통신 네트워크를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득 또는 갱신된 것일 수도 있다. 저장부(15)는, 실시예에 따라서 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 보조기억장치는, 플래시 메모리 장치(솔리드 스테이트 드라이브(SSD, Solid State Drive) 등), SD(Secure Digital) 카드, 하드 디스크 드라이브(HDD, Hard Disc Drive), 콤팩트 디스크, 디브이디(DVD) 또는 레이저 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The storage unit 15 temporarily stores a result (eg, the final image 98 ) required for the operation of the processor 100 , generated during the operation of the processor 100 , or finally obtained by the processor 100 . Alternatively, it may be stored non-temporarily. Also, the storage unit 15 may store at least one program (which may be referred to as an app, an application, or software) or various setting values necessary for the at least one program. Here, the program stored in the storage unit 15 may be directly written or modified by a designer such as a programmer and then stored in the storage unit 15, or another physical recording medium (eg, an external memory device or a compact disk (CD)). ), etc.), and/or may be acquired or updated through an electronic software distribution network accessible through a wired/wireless communication network. The storage unit 15 may include, for example, at least one of a main memory device and an auxiliary memory device according to an embodiment. The main memory device may be implemented using a semiconductor storage medium such as ROM and/or RAM. Auxiliary storage devices include flash memory devices (SSD, Solid State Drive, etc.), SD (Secure Digital) card, hard disk drive (HDD, Hard Disc Drive), compact disc, DVD, or laser disc. It may be implemented using at least one storage medium capable of permanently or semi-permanently storing data, such as.

출력부(19)는, 프로세서(100)의 처리 여부에 대한 정보, 프로세서(100)의 처리 결과(일례로 최종 영상(98)), 프로세서(100)의 처리 과정에서 획득된 영상(들), 입력부(11)가 획득한 원 영상(90) 및/또는 기타 저장부(15) 등에 저장된 데이터나 설정 값 등을 외부로 출력하여 사용자 등에게 제공하거나 또는 다른 장치(미도시. 일례로 스마트폰이나 태블릿 피씨 등)로 전달할 수 있다. 실시예에 따라서, 출력부(19)는, 영상 처리 장치(10)와 일체형으로 마련된 것일 수도 있고, 또는 물리적으로 분리 가능하게 마련된 것일 수도 있다. 출력부(19)는, 예를 들어, 디스플레이, 프린터 장치, 스피커 장치, 영상 출력 단자, 데이터 입출력 단자 및/또는 통신 모듈 등을 포함할 수도 있다.The output unit 19 includes information on whether or not the processor 100 has processed, the processing result of the processor 100 (eg, the final image 98), the image(s) acquired in the processing of the processor 100, The original image 90 acquired by the input unit 11 and/or other data or setting values stored in the storage unit 15, etc. are output to the outside and provided to the user or other device (not shown. For example, a smartphone or tablet PC, etc.). According to an embodiment, the output unit 19 may be provided integrally with the image processing apparatus 10 or may be provided to be physically separated. The output unit 19 may include, for example, a display, a printer device, a speaker device, an image output terminal, a data input/output terminal, and/or a communication module.

프로세서(100)는 적어도 하나의 원 영상(90)을 이용하여 적어도 하나의 원 영상(90)에 대응하는 최종 영상(98)을 획득할 수 있다. 여기서, 적어도 하나의 원 영상(90)은 적어도 하나의 정지영상을 포함하고, 획득된 최종 영상(98)은 각각의 정지원 영상(90)에 대한 처리 결과에 따라 획득된 정지영상 각각을 프레임으로 하여 구축된 동영상을 포함할 수도 있다. 이 경우, 프로세서(100)는 사용자 등의 입력부(11)에 대한 조작이나 미리 정의된 설정에 따라 동작하여 적어도 하나의 원 영상(90)을 기반으로 최종 영상(98)을 생성할 수도 있으며, 이를 위해 저장부(15)에 저장된 프로그램을 실행시킬 수도 있다. 프로세서(100)는, 예를 들어, 중앙 처리 장치(CPU: Central Processing Unit), 그래픽 처리 장치(GPU: Graphic Processing Unit), 마이크로 컨트롤러 유닛(MCU: Micro Controller Unit), 애플리케이션 프로세서(AP: Application Processor), 전자 제어 유닛(ECU: Electronic Controlling Unit), 기본보드 관리 컨트롤러(BMC: Baseboard Management Controller), 마이컴(Micom: Micro Processor) 및/또는 이외 각종 연산 및 제어 처리를 수행할 수 있는 적어도 하나의 전자 장치 등을 포함할 수 있다. 이들 처리 또는 제어 장치는, 예를 들어, 하나 또는 둘 이상의 반도체 칩, 회로 또는 관련 부품 등을 단독으로 이용하거나 조합하여 구현된 것일 수도 있다.The processor 100 may acquire the final image 98 corresponding to the at least one original image 90 by using the at least one original image 90 . Here, the at least one original image 90 includes at least one still image, and the obtained final image 98 uses each still image obtained according to the processing result for each still image 90 as a frame. You can also include built-in videos. In this case, the processor 100 may generate the final image 98 based on the at least one original image 90 by operating according to an operation on the input unit 11 such as a user or a predefined setting, For this purpose, the program stored in the storage unit 15 may be executed. The processor 100 is, for example, a central processing unit (CPU), a graphic processing unit (GPU), a micro controller unit (MCU), an application processor (AP). ), an Electronic Controlling Unit (ECU), a Baseboard Management Controller (BMC), a Micro Processor (Micom), and/or at least one electronic device capable of performing various calculations and control processing. devices and the like. These processing or control devices may be implemented by using, for example, one or more semiconductor chips, circuits, or related components alone or in combination.

프로세서(100)는, 일 실시예에 의하면, 도 1에 도시된 바와 같이, 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140)를 포함할 수 있다. 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 둘은 논리적으로 구분되는 것일 수도 있고 또는 물리적으로 구분되는 것일 수도 있다. 논리적으로 구분되는 경우, 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 둘은 하나의 프로세싱 유닛(일례로 중앙처리장치)을 이용하여 구현될 수 있고, 물리적으로 구분되는 경우, 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 둘은 서로 상이한 프로세싱 유닛(일례로 중앙 처리 장치 및 그래픽 처리 장치 등)을 이용하여 구현될 수 있다. 크롭부(110), 크기조절부(120), 디노이징부(130) 및 최종영상생성부(140) 중 적어도 하나는, 필요에 따라 생략될 수도 있다. 예를 들어, 크롭부(110) 또는 크기 조절부(120)는 생략될 수도 있으며, 이에 따라 크롭(crop) 또는 크기 확대도 생략될 수도 있다.The processor 100, according to an embodiment, may include a crop unit 110 , a size adjuster 120 , a denoising unit 130 , and a final image generation unit 140 as shown in FIG. 1 . can At least two of the crop unit 110 , the size adjuster 120 , the denoising unit 130 , and the final image generator 140 may be logically separated or physically separated. When logically separated, at least two of the crop unit 110 , the size adjuster 120 , the denoising unit 130 , and the final image generation unit 140 use one processing unit (eg, a central processing unit). In the case of being physically separated, at least two of the crop unit 110 , the size adjuster 120 , the denoising unit 130 , and the final image generation unit 140 are different processing units (eg, It can be implemented using a central processing unit, a graphic processing unit, etc.). At least one of the cropping unit 110 , the size adjusting unit 120 , the denoising unit 130 , and the final image generating unit 140 may be omitted if necessary. For example, the cropping unit 110 or the size adjusting unit 120 may be omitted, and accordingly, cropping or size expansion may also be omitted.

도 2는 크롭부의 동작의 일례를 설명하기 위한 도면이다.2 is a view for explaining an example of the operation of the crop unit.

크롭부(110)는, 도 2에 도시된 바와 같이, 적어도 하나의 원영상(90)의 일부를 크롭하여, 적어도 하나의 원영상(90)에 대응하여 소정 비율의 정지영상(91, 이하 크롭된 정지영상)을 획득할 수 있다. 여기서, 소정의 비율은, 사용자 등에 의해 미리 설정된 것일 수 있으며, 일례로 4:3, 16:9 또는 21:9 등을 포함할 수 있다. 실시예에 따라서, 크롭부(110)는 입력된 모든 원 영상(90), 즉 모든 정지영상(90)에 대해서 크롭을 수행할 수도 있고, 또는 입력된 모든 원 영상(90) 중 일부의 정지영상(90)에 대해서 크롭을 수행할 수도 있다. 후자의 경우, 크롭이 수행되는 정지영상(90)은 사용자 등에 의해 선택된 것일 수도 있고, 미리 정의된 설정에 따라서 프로세서(100)에 의해 선택된 것일 수도 있다.As shown in FIG. 2 , the crop unit 110 crops a portion of at least one original image 90 , and a still image 91 (hereinafter referred to as cropping) of a predetermined ratio corresponding to the at least one original image 90 . still images) can be obtained. Here, the predetermined ratio may be preset by a user or the like, and may include, for example, 4:3, 16:9, or 21:9. According to an exemplary embodiment, the crop unit 110 may crop all the input original images 90 , that is, all still images 90 , or some still images of all the input original images 90 . (90) may be cropped. In the latter case, the still image 90 to be cropped may be selected by a user or the like, or may be selected by the processor 100 according to a predefined setting.

일 실시예에 의하면, 크롭부(110)는 크롭의 대상이 되는 정지영상(90)의 가로 길이, 세로 길이 또는 이들 간의 비율에 따라서 크롭을 수행할 수도 있다. 구체적으로 예를 들어, 크롭부(110)는, 정지영상(90)의 가로 길이가 세로 길이에 대해서 기설정된 비율보다 작다면 정지영상(90)의 상측 일부분 및 하측 일부분 중 적어도 하나를 제거하고, 정지영상(90)의 세로 길이가 가로 길이에 대해서 기설정된 비율보다 작다면 정지영상(90)의 좌측 일부분 및 우측 일부분 중 적어도 하나를 제거함으로써, 정지영상(90)의 일부를 제거할 수도 있다. 이 경우, 크롭부(110)는, 정지영상(90)의 두 개의 중심선(A1, A2)을 결정하고, 결정된 두 개의 중심선(A1, A2) 중 적어도 하나를 기준으로 하여, 두 개의 중심선(A1, A2) 중 적어도 하나로부터 소정 거리 이상 떨어진 상측 일부분, 하측 일부분, 좌측 일부분 및 하측 일부분 중 적어도 하나를 절개함으로써 크롭을 수행할 수도 있다. 다른 실시예에 의하면, 크롭부(110)는 정지영상(90) 내에 주요 피사체(B, 예를 들어, 인물(인물의 얼굴 등)이나 동물 등)를 검출하고, 만약 주요 피사체(B)가 정지영상(90) 내에 존재한다면, 주요 피사체(B)가 크롭된 정지영상(91) 내에 존재하도록 상측 일부분, 하측 일부분, 좌측 일부분 및 하측 일부분 중 적어도 일부분을 제거하여 정지영상(90)에 대한 크롭을 수행할 수도 있다. 이 경우, 크롭부(110)는, 검출된 주요 피사체(B)가 크롭된 정지영상(91)의 적절한 위치(예를 들어, 중심이나 상단으로부터 3분의 1 지점 등)에 배치되도록 크롭을 수행할 수도 있다. 주요 피사체(B)의 검출 등은, 영상(90) 내에서 특정한 피사체를 검출하기 위해 기 마련된 소정의 알고리즘(일례로 학습 알고리즘)을 이용하여 수행될 수 있으며, 예를 들어, 소정의 알고리즘은 특징점이나 엣지 등을 먼저 검출한 후, 검출된 특징점이나 엣지 등을 이용하여 주요 피사체(B)를 인식하도록 마련된 것일 수도 있다. 주요 피사체(B)를 검출하여 크롭하는 경우에도, 크롭부(110)는 정지영상(90)의 가로 길이, 세로 길이 또는 이들 간의 비율을 더 반영하여 크롭을 수행하는 것도 가능하다.According to an embodiment, the crop unit 110 may perform cropping according to a horizontal length, a vertical length, or a ratio between the still images 90 to be cropped. Specifically, for example, the crop unit 110 removes at least one of an upper portion and a lower portion of the still image 90 if the horizontal length of the still image 90 is smaller than a predetermined ratio with respect to the vertical length, If the vertical length of the still image 90 is smaller than a predetermined ratio with respect to the horizontal length, a part of the still image 90 may be removed by removing at least one of a left part and a right part of the still image 90 . In this case, the crop unit 110 determines two center lines A1 and A2 of the still image 90 , and based on at least one of the determined two center lines A1 and A2, the two center lines A1 , A2), the crop may be performed by cutting at least one of an upper portion, a lower portion, a left portion, and a lower portion separated by a predetermined distance or more. According to another embodiment, the crop unit 110 detects a main subject (B, for example, a person (face of a person) or an animal, etc.) in the still image 90 , and if the main subject B is still If it exists in the image 90 , cropping of the still image 90 is performed by removing at least a portion of an upper part, a lower part, a left part, and a lower part so that the main subject B is present in the cropped still image 91 . can also be done In this case, the crop unit 110 performs cropping so that the detected main subject B is placed at an appropriate position (eg, a center or a third from the top) of the cropped still image 91 . You may. The detection of the main subject B may be performed using a predetermined algorithm (eg, a learning algorithm) prepared in advance for detecting a specific object in the image 90 . For example, the predetermined algorithm is a feature point It may be provided to recognize the main subject B using the detected feature points or edges after first detecting the or edge. Even when the main subject B is detected and cropped, the crop unit 110 may perform the cropping by further reflecting the horizontal length, the vertical length, or a ratio between them of the still image 90 .

크롭된 정지영상(91)은 크기조절부(120)로 전달될 수 있다.The cropped still image 91 may be transmitted to the size adjustment unit 120 .

도 3은 크기조절부의 동작의 일례를 설명하기 위한 도면이다.3 is a view for explaining an example of the operation of the size adjustment unit.

크기조절부(120)는, 도 3에 도시된 바와 같이, 크롭된 정지영상(91)의 크기를 확장하여 보다 큰 크기의 정지영상(92, 이하 확장된 정지영상)을 획득할 수 있다. 예를 들어, 크기조절부(120)는, 크롭부(110)로부터 1920*1080(FHD) 크기의 크롭된 정지영상(91)이 전달되면, 이에 응하여 크롭된 정지영상(91)으로부터 3840*2160(UHD) 크기의 확장된 정지영상(92)을 획득할 수도 있다. 일 실시예에 의하면, 크롭된 정지영상(91)의 확장은, 정지영상(91)의 각각의 픽셀(화소)에 대응하는 하나 이상의 픽셀을 추가적으로 생성하고, 추가적으로 생성된 픽셀에 대응하는 픽셀의 픽셀 값(일례로 RGB나 CMYK 값 등)을 복제하여 기록함으로써 수행될 수도 있다. 예를 들어, 크기조절부(120)는 크롭된 정지영상(91)의 각 픽셀에 대응하는 세 개의 픽셀을 추가하고, 추가된 세 개의 픽셀에 원래의 픽셀의 값을 입력하여 적절히 배치함으로써, 그 크기가 크롭된 정지영상(91)보다 4배인 확장된 정지영상(92)을 획득할 수 있다. 확장된 정지영상(92)은 디노이징부(130)로 전달될 수 있다. As shown in FIG. 3 , the size adjuster 120 may expand the size of the cropped still image 91 to obtain a larger still image 92 (hereinafter, extended still image). For example, when a cropped still image 91 having a size of 1920*1080 (FHD) is transmitted from the crop unit 110 , the size adjustment unit 120 receives 3840*2160 from the cropped still image 91 in response. An extended still image 92 of (UHD) size may be acquired. According to an embodiment, the expansion of the cropped still image 91 additionally generates one or more pixels corresponding to each pixel (pixel) of the still image 91, and a pixel corresponding to the additionally generated pixel. This can also be done by duplicating and recording values (eg, RGB or CMYK values). For example, the resizing unit 120 adds three pixels corresponding to each pixel of the cropped still image 91, inputs the values of the original pixels to the added three pixels, and arranges them appropriately. An expanded still image 92 whose size is four times larger than that of the cropped still image 91 may be obtained. The expanded still image 92 may be transmitted to the denoising unit 130 .

도 4는 디노이징부의 일 실시예에 대한 블록도이다.4 is a block diagram of an embodiment of a denoising unit.

디노이징부(130)는, 도 4에 도시된 바와 같이, 크기조절부(120)로부터 적어도 하나의 확장된 정지영상(92)을 수신하고, 적어도 하나의 확장된 정지영상(92)으로부터 디노이징(denoising)된 영상(도 8의 97)을 하나 이상 획득하고, 디노이징된 영상(97)을 최종 영상 생성부(140)로 전달할 수 있다. 일 실시예에 따르면, 디노이징부(130)는, 노이즈 부가부(131), 영상 조합부(132), 제1 노이즈 처리부(133), 제2 노이즈 처리부(134) 및 학습 처리부(135)를 포함할 수 있다. 실시예에 따라서, 노이즈 부가부(131), 영상 조합부(132), 제1 노이즈 처리부(133), 제2 노이즈 처리부(134) 및 학습 처리부(135) 중 적어도 하나는 생략될 수도 있다.As shown in FIG. 4 , the denoising unit 130 receives at least one extended still image 92 from the size adjuster 120 , and denoises the at least one extended still image 92 . One or more denoised images ( 97 of FIG. 8 ) may be acquired, and the denoised images 97 may be transmitted to the final image generator 140 . According to an embodiment, the denoising unit 130 includes the noise adding unit 131 , the image combining unit 132 , the first noise processing unit 133 , the second noise processing unit 134 , and the learning processing unit 135 . may include In some embodiments, at least one of the noise adding unit 131 , the image combining unit 132 , the first noise processing unit 133 , the second noise processing unit 134 , and the learning processing unit 135 may be omitted.

도 5는 노이즈 추가 전후의 영상의 일례를 설명하기 위한 도면이다.5 is a diagram for explaining an example of an image before and after adding noise.

노이즈 부가부(131)는 도 5에 도시된 바와 같이 확장된 정지영상(92)에 노이즈를 부가하여 노이즈가 부가된 정지영상(93)을 획득할 수 있다. 상술한 크기조절부(120)의 동작과 같이 정지영상(91)을 과도하게 확장하게 되면, 확장된 정지영상(92)에는 불규칙적인 노이즈가 발생하게 된다. 노이즈 부가부(131)는, 이와 같이 불규칙적 노이즈를 갖는 확장된 정지영상(92)에 임의의 노이즈를 부가 및 추가함으로써, 영상(92) 내의 불규칙적인 노이즈를 대체적으로 규칙적으로 만들 수 있다. 다시 말해서, 노이즈가 부가된 정지영상(93)은 대략 규칙적인 노이즈를 가지게 된다. 실시예에 따라서, 노이즈 부가부(131)는, 영상(92, 93)이 지나치게 변형되지 않도록 하기 위해, 확장된 정지영상(92)의 총 픽셀수의 일정 비율(일례로 약 5%)만큼 노이즈를 확장된 정지영상(92)에 추가하여 노이즈가 부가된 정지영상(93)을 획득하는 것도 가능하다. 일 실시예에 의하면, 확장된 정지영상(92)에 부가되는 노이즈는 그레인(grain) 노이즈를 포함할 수 있다. 이 경우, 노이즈 부가부(131)는, 그레인 노이즈 추가를 위해 별도로 마련된 적어도 하나의 필터(92a)를 확장된 정지영상(93)에 적용함으로써, 노이즈가 부가된 정지영상(93)을 획득할 수도 있다. 노이즈의 부가에 따라서 노이즈가 부가된 정지영상(93)의 해상도는 확장된 정지영상(92)의 해상도보다 하락하게 된다. 노이즈가 부가된 정지영상(93)은 영상조합부(132)로 전달될 수 있다.As shown in FIG. 5 , the noise adding unit 131 may obtain a still image 93 to which noise is added by adding noise to the extended still image 92 . When the still image 91 is excessively expanded as in the above-described operation of the size adjuster 120 , irregular noise is generated in the expanded still image 92 . The noise adding unit 131 may generally make irregular noise in the image 92 regular by adding and adding arbitrary noise to the extended still image 92 having the irregular noise as described above. In other words, the still image 93 to which the noise is added has approximately regular noise. According to an exemplary embodiment, the noise adding unit 131 may generate noise by a certain ratio (eg, about 5%) of the total number of pixels of the expanded still image 92 in order to prevent the images 92 and 93 from being excessively deformed. It is also possible to obtain a still image 93 to which noise is added by adding ? to the extended still image 92 . According to an embodiment, the noise added to the extended still image 92 may include grain noise. In this case, the noise adding unit 131 may acquire the noise-added still image 93 by applying at least one filter 92a separately provided for adding grain noise to the extended still image 93 . have. As the noise is added, the resolution of the still image 93 to which the noise is added is lower than the resolution of the expanded still image 92 . The still image 93 to which the noise is added may be transmitted to the image combining unit 132 .

도 6은 영상조합부의 동작의 일례를 설명하기 위한 도면이다.6 is a view for explaining an example of the operation of the image combining unit.

영상조합부(132)는 노이즈 부가부(131)로부터 적어도 하나의 노이즈가 부가된 정지영상(들)(93, 93-1, 93-2, 93-3)을 수신하고, 수신한 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)을 기반으로 적어도 하나의 동영상(94)을 획득할 수 있다. 이 경우, 영상조합부(132)는, 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)을, 순차적으로 또는 임의적으로, 연결 및 조합하여 동영상(94)을 생성할 수 있으며, 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3) 각각은 생성된 동영상(94)의 동영상 프레임으로 이용된다. 여기서, 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)은, 상술한 크롭부(110), 크기조절부(120) 및 디노이징부(130)에 의해, 각각 개별적으로 크롭 처리, 크기 조절 및 노이즈 부가가 수행된 것일 수 있다. 이 경우, 각각의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)은, 동일한 방식으로 크롭되고, 동일한 크기로 조절되며 및/또는 동종의 필터(92a)를 이용하여 노이즈가 부가된 것일 수도 있다. 또한, 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)의 순차적 연결 및 조합은, 기 정의된 스토리 라인 순서를 따르거나 또는 적어도 하나의 정지영상(93, 93-1, 93-2, 93-3)의 입력 순서에 따라 적어도 하나의 노이즈가 부가된 정지영상(93, 93-1, 93-2, 93-3)이 차례대로 배치되는 것을 포함할 수 있다. 영상조합부(132)는 소정의 동영상 압축 규격(코덱)을 기반으로 하여 상술한 동영상(94)을 생성할 수도 있으며, 예를 들어, MPEG-2, MPEG-4(일례로 H.264) 포맷 등을 이용하여 동영상(94)을 생성할 수도 있다. 생성된 동영상(94)은 제1 노이즈 처리부(133)으로 전달될 수 있다.The image combining unit 132 receives the still image(s) 93 , 93-1 , 93-2 and 93-3 to which at least one noise is added from the noise adding unit 131 , and receives at least one At least one moving image 94 may be acquired based on the still images 93 , 93 - 1 , 93 - 2 and 93 - 3 to which noise is added. In this case, the image combining unit 132 connects and combines, sequentially or arbitrarily, the still images 93, 93-1, 93-2, and 93-3 to which at least one noise is added to the moving image 94. ), and each of the still images 93 , 93-1 , 93-2 and 93-3 to which noise is added is used as a moving picture frame of the generated moving picture 94 . Here, the still images 93, 93-1, 93-2, and 93-3 to which at least one noise is added are applied to the crop unit 110, the size adjustment unit 120, and the denoising unit 130 described above. Accordingly, crop processing, size adjustment, and noise addition may be performed individually. In this case, the respective noise-added still images 93, 93-1, 93-2, and 93-3 are cropped in the same way, adjusted to the same size, and/or using the same filter 92a. Therefore, noise may be added. In addition, the sequential connection and combination of the still images 93, 93-1, 93-2, and 93-3 to which at least one noise is added follows a predefined story line order or at least one still image 93 , 93-1, 93-2, 93-3) according to the input order of the at least one noise added still images (93, 93-1, 93-2, 93-3) are sequentially arranged can The image combination unit 132 may generate the above-described moving image 94 based on a predetermined moving picture compression standard (codec), for example, in MPEG-2, MPEG-4 (eg, H.264) format. The moving picture 94 may be generated using the same. The generated video 94 may be transmitted to the first noise processing unit 133 .

도 7은 제1 노이즈 처리부의 동작의 일례를 설명하기 위한 도면이다.7 is a diagram for explaining an example of the operation of the first noise processing unit.

도 7에 도시된 바를 참조하면, 제1 노이즈 처리부(133)는 적어도 하나의 동영상(94)을 영상조합부(132)로부터 획득하고, 적어도 하나의 동영상(94)에 대해 디노이징을 수행하여 제1 디노이징된 프레임(95-1)을 획득하거나 또는 제1 디노이징된 프레임(95-1)을 포함하는 제1 디노이징된 동영상(95)을 획득할 수 있다. 일 실시예에 있어서, 제1 노이즈 처리부(133)의 디노이징은, 도 7에 도시된 바와 같이, 동영상(94) 내의 적어도 두 개의 프레임(94-1, 94-2)을 이용하여 수행될 수도 있다. 여기서, 적어도 두 개의 프레임(94-1, 94-2)은 상호 연속적인 프레임일 수도 있고, 및/또는 동영상(94) 내의 모든 프레임 중에서 특정한 패턴에 따라 또는 임의적으로 선택된 상호 불연속적인 프레임일 수도 있다. Referring to FIG. 7 , the first noise processing unit 133 obtains at least one moving image 94 from the image combining unit 132 , and performs denoising on the at least one moving image 94 to obtain a second One denoised frame 95 - 1 may be obtained or a first denoised video 95 including the first denoised frame 95 - 1 may be obtained. In an embodiment, the denoising of the first noise processing unit 133 may be performed using at least two frames 94 - 1 and 94 - 2 in the moving picture 94 as shown in FIG. 7 . have. Here, the at least two frames 94 - 1 and 94 - 2 may be mutually continuous frames, and/or may be mutually discontinuous frames arbitrarily selected according to a specific pattern from among all frames in the moving picture 94 . .

실시예에 따라서, 제1 노이즈 처리부(133)는, 노이즈 처리를 위하여 먼저 적어도 하나의 프레임(일례로 제1 프레임(94-1))의 적어도 하나의 픽셀과, 적어도 하나의 다른 프레임(일례로 제2 프레임(94-2))의 적어도 하나의 픽셀 간의 차이를, 픽셀마다 검출할 수 있다. 여기서, 제1 프레임(94-1)의 적어도 하나의 픽셀과 제2 프레임(94-2)의 적어도 하나의 픽셀은 상호 대응하는 것일 수 있다. 또한, 제2 프레임(94-2)은, 제1 프레임(94-1)의 다음 순서의 프레임일 수도 있다. 이어서, 제1 노이즈 처리부(133)는, 적어도 양 프레임(94-1, 94-2)의 픽셀 간에 차이가 존재하거나 그 차이가 기준 값을 초과하는 경우, 제2 프레임(94-2)의 해당 픽셀이 흑색 내지 백색에 해당하는 값을 가지고 있는지 판단할 수 있다. 만약 제2 프레임(94-2)의 적어도 일 픽셀의 픽셀 값이 흑색 내지 백색에 해당한다고 판단되면, 제1 노이즈 처리부(133)는 해당 픽셀에 노이즈가 존재하는 것으로 판단하고, 노이즈가 존재하는 제2 프레임(94-2)의 해당 픽셀의 픽셀 값을 제1 프레임(94-1)의 대응하는 픽셀의 픽셀 값으로 대체하여 새로운 제2 프레임(95-2)를 획득할 수 있다. 이와 같이 동영상(94) 내의 모든 또는 일부의 프레임(94-1, 94-2)에 대해 노이즈 처리가 수행되면, 노이즈 처리가 수행된 프레임(95-2)을 포함하는 제1 디노이징된 동영상(95)이 획득된다. 일 실시예에 따르면, 제1 노이즈 처리부(133)는, 수신한 동영상(94)의 모든 또는 일부의 프레임(94-1, 94-2)을 추출한 후, 상술한 바와 같이 노이즈를 처리하고 노이즈가 처리된 프레임(95-2)(들)을 조합하거나 노이즈가 처리된 프레임(95-2)으로 기존의 프레임(94-2)을 대체하여 제1 디노이징된 동영상(95)을 획득하는 것도 가능하다.According to an exemplary embodiment, the first noise processing unit 133 may first perform noise processing with at least one pixel of at least one frame (eg, the first frame 94 - 1 ) and at least one other frame (eg, the first frame 94 - 1 ). A difference between at least one pixel of the second frame 94 - 2 may be detected for each pixel. Here, at least one pixel of the first frame 94 - 1 and at least one pixel of the second frame 94 - 2 may correspond to each other. Also, the second frame 94-2 may be a frame following the first frame 94-1. Next, the first noise processing unit 133 is configured to, when a difference exists between pixels of at least both frames 94 - 1 and 94 - 2 or the difference exceeds a reference value, the corresponding pixel of the second frame 94 - 2 . It may be determined whether the pixel has a value corresponding to black or white. If it is determined that the pixel value of at least one pixel of the second frame 94-2 corresponds to black or white, the first noise processing unit 133 determines that noise exists in the corresponding pixel, and A new second frame 95-2 may be acquired by replacing the pixel value of the corresponding pixel of the second frame 94-2 with the pixel value of the corresponding pixel of the first frame 94-1. As such, when noise processing is performed on all or some of the frames 94-1 and 94-2 in the moving image 94, the first denoised moving image ( 95) is obtained. According to an embodiment, the first noise processing unit 133 extracts all or some of the frames 94-1 and 94-2 of the received video 94, and then processes the noise as described above and removes the noise. It is also possible to obtain the first denoised video 95 by combining the processed frame 95-2(s) or replacing the existing frame 94-2 with the noise-processed frame 95-2. do.

실시예에 따라서, 제1 노이즈 처리부(133)는, 동영상 프로그램 등에 기 마련된 소정의 필터를 이용하여 노이즈 처리를 수행하여, 제1 디노이징된 동영상(95)을 획득할 수도 있다. 이 경우, 동영상 프로그램을 위한 노이즈 레벨의 설정 값은 -85% 내지 -80%로 설정될 수도 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the first noise processing unit 133 may obtain the first denoised moving image 95 by performing noise processing using a predetermined filter provided in a moving picture program or the like. In this case, the setting value of the noise level for the moving picture program may be set to -85% to -80%, but is not limited thereto.

제1 노이즈 처리부(133)에 의해 디노이징된 각각의 프레임(95-2) 또는 이들을 포함하는 제1 디노이징된 동영상(95)은 제2 노이즈 처리부(134)로 전달될 수 있다.Each frame 95 - 2 denoised by the first noise processing unit 133 or the first denoised moving image 95 including them may be transmitted to the second noise processing unit 134 .

제2 노이즈 처리부(134)는 제1 디노이징된 각각의 프레임(95-2) 또는 제1 디노이징된 동영상(95)을 수신하고, 제1 디노이징된 각각의 프레임(95-2) 또는 제1 디노이징된 동영상(95)을 기반으로 재차 디노이징된 영상(도 8의 96, 이하 제2 디노이징된 영상, 정지영상 및/또는 동영상일 수 있음)을 획득할 수 있다. 이 경우, 제2 노이즈 처리부(134)는 수신한 모든 또는 일부의 프레임(95-2) 또는 제1 디노이징된 동영상(95)의 모든 또는 일부의 프레임에 대해서 부가적으로 노이즈 처리를 수행할 수 있으며, 보다 구체적으로 예를 들어, 적어도 하나의 프레임 내에 존재하는 매우 작은 픽셀(일례로 1픽셀) 크기의 흑백 점(크로마 계열의 그레인 노이즈)를 제거하여 영상을 이루지 않는 픽셀을 제거하도록 할 수도 있고, 소정 개수의 프레임(일례로 4프레임) 단위로 노이즈를 측정한 후, 이들 프레임 모두에 공통적으로 측정되는 균일한 노이즈를 제거하고 노이즈에 해당하는 부분을 인근 픽셀의 픽셀 값 또는 이의 유사 값으로 대체할 수도 있으며, 노이즈를 제거하는 과정에서 생성된 블록 값을 각각의 프레임마다 설정하도록 할 수도 있고(예를 들어, 영상(95) 내의 프레임 중 손상이 없는 프레임을 선택하고, 해당 프레임을 학습하고, 학습 결과를 기반으로 다른 손상된 프레임의 블러 처리된 부분의 픽셀 값을 수정하여 수행될 수도 있음), 및/또는 영상의 확장 과정에서 부분적으로 변화된 색 영역 값을 기존의 이미지와 동일하게 수정할 수도 있다(예를 들어, 영상의 확장 시 경계나 그 주변에서는 레인보우 효과가 발생하는데, 이를 확장 전의 대응하는 위치의 픽셀 값으로 대체함으로써 수행될 수도 있음). 예시된 바 외에도 제2 노이즈 처리부(134)는, 사용자나 설계자 등의 임의적 선택에 따라 영상(95)의 화질 개선을 위해 필요한 다양한 디노이징 처리를 상술한 처리에 추가하여 또는 상술한 처리를 대체하여 수행할 수도 있다.The second noise processing unit 134 receives each of the first denoised frames 95-2 or the first denoised video 95, and receives each of the first denoised frames 95-2 or the second noise processing unit 134. Based on the first denoised video 95, a denoised image (96 of FIG. 8 , hereinafter may be a second denoised image, a still image, and/or a moving image) may be acquired. In this case, the second noise processing unit 134 may additionally perform noise processing on all or some of the received frames 95 - 2 or all or some of the frames of the first denoised video 95 . In more detail, for example, pixels that do not form an image may be removed by removing a black and white point (chroma-based grain noise) of a very small pixel size (eg, 1 pixel) existing in at least one frame. , after measuring the noise in units of a predetermined number of frames (eg, 4 frames), remove the uniform noise measured common to all of these frames, and replace the part corresponding to the noise with the pixel value of a neighboring pixel or a similar value You can also set the block value generated in the process of removing noise for each frame (for example, select a frame without damage among the frames in the image 95, learn the frame, This may be performed by correcting the pixel values of a blurred portion of another damaged frame based on the learning result), and/or correcting the partially changed color gamut value during the image expansion process to be the same as the existing image ( For example, when an image is expanded, a rainbow effect occurs at or around the boundary, which may be performed by replacing it with a pixel value of a corresponding position before expansion). In addition to the illustrated bar, the second noise processing unit 134 adds various denoising processes necessary for improving the image quality of the image 95 according to an arbitrary selection of a user or a designer, to the above-described processing, or replaces the above-described processing. can also be done

제2 노이즈 처리부(134)는, 실시예에 따라, 제1 디노이징된 각각의 프레임(95-2), 즉, 제1 디노이징된 동영상(95)의 각각의 프레임에 대해 적어도 하나의 필터(함수 등으로 지칭 가능함)를 적용하여 두번째 디노이징을 수행할 수 있다. 여기서, 적어도 하나의 필터는, 예를 들어, 디노이즈(Denoising) 필터(이 경우, 설정 값은, 예를 들어, Despot count는 1로, 임계값(Threshold)은 4/5/5로, 검색 반경은 2, 유사도 반경(Similarity radius)는 4로, 강도는 1.2로 설정되고, 블록(Block)은 48/48/3으로 설정될 수도 있음), 디그레인(Degrain) 필터(디그레인 필터 적용 시, 예를 들어, 크로마(Chroma)가 선택되고, 소프트(soft)는 0/0/0으로 설정될 수도 있음), 디블록(DeBlock) 필터(설정 값은, 예를 들어, 퀀트(Quant)는 25로, 오프셋은 0/0으로, 시큐(CQ)는 2.0으로 설정될 수도 있음), 디할로(Dehalo) 필터(해당 필터의 적용 시, 예를 들어, 리페어(repair) 및 에스모드(SMode)가 선택되고, 리페어의 모드는 17로 설정될 수도 있음), 디링(Dering) 필터(임계값으로 2가 설정될 수도 있음), 디레인보우(Derainbow) 필터(일례로 강도는 200으로, 지름은 11로 설정될 수도 있음), 더스트 제거 필터(해당 필터 채용 시, 임계 값은 10/10으로, 장면 변화는 25로, 최대 차이 선택(Max diff Choose)은 50으로, dupthresh는 64로, TRatio는 3으로, 루마 공간/시간(Luma spatial/temporal)은 100/20으로, 크로마 공간/시간(Chroma spatial/temporal)은 15/5로 설정되고, 공간 모드(Spatial mode)가 선택되며, 반복 회수는 2로 설정될 수도 있음), 샤픈(Sharpen) 필터(이 경우, 강도는 100으로, 범위 샤프닝은 11로 설정되고, 영점은 16, 파워는 4, 댐프(damp)는 4/48, 언더슛(Undershoot)은 1/2로 설정될 수 있으며, 무제한 모드에서 오버슛은 1/2로, 매끄러움은 20으로 설정되고, 모든 경계에 대해서 샤프닝 모드와, HQ 모드가 선택될 수도 있음), 라인 필터(해당 필터 적용 시, 예를 들어, 디바이스는 -1로, 강도는 1.0으로, 라인 임계값은 2/12로, 블러는 2로, 깊이는 80으로 설정될 수도 있음) 및 스태빌라이저(Stabilizer) 필터 중 적어도 하나의 필터를 포함할 수도 있으나, 이에 한정되는 것은 아니다. 또한, 상술한 필터와 관련된 설정 값(들)은, 사용자나 설계자 등에 의해, 결정될 수 있으며, 사용자나 설계자 등이 정한 설정 값들은 상술한 예시(들) 중 적어도 하나와 동일할 수도 있고 또는 상이할 수도 있다.According to an embodiment, the second noise processing unit 134 may include at least one filter ( function, etc.) to perform the second denoising. Here, the at least one filter is, for example, a denoising filter (in this case, a set value, for example, Despot count is 1, Threshold is 4/5/5, search Radius is set to 2, Similarity radius is set to 4, Intensity is set to 1.2, Block can also be set to 48/48/3), Degrain filter (when the Degrain filter is applied) , e.g. Chroma is selected, soft may be set to 0/0/0), DeBlock filter (setting values are e.g. Quant is 25, the offset may be set to 0/0, and the CQ may be set to 2.0), a Dehalo filter (when applying that filter, for example, repair and SMode) is selected, the repair mode may be set to 17), a Dering filter (a threshold value of 2 may be set), and a Derainbow filter (eg intensity of 200 and diameter of 11) ), dust removal filter (when employing that filter, Threshold to 10/10, Scene Change to 25, Max diff Choose to 50, dupthresh to 64, TRatio to 3 , Luma spatial/temporal is set to 100/20, Chroma spatial/temporal is set to 15/5, Spatial mode is selected, and the number of iterations is 2 ), Sharpen filter (in this case, intensity is set to 100, range sharpening is set to 11, zero is 16, power is 4, damp is 4/48, undershoot ) can be set to 1/2, overshoot is set to 1/2 in unlimited mode, smoothness is set to 20, sharpening mode and HQ mode may be selected for all boundaries), line filters (correspondingWhen applying a filter, for example, Device may be set to -1, Intensity to 1.0, Line Threshold to 2/12, Blur to 2, Depth to 80) and at least of a Stabilizer filter. It may include one filter, but is not limited thereto. In addition, the setting value(s) related to the above-described filter may be determined by a user or a designer, and the setting values determined by the user or designer may be the same as or different from at least one of the above-described example(s). may be

도 8은 학습 처리 결과에 따른 영상의 일례를 설명하기 위한 도면이다.8 is a diagram for explaining an example of an image according to a learning processing result.

학습처리부(135)는, 도 8에 도시된 바와 같이, 제2 노이즈 처리부(134)에 의해 획득된 제2 디노이징된 영상(96, 정지영상 또는 동영상을 포함 가능함)을 수신하고, 획득한 제2 디노이징된 영상(96) 및 적어도 하나의 학습 알고리즘(135-1)을 이용하여 최종적인 디노이징된 영상(97, 정지영상 또는 동영상을 포함할 수 있음)을 획득할 수 있다. 이 경우, 실시예에 따라서 제2 디노이징된 영상(96)의 모든 프레임 또는 일부의 프레임 각각마다 적어도 하나의 학습 알고리즘(135-1)을 기반으로 대응하는 결과가 획득될 수 있다. 적어도 하나의 학습 알고리즘(135-1)은, 제2 디노이징된 영상(96)을 입력으로 하여 화질 등이 향상된 영상(97)을 출력할 수 있도록 사전에 훈련된 것일 수 있다. 예를 들어, 학습 알고리즘(135-1)은 엣지 주변에 발생된 픽셀 번짐을 제거하거나, 주요 피사체(B) 등과 같이 원하는 부분이 획득될 영상(97)의 중심에 배치되도록 중심점을 설정할 수 있도록 사전에 훈련된 것일 수 있다. 적어도 하나의 학습 알고리즘(135-1)은, 예를 들어, 심층 신경망(DNN: Deep Neural Network), 합성곱 신경망(CNN: Convolutional Neural Network), 다층 퍼셉트론(Multi-layer Perceptron), 순환 신경망(RNN: Recurrent Neural Network), 합성곱 순환 신경망(CRNN: Convolutional Recurrent Neural Network), 심층 신뢰 신경망(DBN: Deep Belief Network), 심층 Q-네트워크(Deep Q-Networks), 장단기 메모리(LSTM: Long short term memory), 서포트 벡터 머신(SVM: support vector machine), 생성적 적대 신경망(GAN: Generative Adversarial Network) 및/또는 조건적 생성적 적대 신경망(cGAN: Conditional GAN) 등의 학습 모델을 단독으로 또는 조합하여 구현된 것일 수 있다. The learning processing unit 135, as shown in FIG. 8, receives the second denoised image 96 (possibly including a still image or a moving image) obtained by the second noise processing unit 134, and the obtained second 2 A final denoised image 97 (which may include a still image or a moving image) may be obtained by using the 2 denoised image 96 and at least one learning algorithm 135 - 1 . In this case, according to an embodiment, a corresponding result may be obtained based on at least one learning algorithm 135 - 1 for each of all or some frames of the second denoised image 96 . The at least one learning algorithm 135 - 1 may be trained in advance to output the image 97 with improved image quality, etc. by inputting the second denoised image 96 as an input. For example, the learning algorithm 135 - 1 removes the pixel blur generated around the edge or sets the center point so that the desired part, such as the main subject B, is placed in the center of the image 97 to be acquired. may have been trained in The at least one learning algorithm 135 - 1 is, for example, a deep neural network (DNN), a convolutional neural network (CNN), a multi-layer perceptron, or a recurrent neural network (RNN). : Recurrent Neural Network, Convolutional Recurrent Neural Network (CRNN), Deep Belief Network (DBN), Deep Q-Networks, Long short term memory (LSTM) ), a support vector machine (SVM), a generative adversarial network (GAN), and/or a conditional adversarial neural network (cGAN), either alone or in combination. it may have been

학습처리부(135)의 처리 결과에 따라 최종적으로 디노이징된 영상(97)을 획득할 수 있게 된다. 학습처리부(135)에 의해 처리 및 획득된 디노이징된 영상(97)은 최종 영상 생성부(140)로 전달될 수 있다.According to the processing result of the learning processing unit 135, it is possible to finally obtain the denoised image 97. The denoised image 97 processed and acquired by the learning processing unit 135 may be transmitted to the final image generating unit 140 .

최종영상생성부(140)는 최종적으로 디노이징된 영상(97)을 이용하여 도 1에 도시된 바와 같이 최종 영상(98, 정지화상 또는 동영상을 포함 가능함)을 획득하여 출력할 수 있다. 예를 들어, 최종영상생성부(140)는 최종적으로 디노이징된 영상(97)이 하나 이상의 정지영상(들)인 경우, 정지영상(들)을 연결 및 조합하면서 소정의 압축 규격을 기반으로 렌더링을 수행하여 최종적인 동영상, 즉 최종 영상(98)을 획득할 수도 있고, 동영상인 최종적으로 디노이징된 영상(97)을 소정의 압축 규격에 따라 압축하여 최종 영상(98)을 획득할 수도 있다. 최종 영상(98)은 저장부(15)나 출력부(19)로 전달되고, 사용자 등에게 시각적 및/또는 청각적으로 출력되거나 다른 정보 처리 장치 등으로 전달될 수도 있다.The final image generator 140 may finally obtain and output the final image 98 (which may include a still image or a moving image) as shown in FIG. 1 by using the finally denoised image 97 . For example, when the final denoised image 97 is one or more still image(s), the final image generating unit 140 renders it based on a predetermined compression standard while connecting and combining the still image(s). may be performed to obtain a final moving image, that is, the final image 98, or the final denoised image 97, which is a moving image, may be compressed according to a predetermined compression standard to obtain the final image 98. The final image 98 is transmitted to the storage unit 15 or the output unit 19, and may be visually and/or aurally output to a user or the like, or may be transmitted to another information processing device.

상술한 영상 처리 장치(10)는, 상술한 동작의 전부 또는 일부를 수행하기 위하여 특별히 고안된 적어도 하나의 장치를 이용하여 구현될 수도 있고, 또는 적어도 하나의 정보처리장치를 단독으로 이용하거나 조합 이용함으로써 구현될 수도 있다. 여기서, 적어도 하나의 정보처리장치는, 예를 들어, 데스크톱 컴퓨터, 랩톱 컴퓨터, 서버용 하드웨어 장치, 스캐너 장치, 프린터 장치, 삼차원 프린터 장치, 스마트 폰, 태블릿 피씨, 스마트 시계, 스마트 태그, 스마트 밴드, 두부 장착형 디스플레이(HMD: Head Mounted Display) 장치, 휴대용 게임기, 개인용 디지털 보조기(PDA: Personal Digital Assistant), 내비게이션 장치, 스마트 키, 리모트 컨트롤러(리모컨), 디지털 텔레비전, 셋 톱 박스, 디지털 미디어 플레이어 장치, 미디어 스트리밍 장치, 디브이디 재생 장치, 컴팩트 디스크 재생 장치, 음향 재생 장치(인공 지능 스피커 등), 가전 기기(일례로 냉장고, 선풍기, 공조기, 오븐 또는 세탁기 등), 유인 또는 무인 이동체(일례로 승용차, 버스나 이륜차와 같은 차량, 이동성 로봇, 무선 모형 차량, 로봇 청소기 등), 유인 또는 무인 비행체(일례로 항공기나, 헬리콥터나, 드론, 모형 비행기, 모형 헬리콥터 등), 의료 시스템, 가정용, 산업용 또는 군사용 로봇, 산업용 또는 군사용 기계, 전자 칠판, 또는 전자 광고판 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 설계자나 사용자 등은 상황이나 조건에 따라서 상술한 정보처리장치 이외에도 정보의 연산 처리 및 제어가 다양한 장치 중 적어도 하나를 상술한 영상 처리 장치(10)로 고려하여 채용할 수 있다.The above-described image processing apparatus 10 may be implemented using at least one device specially designed to perform all or part of the above-described operations, or by using at least one information processing apparatus alone or in combination. may be implemented. Here, the at least one information processing device is, for example, a desktop computer, a laptop computer, a server hardware device, a scanner device, a printer device, a 3D printer device, a smart phone, a tablet PC, a smart watch, a smart tag, a smart band, a head Head Mounted Display (HMD) Devices, Handheld Game Machines, Personal Digital Assistants (PDAs), Navigation Devices, Smart Keys, Remote Controllers (Remote Controls), Digital Televisions, Set Top Boxes, Digital Media Player Devices, Media Streaming devices, DVD playback devices, compact disc playback devices, sound playback devices (such as artificial intelligence speakers), home appliances (such as refrigerators, fans, air conditioners, ovens or washing machines), manned or unmanned vehicles (such as cars, buses or Vehicles such as two-wheeled vehicles, mobile robots, wireless model vehicles, robotic vacuums, etc.), manned or unmanned aerial vehicles (such as aircraft, helicopters, drones, model airplanes, model helicopters, etc.), medical systems, household, industrial or military robots; It may include, but is not limited to, an industrial or military machine, an electronic blackboard, or an electronic billboard. A designer, a user, or the like may consider and employ, as the image processing device 10 , at least one of devices capable of arithmetic processing and control of information in addition to the above-described information processing device according to circumstances or conditions.

도 9는 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 최대 신호 대 잡음비(PSNR: Peak Signal-to-noise ratio)를 도시한 도면으로, y축은 최대 신호 대 잡음비를 의미하고, x축은 프레임을 의미한다. 녹색선은 상술한 영상 처리 장치(10)에 대한 최대 신호 대 잡음비를, 황색선은 단순 스케일 업만 영상에 적용했을 시의 최대 신호 대 잡음비를 나타낸다.9 is a diagram illustrating a peak signal-to-noise ratio (PSNR) between an output result of an image processing apparatus and a simple scale-up result, where the y-axis means the maximum signal-to-noise ratio, and the x-axis represents the frame. it means. The green line indicates the maximum signal-to-noise ratio for the image processing apparatus 10 described above, and the yellow line indicates the maximum signal-to-noise ratio when only simple scale-up is applied to the image.

도 9에 도시된 바를 참조하면, 영상 처리 장치(10)에 대한 최대 신호 대 잡음비는, 실측 결과 그 값이 대략 40을 중후반을 중심으로 큰 폭의 변화 없이 유지되고 있고, 평균 값은 약 41 정도로 나타나나, 단순 스케일 업만 한 경우에는 최대 신호 대 잡음비가 대략 15 이상 내지 30 이하에서 상당히 큰 폭으로 변화하고 있고, 그 평균 값은 약 18 정도로 나타났다. 이 점은 상술한 영상 처리 장치(10)의 처리에 의해 조합된 동영상의 노이즈가 매우 큰 폭으로 개선되었음을 의미한다.Referring to FIG. 9 , the maximum signal-to-noise ratio for the image processing apparatus 10 is maintained without significant change centered on the mid-to-late mid-to-late value of 40 as a result of measurement, and the average value is about 41 However, in the case of simple scale-up, the maximum signal-to-noise ratio varies considerably from about 15 to 30 or more, and the average value thereof is about 18. This means that the noise of the video combined by the processing of the above-described image processing apparatus 10 is greatly improved.

도 10은 영상 처리 장치의 출력 결과 및 단순 스케일 업 결과 간의 구조적 유사도 인덱스 맵(SSIM: Structural Similarity Index Map)을 도시한 도면으로, y축은 원본 영상과의 유사도를 의미하고, x축은 프레임을 의미한다. 녹색선은 상술한 영상 처리 장치(10)에 대한 원본 영상과의 유사도를, 황색선은 단순 스케일 업만 영상에 적용했을 시의 원본 영상과의 유사도를 의미한다.10 is a diagram illustrating a Structural Similarity Index Map (SSIM) between an output result of an image processing apparatus and a simple scale-up result. The y-axis means similarity to the original image, and the x-axis means a frame. . The green line indicates the degree of similarity with the original image of the image processing apparatus 10 described above, and the yellow line indicates the degree of similarity with the original image when only simple scale-up is applied to the image.

도 10에 도시된 바를 참조하면, 영상 처리 장치(10)의 처리 결과 획득된 영상과 원본 영상과의 유사도는 매 프레임에 대해서 거의 1의 값에 근사하며, 대체적으로 0.95 이상을 나타낼 뿐만 아니라, 대체적으로 그 변화의 폭이 작다. 또한, 영상 처리 장치(10)에 의해 생성된 영상과 원본 영상의 유사도의 평균은 0.98로 나타났다. 이는 상술한 영상 처리 과정은 원본 영상을 거의 98% 보존함을 의미한다. 반면에 단순 스케일 업만 한 영상의 경우에는 영상의 유사도는 대략 0.7 내지 0.95 사이의 값을 가지며, 프레임마다 그 값이 매우 크게 변화하고 있다. 또한, 단순 스케일 업만 한 영상과 원본 영상과의 유사도의 평균은 0.87로, 상술한 영상 처리 장치(10)에 대한 유사도의 평균인 0.98에 비해 상당히 낮다. 이는 단순 스케일 업만을 수행했을 경우, 원본 영상의 보존율이 프레임에 따라 크게 차이가 나며, 영상의 품질이 상당히 저하됨을 나타내고 있다.Referring to FIG. 10 , the similarity between the image obtained as a result of the processing of the image processing apparatus 10 and the original image is approximately 1 for every frame, and generally represents 0.95 or more, and generally Therefore, the range of change is small. Also, the average of the similarity between the image generated by the image processing apparatus 10 and the original image was 0.98. This means that the above-described image processing process preserves almost 98% of the original image. On the other hand, in the case of a simple scale-up image, the similarity of the image has a value between about 0.7 and 0.95, and the value changes significantly for each frame. Also, the average of the similarity between the simple scale-up image and the original image is 0.87, which is significantly lower than the 0.98 average of the similarity to the image processing apparatus 10 described above. This indicates that when only simple scale-up is performed, the retention rate of the original image varies greatly depending on the frame, and the quality of the image is significantly deteriorated.

따라서, 도 9 및 도 10에 도시된 바와 같이, 상술한 영상 처리 장치(10)는, 정지 영상을 조합하여 동영상을 생성할 때, 원본 영상과 최대한 동일하면서 노이즈는 매우 적은 동영상을 생성하는 효과가 있음을 알 수 있다.Therefore, as shown in FIGS. 9 and 10 , when the above-described image processing apparatus 10 generates a moving image by combining still images, the effect of generating a moving image with as much as possible the same as the original image and very little noise is effective. it can be seen that there is

이하 도 11을 참조하여 영상 처리 방법의 여러 실시예에 대해서 설명하도록 한다.Hereinafter, various embodiments of an image processing method will be described with reference to FIG. 11 .

도 11은 영상 처리 방법의 일 실시예에 대한 흐름도이다.11 is a flowchart of an image processing method according to an embodiment.

도 11에 도시된 바를 참조하면, 먼저 다수의 정지영상이 획득될 수 있다(200). 다수의 정지영상은, 예를 들어, 실사 사진, 도안 또는 만화(일례로 코믹, 카툰 또는 웹툰 등의 하나 이상의 컷) 등을 포함할 수 있다. 다수의 정지 영상은 실시예에 따라서 시간적으로 또는 스토리적으로 연속된 것일 수도 있다. 다수의 정지영상의 획득은, 사용자나 설계자 등의 직접 입력, 외부의 저장매체로부터의 전달 및/또는 크롤링 등을 이용한 웹 서버 등으로부터의 전달 등을 기반으로 수행될 수도 있다.Referring to FIG. 11 , a plurality of still images may be acquired first ( 200 ). The plurality of still images may include, for example, live-action photos, designs, or cartoons (eg, one or more cuts such as comics, cartoons, or webtoons). The plurality of still images may be temporally or story-wise consecutive according to an embodiment. The acquisition of a plurality of still images may be performed based on a direct input of a user or a designer, transmission from an external storage medium, and/or transmission from a web server using crawling or the like.

적어도 하나의 정지영상은 각각 소정의 비율에 따라 크롭될 수 있다(210). 이에 따라 적어도 하나의 정지영상 각각마다 대응하는 적어도 하나의 크롭된 영상이 획득될 수 있다. 크롭은 정지영상의 가로 길이, 세로 길이 또는 가로 길이와 세로 길이 사이의 비율에 따라 수행될 수 있다. 이 경우, 크롭은 정지영상의 가로 길이가 세로 길이에 대해서 기설정된 비율보다 작다면 정지영상의 상측 일부분 및 하측 일부분 중 적어도 하나를 제거하고, 정지영상의 세로 길이가 가로 길이에 대해서 기설정된 비율보다 작다면 정지영상의 좌측 일부분 및 우측 일부분 중 적어도 하나를 제거하여 수행되는 것도 가능하다. 실시예에 따라서, 크롭은 정지영상의 적어도 하나의 중심선이 이용하여 수행되는 것도 가능하다. 또한, 크롭은 정지영상 내의 주요 피사체가 크롭된 정지영상 내에 적절하게 존재하도록 수행될 수도 있다.At least one still image may be cropped according to a predetermined ratio ( 210 ). Accordingly, at least one cropped image corresponding to each of the at least one still image may be obtained. Cropping may be performed according to a horizontal length, a vertical length, or a ratio between a horizontal length and a vertical length of the still image. In this case, if the horizontal length of the still image is smaller than a predetermined ratio with respect to the vertical length, the crop removes at least one of the upper part and the lower part of the still image, and the vertical length of the still image is greater than the preset ratio with respect to the horizontal length. If it is small, it may be performed by removing at least one of a left part and a right part of the still image. According to an embodiment, the cropping may be performed using at least one center line of the still image. Also, cropping may be performed so that a main subject in the still image is appropriately present in the cropped still image.

적어도 하나의 크롭된 정지 영상은 그 크기가 확대될 수 있다(220). 예를 들어, 1920*1080(FHD) 크기의 크롭된 정지영상은 3840*2160(UHD) 크기로 확장될 수도 있다. 이 경우, 크기의 확장은 픽셀의 복제 등을 통해 수행되는 것도 가능하다. 크기의 확대 과정(220)은 실시예에 따라 생략될 수도 있다.At least one cropped still image may be enlarged in size ( 220 ). For example, a cropped still image having a size of 1920*1080 (FHD) may be extended to a size of 3840*2160 (UHD). In this case, the size expansion may be performed through duplication of pixels or the like. The process of enlarging the size 220 may be omitted in some embodiments.

적어도 하나의 크롭된 정지 영상 또는 적어도 하나의 확장된 정지영상에 노이즈가 부가될 수 있다(230). 노이즈의 부가에 따라 영상은 대체적으로 규칙적인 노이즈를 가지게 된다. 여기서, 노이즈는 그레인 노이즈를 포함할 수 있다. 크롭된 정지 영상 또는 확장된 정지영상에 대한 노이즈의 추가는 소정의 필터(일례로 그레인 필터 등)을 이용하여 수행될 수도 있다.Noise may be added to the at least one cropped still image or the at least one extended still image ( 230 ). According to the addition of noise, the image generally has regular noise. Here, the noise may include grain noise. The addition of noise to the cropped still image or the extended still image may be performed using a predetermined filter (eg, a grain filter).

적어도 하나의 노이즈가 부가된 정지 영상은 연결 및 조합되고, 이에 따라 적어도 하나의 동영상이 획득될 수도 있다(240). 동영상의 획득은, 적어도 하나의 노이즈가 부가된 정지 영상을 순차적으로 조합하거나 또는 임의적으로 조합하여 수행될 수 있다. 이 경우, 적어도 하나의 노이즈가 부가된 정지 영상은 동영상의 각각의 프레임을 이루게 된다. 영상의 획득은 소정의 동영상 압축 규격을 기반으로 수행될 수도 있다.Still images to which at least one noise is added are connected and combined, and thus at least one moving image may be obtained ( 240 ). Acquisition of the moving image may be performed by sequentially or arbitrarily combining still images to which at least one noise is added. In this case, the still image to which at least one noise is added constitutes each frame of the moving picture. Image acquisition may be performed based on a predetermined video compression standard.

생성된 동영상을 기반으로 디노이징 처리가 수행된다(260). 일 실시예에 따르면, 디노이징 처리는 다수의 과정을 거쳐 수행될 수도 있다. A denoising process is performed based on the generated video ( 260 ). According to an embodiment, the denoising process may be performed through a plurality of processes.

예를 들어, 먼저 제1 디노이징이 수행된다. 제1 디노이징 과정에서는 디노이징을 위해 먼저 생성된 동영상의 적어도 두 개의 프레임(일례로 연속된 프레임)의 적어도 하나의 픽셀에 대한 차이가, 픽셀마다 검출될 수 있다. 즉, 제1 프레임의 적어도 하나의 픽셀과, 제1 프레임의 적어도 하나의 픽셀에 대응하는 제2 프레임(일례로 제1 프레임의 다음 순서의 프레임)의 적어도 하나의 픽셀 간의 차이가 검출될 수 있다. 만약 제1 프레임 및 제2 프레임의 서로 대응하는 픽셀 간에 차이가 존재하고, 제2 프레임의 적어도 하나의 픽셀이 흑색 내지 백색에 해당하는 값을 가지고 있다면, 제2 프레임의 적어도 하나의 픽셀에, 제2 프레임의 적어도 하나의 픽셀에 대응하는 제1 프레임의 픽셀의 픽셀 값을 기록할 수 있다. 이 경우, 제2 프레임의 적어도 하나의 픽셀의 기존의 픽셀 값은 삭제된다. 이와 같은 디노이징 과정은 모든 프레임 또는 일부의 프레임에 대해 수행될 수 있다.For example, first denoising is performed. In the first denoising process, a difference with respect to at least one pixel of at least two frames (eg, consecutive frames) of a moving picture first generated for denoising may be detected for each pixel. That is, a difference between at least one pixel of the first frame and at least one pixel of a second frame (eg, a frame next to the first frame) corresponding to the at least one pixel of the first frame may be detected. . If there is a difference between corresponding pixels of the first frame and the second frame, and at least one pixel of the second frame has a value corresponding to black to white, at least one pixel of the second frame, A pixel value of a pixel of the first frame corresponding to at least one pixel of the second frame may be recorded. In this case, the existing pixel value of at least one pixel of the second frame is deleted. This denoising process may be performed on all frames or some frames.

제1로 디노이징된 프레임 또는 이들을 포함하는 동영상에 대해 제2 디노이징이 수행될 수 있다. 이에 따라 제2 디노이징 영상이 획득될 수 있다. 예를 들어, 제2 디노이징은, 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해, 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하거나, 소정 개수의 프레임마다 존재하는 균일한 노이즈를 해당 노이즈가 존재하는 픽셀 주변의 픽셀 값 또는 이의 유사 값으로 대체하거나, 블록 값을 각각의 프레임마다 설정하거나 및/또는 영상의 확장 과정에서 부분적으로 변화된 색 영역 값을 보정하는 것 등을 포함할 수도 있다. 이러한 제2 디노이징을 위해서 적어도 하나의 필터가 이용될 수도 있으며, 적어도 하나의 필터는, 실시예에 따라서, 디노이즈 필터, 디그레인 필터, 디블록 필터, 디할로 필터, 디링 필터, 디레인보우 필터, 더스트 제거 필터, 샤픈 필터, 라인 필터 및 스태빌라이저 필터 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.Second denoising may be performed on the first denoised frame or a moving picture including them. Accordingly, a second denoising image may be obtained. For example, in the second denoising, chroma-based grain noise having a very small pixel size is removed from at least one frame among all frames of the first denoised moving image, or uniformly existing in every predetermined number of frames. This includes replacing the noise with a pixel value or a similar value around the pixel in which the noise exists, setting the block value for each frame, and/or correcting the partially changed color gamut value during the image expansion process. You may. At least one filter may be used for the second denoising, and the at least one filter may include a denoise filter, a degrain filter, a deblock filter, a dehalo filter, a dering filter, and a derainbow filter, according to an embodiment. , a dust removal filter, a sharpen filter, a line filter, and at least one of a stabilizer filter, but is not limited thereto.

제2 디노이징 처리된 영상은 적어도 하나의 학습 알고리즘을 채용하여 다시 보정된다. 이 경우, 적어도 하나의 학습 알고리즘은, 제2 디노이징된 영상을 입력 값으로 하고 최종적으로 디노이징된 영상을 출력 값으로 하도록 훈련된 것일 수 있다. 학습 알고리즘 기반의 보정은, 예를 들어, 경계(엣지) 주변에 발생된 픽셀 번짐을 제거하거나 주요 피사체의 위치 보정 등을 위해 이용될 수도 있다. 학습 알고리즘은 합성곱 신경망이나 심층 신경망 등을 사용자나 설계자의 선택에 따라 채용 가능한 적어도 하나의 학습 알고리즘을 포함할 수 있다.The second denoising-processed image is re-corrected by employing at least one learning algorithm. In this case, the at least one learning algorithm may be trained to use the second denoised image as an input value and finally to use the denoised image as an output value. The learning algorithm-based correction may be used, for example, to remove pixel blur generated around a boundary (edge) or to correct the position of a main subject. The learning algorithm may include at least one learning algorithm that can employ a convolutional neural network or a deep neural network according to a user's or designer's selection.

최종적으로 디노이징된 영상으로부터 최종 영상(동영상)이 획득된다(262). 최종 영상의 획득은, 최종적으로 디노이징된 정지영상을 조합하고 소정의 압축 규격에 따라 렌더링함으로써 수행될 수도 있고, 및/또는 최종적으로 디노이징된 동영상을 소정 압축 규격에 이용하여 렌더링함으로써 수행될 수도 있다. 최종 영상은 소정의 저장 매체에 저장되거나, 및/또는 유무선 통신 네트워크 등을 통해 소정의 정보처리장치(일례로 스마트폰이나 데스크톱 컴퓨터 등) 등으로 전달될 수 있다.Finally, a final image (movie) is obtained from the denoised image ( 262 ). Acquisition of the final image may be performed by combining the finally denoised still image and rendering according to a predetermined compression standard, and/or may be performed by rendering the finally denoised moving image according to the predetermined compression standard. have. The final image may be stored in a predetermined storage medium and/or transmitted to a predetermined information processing device (eg, a smart phone or a desktop computer) through a wired/wireless communication network or the like.

상술한 실시예에 따른 영상 처리 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 프로그램은, 명령어, 라이브러리, 데이터 파일 및/또는 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다. 상술한 영상 처리 방법을 구현하기 위한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 롬, 램 또는 플래시 메모리(일례로 솔리드 스테이트 드라이브(SSD) 등)와 같은 반도체 저장 매체나, 하드 디스크나 플로피 디스크와 같은 자기 디스크 저장 매체나, 콤팩트 디스크나 디브이디 등과 같은 광 기록 매체 등 컴퓨터 등의 호출에 따라 실행되는 하나 이상의 프로그램을 일시적 또는 비일시적으로 저장 가능한 적어도 한 종류의 물리적 저장 매체를 포함할 수 있다.The image processing method according to the above-described embodiment may be implemented in the form of a program that can be driven by a computer device. The program may include instructions, libraries, data files and/or data structures alone or in combination, and may be designed and manufactured using machine code or high-level language code. The program may be specially designed to implement the above-described method, or may be implemented using various functions or definitions that are known and available to those skilled in the art of computer software. In addition, here, the computer device may be implemented including a processor or memory that enables the function of the program to be realized, and may further include a communication device if necessary. A program for implementing the above-described image processing method may be recorded in a computer-readable recording medium. The computer-readable recording medium includes, for example, a semiconductor storage medium such as a ROM, RAM or flash memory (eg, a solid state drive (SSD), etc.), a magnetic disk storage medium such as a hard disk or a floppy disk, At least one type of physical storage medium capable of temporarily or non-temporarily storing one or more programs executed in response to a computer call, such as an optical recording medium such as a compact disk or DVD, may be included.

이상 영상 처리 장치 및 영상 처리 방법의 실시예에 대해 설명하였으나, 영상 처리 장치 또는 영상 처리 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현할 수 있는 다른 다양한 장치나 방법 역시 상술한 영상 처리 장치 또는 영상 처리 방법의 일 실시예가 될 수 있다. 예를 들어, 설명된 방법(들)이 설명된 바와 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소(들)가 설명된 바와 다른 형태로 결합, 연결 또는 조합되거나 다른 구성 요소 또는 균등물 등에 의하여 대치 또는 치환되더라도, 상술한 영상 처리 장치 및/또는 영상 처리 방법의 일 실시예가 될 수 있다.Although the embodiments of the image processing apparatus and the image processing method have been described above, the image processing apparatus or the image processing method is not limited only to the above-described embodiments. Various other devices or methods that can be implemented by a person skilled in the art by modifying and modifying the above-described embodiment based on the above-described embodiment may also be an embodiment of the above-described image processing apparatus or image processing method. For example, the described method(s) are performed in a different order than described, and/or the described component(s) of a system, structure, apparatus, circuit, etc., are combined, connected, or otherwise configured in a different manner than described. Even if they are combined or replaced or substituted by other components or equivalents, the above-described image processing apparatus and/or image processing method may be an embodiment.

10: 영상 처리 장치 90: 영상
91: 크롭된 정지영상 92: 확장된 정지영상
93: 노이즈가 부가된 정지영상 94: 동영상
95: 제1 디노이징된 영상 96: 제2 디노이징된 영상
97: 최종 디노이징된 영상 98: 최종 영상
100: 프로세서 110: 크롭부
120: 크기조절부 130: 디노이징부
140: 최종영상생성부
10: image processing device 90: image
91: Cropped still image 92: Expanded still image
93: Still image with noise added 94: Movie
95: first denoised image 96: second denoised image
97: final denoised image 98: final image
100: processor 110: crop unit
120: size adjustment unit 130: denoising unit
140: final image generation unit

Claims (16)

정지 영상인 적어도 하나의 원 영상을 획득하는 입력부;
상기 적어도 하나의 원 영상의 일부를 크롭하여 상기 적어도 하나의 원영상으로부터 적어도 하나의 크롭된 정지영상을 획득하고, 상기 적어도 하나의 크롭된 정지 영상의 크기를 확장하여 적어도 하나의 확장된 정지영상을 획득하고, 상기 적어도 하나의 확장된 정지영상에 임의의 노이즈를 부가하여 상기 적어도 하나의 확장된 정지영상이 규칙적인 노이즈를 가지게 하고, 상기 임의의 노이즈가 부가된 적어도 하나의 정지 영상을 조합하여 동영상을 생성하고, 상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하고, 적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 프로세서;를 포함하고,
상기 프로세서는,
상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하고,
상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단하고,
상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단되면, 상기 제2 프레임의 픽셀 값을 상기 제2 프레임의 픽셀에 대응하는 상기 제1 프레임의 픽셀의 픽셀 값으로 대체하여 제1 디노이징 영상을 획득하는 영상 처리 장치.
an input unit for acquiring at least one original image that is a still image;
At least one cropped still image is obtained from the at least one original image by cropping a portion of the at least one original image, and at least one extended still image is obtained by expanding the size of the at least one cropped still image. acquiring, adding a random noise to the at least one extended still image so that the at least one extended still image has regular noise, and combining the at least one still image to which the random noise is added. a processor for generating a video, performing denoising processing on at least one frame of the video, and obtaining a video corresponding to the at least one still image based on a denoising process result for the at least one frame; do,
The processor is
detecting a difference between a pixel of a first frame and a pixel of a second frame of the video;
If there is a difference between the pixel of the first frame and the pixel of the second frame, and the pixel value of the pixel of the second frame has a value corresponding to black or white, noise is generated in the pixel of the second frame judged to exist,
When it is determined that noise exists in the pixels of the second frame, the pixel values of the second frame are replaced with the pixel values of the pixels of the first frame corresponding to the pixels of the second frame to obtain a first denoised image image processing device.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 프로세서는, 상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 영상 처리 장치.
According to claim 1,
The processor may be configured to obtain a second denoised image by applying at least one filter to the first denoised image.
제5항에 있어서,
상기 프로세서는, 상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해, 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하거나, 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하거나, 블록 값을 영상 내의 각 프레임마다 설정하거나 또는 영상 내에서 부분적으로 변화된 색 영역 값을 보정하여 상기 제2 디노이징 영상을 획득하는 영상 처리 장치.
6. The method of claim 5,
The processor removes chroma-based grain noise of a very small pixel size from at least one frame among all frames of the first denoised video, or a pixel value in which noise is uniformly present every predetermined number of frames An image processing apparatus for obtaining the second denoising image by substituting a pixel value or a similar value around the pixel, setting a block value for each frame in the image, or correcting a partially changed color gamut value in the image.
제5항에 있어서,
상기 프로세서는, 학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득하는 영상 처리 장치.
6. The method of claim 5,
The processor is an image processing apparatus for obtaining a final denoising image corresponding to the second denoising image by using a learning algorithm.
제1항에 있어서,
상기 적어도 하나의 정지영상에 부가되는 노이즈는 그레인 노이즈를 포함하는 영상 처리 장치.
According to claim 1,
The noise added to the at least one still image includes grain noise.
정지영상인 적어도 하나의 원 영상을 획득하는 단계;
상기 적어도 하나의 원 영상의 일부를 크롭하여 상기 적어도 하나의 원 영상으로부터 적어도 하나의 크롭된 정지영상을 획득하는 단계;
상기 적어도 하나의 크롭된 정지 영상의 크기를 확장하여 적어도 하나의 확장된 정지영상을 획득하는 단계;
상기 적어도 하나의 확장된 정지영상에 임의의 노이즈를 부가하여 상기 적어도 하나의 확장된 정지영상이 규칙적인 노이즈를 가지게 하는 단계;
상기 임의의 노이즈가 부가된 적어도 하나의 정지 영상을 조합하여 동영상을 생성하는 단계;
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계; 및
적어도 하나의 프레임에 대한 디노이징 처리 결과를 기반으로 상기 적어도 하나의 정지영상에 대응하는 동영상을 획득하는 단계;를 포함하고,
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는,
상기 동영상의 제1 프레임의 픽셀 및 제2 프레임의 픽셀 간의 차이를 검출하는 단계;
상기 제1 프레임의 픽셀 및 상기 제2 프레임의 픽셀 사이의 차이가 존재하고, 상기 제2 프레임의 픽셀의 픽셀 값이 흑색 또는 백색에 해당하는 값을 갖는다면, 상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단하는 단계; 및
상기 제2 프레임의 픽셀에 노이즈가 존재한다고 판단되면, 상기 제2 프레임의 픽셀을 상기 제1 프레임의 대응하는 픽셀의 픽셀 값으로 대체하여 제1 디노이징 영상을 획득하는 단계;를 포함하는 영상 처리 방법.
acquiring at least one original image that is a still image;
obtaining at least one cropped still image from the at least one original image by cropping a portion of the at least one original image;
obtaining at least one extended still image by expanding the size of the at least one cropped still image;
adding a random noise to the at least one extended still image so that the at least one extended still image has regular noise;
generating a moving picture by combining the at least one still image to which the random noise is added;
performing denoising processing on at least one frame of the moving picture; and
Including; obtaining a moving picture corresponding to the at least one still image based on the denoising processing result of the at least one frame;
The denoising process on at least one frame of the video includes:
detecting a difference between a pixel of a first frame and a pixel of a second frame of the moving picture;
If there is a difference between the pixel of the first frame and the pixel of the second frame, and the pixel value of the pixel of the second frame has a value corresponding to black or white, noise is generated in the pixel of the second frame determining that it exists; and
if it is determined that noise is present in the pixels of the second frame, replacing the pixels of the second frame with the pixel values of the corresponding pixels of the first frame to obtain a first denoised image; Way.
삭제delete 삭제delete 삭제delete 제9항에 있어서,
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는,
상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계;를 더 포함하는 영상 처리 방법.
10. The method of claim 9,
The denoising process on at least one frame of the video includes:
and obtaining a second denoising image by applying at least one filter to the first denoising image.
제13항에 있어서,
상기 제1 디노이징 영상에 적어도 하나의 필터를 적용하여 제2 디노이징 영상을 획득하는 단계는,
상기 제1 디노이징된 동영상의 모든 프레임 중 적어도 하나의 프레임에 대해 매우 작은 픽셀 크기의 크로마 계열의 그레인 노이즈를 제거하는 단계;
상기 제1 디노이징된 동영상의 모든 프레임 중 소정 개수의 프레임마다 균일하게 노이즈가 존재하는 픽셀의 값을 상기 픽셀 주변의 픽셀 값 또는 유사 값으로 대체하는 단계;
블록 값을 영상 내의 각 프레임마다 설정하는 단계; 및
영상 내에서 부분적으로 변화된 색 영역 값을 보정하는 단계; 중 적어도 하나를 포함하는 영상 처리 방법.
14. The method of claim 13,
obtaining a second denoising image by applying at least one filter to the first denoising image,
removing chroma-based grain noise having a very small pixel size for at least one frame among all frames of the first denoised video;
replacing a pixel value in which noise is uniformly in every predetermined number of frames among all frames of the first denoised moving picture with a pixel value or similar value around the pixel;
setting a block value for each frame in the image; and
correcting a partially changed color gamut value in an image; An image processing method comprising at least one of
제13항에 있어서,
상기 동영상의 적어도 하나의 프레임에 대해 디노이징 처리를 수행하는 단계는,
학습 알고리즘을 이용하여 상기 제2 디노이징 영상에 대응하는 최종 디노이징 영상을 획득하는 단계;를 더 포함하는 영상 처리 방법.
14. The method of claim 13,
The denoising process on at least one frame of the video includes:
and obtaining a final denoising image corresponding to the second denoising image by using a learning algorithm.
제9항에 있어서,
상기 적어도 하나의 정지영상에 부가되는 노이즈는, 그레인 노이즈를 포함하는 영상 처리 방법.
10. The method of claim 9,
The noise added to the at least one still image includes grain noise.
KR1020210162082A 2021-11-23 2021-11-23 Apparatus of processing image and method thereof Active KR102452881B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210162082A KR102452881B1 (en) 2021-11-23 2021-11-23 Apparatus of processing image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210162082A KR102452881B1 (en) 2021-11-23 2021-11-23 Apparatus of processing image and method thereof

Publications (1)

Publication Number Publication Date
KR102452881B1 true KR102452881B1 (en) 2022-10-11

Family

ID=83599051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210162082A Active KR102452881B1 (en) 2021-11-23 2021-11-23 Apparatus of processing image and method thereof

Country Status (1)

Country Link
KR (1) KR102452881B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102734559B1 (en) * 2023-11-16 2024-11-26 주식회사 웹툰올 Apparatus for Webtoon Serial Service and Driving Method Thereof
WO2025056001A1 (en) * 2023-09-15 2025-03-20 北京字跳网络技术有限公司 Video generation method and apparatus, and electronic device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040092131A (en) * 2003-04-25 2004-11-03 엘지전자 주식회사 method for reduction of impulse noise in display device
KR20130084232A (en) * 2010-05-11 2013-07-24 톰슨 라이센싱 Comfort noise and film grain processing for 3 dimensional video
KR101791573B1 (en) 2016-10-21 2017-10-31 서강대학교산학협력단 Super resolution system and method with convolution neural network
KR20200092197A (en) * 2019-01-24 2020-08-03 팅크웨어(주) Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image
KR20200127809A (en) * 2019-05-02 2020-11-11 삼성전자주식회사 Electronic apparatus and image processing method thereof
KR20210019780A (en) 2019-08-13 2021-02-23 엘지디스플레이 주식회사 System and method for processing image
KR20210116923A (en) * 2020-03-18 2021-09-28 에스케이텔레콤 주식회사 Method for Training a Denoising Network, Method and Device for Operating Image Processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040092131A (en) * 2003-04-25 2004-11-03 엘지전자 주식회사 method for reduction of impulse noise in display device
KR20130084232A (en) * 2010-05-11 2013-07-24 톰슨 라이센싱 Comfort noise and film grain processing for 3 dimensional video
KR101791573B1 (en) 2016-10-21 2017-10-31 서강대학교산학협력단 Super resolution system and method with convolution neural network
KR20200092197A (en) * 2019-01-24 2020-08-03 팅크웨어(주) Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image
KR20200127809A (en) * 2019-05-02 2020-11-11 삼성전자주식회사 Electronic apparatus and image processing method thereof
KR20210019780A (en) 2019-08-13 2021-02-23 엘지디스플레이 주식회사 System and method for processing image
KR20210116923A (en) * 2020-03-18 2021-09-28 에스케이텔레콤 주식회사 Method for Training a Denoising Network, Method and Device for Operating Image Processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
일본국 공개특허공보 제2011-180798호("화상 처리 장치 및 화상 처리 방법 및 프로그램", SONY CORP, 2011.09.15)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025056001A1 (en) * 2023-09-15 2025-03-20 北京字跳网络技术有限公司 Video generation method and apparatus, and electronic device and storage medium
KR102734559B1 (en) * 2023-11-16 2024-11-26 주식회사 웹툰올 Apparatus for Webtoon Serial Service and Driving Method Thereof

Similar Documents

Publication Publication Date Title
US12579838B2 (en) Perspective distortion correction on faces
US11205256B2 (en) Image transformation by fusion
US9525821B2 (en) Video stabilization
US8494217B2 (en) Image processing apparatus, image processing method, and program
KR20170047167A (en) Method and apparatus for converting an impression of a face in video
KR102452881B1 (en) Apparatus of processing image and method thereof
EP3654240B1 (en) Image processing apparatus and control method thereof
KR20220029212A (en) Electronic apparatus and controlling method thereof
JP2019160299A (en) Automated tracking and retaining of articulated object in sequence of image frames
US11805312B2 (en) Multi-media content modification
KR102559721B1 (en) Control method of electronic apparatus for selectively restore images according to field of view of user
CN105578035A (en) Image processing method and electronic device
JP7154071B2 (en) Driving state monitoring support system, driving state monitoring support method and program
US10360943B2 (en) Method, device and system for editing video
US9953448B2 (en) Method and system for image processing
US12205246B2 (en) Method and apparatus for improved object detection
EP3259738B1 (en) Using features at multiple scales for color transfer in augmented reality
CN106713726A (en) Method and apparatus for recognizing photographing way
EP4641496A1 (en) Power-efficient video conferencing
KR102889500B1 (en) Electronic device and Method for controlling the electronic device thereof
KR102913127B1 (en) Electronic device for detecting distortion in the projection area of image processing based beam-projector module and method operation thereof
KR102160123B1 (en) Display apparatus, image post-processing apparatus and method for image post-processing of contents
US20230092409A1 (en) Image processing systems and methods
KR20200015001A (en) Apparatus and method for image processing
EP4672733A1 (en) TRANSPARENT CONTROL WITH LOW PERFORMANCE REWARD

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 4