[go: up one dir, main page]

KR101428531B1 - A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis - Google Patents

A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis Download PDF

Info

Publication number
KR101428531B1
KR101428531B1 KR1020130017312A KR20130017312A KR101428531B1 KR 101428531 B1 KR101428531 B1 KR 101428531B1 KR 1020130017312 A KR1020130017312 A KR 1020130017312A KR 20130017312 A KR20130017312 A KR 20130017312A KR 101428531 B1 KR101428531 B1 KR 101428531B1
Authority
KR
South Korea
Prior art keywords
image
target
motion vector
resolution image
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020130017312A
Other languages
Korean (ko)
Inventor
유지상
권순찬
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020130017312A priority Critical patent/KR101428531B1/en
Application granted granted Critical
Publication of KR101428531B1 publication Critical patent/KR101428531B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

저해상도 영상을 입력받아 움직임 벡터의 정규화 및 윤곽선(edge)의 패턴 분석을 이용하여 초해상도 영상을 생성하는 복수 영상 기반 초해상도 영상 생성 방법에 관한 것으로서, (a) 상기 저해상도 영상에서 목표 시점의 영상 및 상기 목표 시점의 전후 시점의 영상을 선정하는 단계; (b) 상기 목표 시점 및 전후 시점의 영상(이하 대상 영상)의 부화소를 화소로 확장하고, 6-tap FIR(finite impulse response) 필터(이하 6탭 필터)를 적용하여 보간하는 단계; (c) 상기 목표 시점의 확장된 영상을 기준으로, 상기 전후 시점의 확장된 영상에서의 블록 단위의 움직임 벡터를 추정하는 단계; 및, (d) 상기 대상 영상의 확장 배수의 나머지 연산(modulo)으로, 추정된 움직임 벡터를 정규화하는 단계; (e) 윤곽선 패턴 분석에 따라 움직임 벡터에 의한 정합점을 검증하는 단계; 및, (f) 1차원 커널 추정식을 통한 확장된 영상의 최종 부화소의 화소값을 추정하는 단계를 포함하는 구성을 마련한다.
상기와 같은 초해상도 영상 생성 방법에 의하여, 기존의 이중선형(bi-linear) 보간법, 단일영상 기반의 초해상도 영상 생성 방법, 및 복수 영상 기반의 초해상도 영상 생성 방법 보다 객관적, 주관적으로 우수한 성능을 가질 수 있다.
A method for generating a super resolution image by generating a super resolution image using a motion vector normalization and an edge pattern analysis using a low resolution image, the method comprising the steps of: (a) Selecting an image before and after the target time point; (b) expanding the subpixels of the target viewpoint and the forward / backward viewpoint image (hereinafter referred to as a target image) into pixels and interpolating by applying a 6-tap finite impulse response (FIR) filter (hereinafter referred to as a 6-tap filter); (c) estimating a block-by-block motion vector in the expanded image at the previous and following points on the basis of the expanded view of the target viewpoint; And (d) normalizing the estimated motion vector with a modulo of an expansion multiple of the target image. (e) verifying a matching point by a motion vector according to a contour pattern analysis; And (f) estimating a pixel value of the last sub-pixel of the extended image through the one-dimensional kernel estimation equation.
According to the above-mentioned method of generating a super-resolution image, objectively and objectively superior performance is achieved compared with a conventional bi-linear interpolation method, a single image-based super-resolution image generation method, and a multi- Lt; / RTI >

Description

움직임 벡터의 정규화 및 윤곽선의 패턴 분석을 이용한 복수 영상 기반 초해상도 영상 생성 방법 { A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis }Technical Field [0001] The present invention relates to a multi-image-based super resolution image generation method using motion vector normalization and contour pattern analysis,

본 발명은 움직임 벡터의 정규화 및 윤곽선(edge)의 패턴 분석을 이용하여 복수 영상에 기반한 초해상도 영상을 생성하는, 복수 영상 기반 초해상도 영상 생성 방법에 관한 것이다.
The present invention relates to a multi-image-based super-resolution image generation method for generating a super-resolution image based on a plurality of images using motion vector normalization and pattern analysis of an edge.

일반적으로, 영상의 해상도를 확대하기 위해 기존 화소들 사이에 적절한 값을 삽입하는 기술을 영상 보간법(interpolation)이라 한다. 디지털 카메라 혹은 휴대기기에 내장되어 있는 카메라와 같이 디지털 영상 획득 매체의 증가와 매체간의 성능 차이로 인하여 저해상도 영상을 보완하는 영상 보간법의 중요성은 점점 더 커지고 있다.Generally, a technique of inserting an appropriate value between existing pixels in order to enlarge the resolution of the image is called interpolation. Due to the increase of digital image acquisition media and the difference in performance between media such as digital cameras or cameras embedded in portable devices, the importance of image interpolation method that compensates low resolution images is increasing.

기존의 전통적인 영상 보간법은 저해상도 영상 화소의 가중치 합(weighted-sum)에 기반을 두고 있으며, 그 중 대표적인 방법으로 최단입점(nearest neighborhood) 보간법, 이중선형(bi-linear) 보간법, 고등차수(bi-cubic) 보간법 등이 있다[비특허문헌 1]. 그러나 이러한 방법들은 일종의 저주파 통과 필터(low pass filter)의 개념으로, 필연적으로 영상 내 경계부분이 모호해지는 번짐(blurring) 현상이 나타난다.Conventional image interpolation is based on a weighted sum of pixels of a low-resolution image. Typical methods include nearest neighborhood interpolation, bi-linear interpolation, bi- cubic interpolation method [Non-Patent Document 1]. However, these methods are a kind of low-pass filter, and inevitably blurring occurs in the boundary of the image.

이와 같은 문제를 해결하기 위해 다양한 초해상도(super resolution) 영상 생성 기법의 연구가 진행된 바 있다. 초해상도 영상 생성 기법은 동영상에서 1초에 재생되는 영상의 수가 통상 20에서 30장으로 서로 상관도가 매우 높은 특성을 이용하여, 목표 영상을 기준으로 연속된 복수의 저해상도 영상의 정보를 이용하여 하나의 고해상도 영상을 얻는 기술이다[비특허문헌 2].To solve this problem, various super resolution image generation techniques have been studied. The super resolution image generation technique uses the information of a plurality of consecutive low resolution images based on the target image, using the characteristic that the number of images reproduced in one second is usually 20 to 30, [Non-Patent Document 2].

또한 최근에는 그 의미가 확장되어 단일영상을 사용한 초해상도 영상 생성 기법 또한 다양하게 제안되었다. 그 중 하나로 입력 영상에 이산 웨이블릿 변환 (Discrete Wavelet Transform; DWT) 을 이용한 방법이 제안되었다[비특허문헌 3]. 이 기법은 이산 웨이블릿 변환 시 거쳐야 하는 다운 샘플링(down-sampling) 과정을 생략하는 것을 가장 큰 특징으로 한다. 이를 통해 원본 영상과 같은 크기의 저주파-저주파(LL), 저주파-고주파(LH), 고주파-저주파(HL), 고주파-고주파(HH) 부대역(sub-bands)들을 얻은 후 LL 부대역을 제외한 나머지 고주파 부대역에 다양한 처리를 한 뒤 역 변환을 하면, 고주파 성분이 잘 보존된 확대 영상을 얻을 수 있다. 그러나 이 방법은 전통적인 보간법과 마찬가지로 외부의 부가적인 정보를 사용하지 않는다는 점에서 성능이 제한적이다.
In addition, recently, the meaning has expanded, and a super resolution image generation technique using a single image has also been proposed variously. As one of them, a method using discrete wavelet transform (DWT) has been proposed for an input image [Non-Patent Document 3]. This technique is characterized by omitting the down-sampling process that must be performed in the discrete wavelet transform. (LL), low frequency-high frequency (LH), high frequency-low frequency (HL), and high frequency-high frequency (HH) sub-bands of the same size as the original image. After performing various processes on the remaining high frequency subbands and performing inverse transform, enlarged images with high frequency components can be obtained. However, this method has limited performance in that it does not use additional external information like the conventional interpolation method.

또한, 복수 영상을 기반으로 초해상도 영상 생성 기법들이 제안되고 있다.In addition, super resolution image generation techniques based on a plurality of images have been proposed.

공통적으로 초해상도 영상 생성 기법은 도 1에 보인 것처럼 한 장의 저해상도 영상의 생성과정을 가정한다. 초해상도 영상 생성 기법은 그림에 나타난 것처럼 어떤 자연 영상(nature scene)이 디지털 신호화 되는 과정에서 다운 샘플링 되고, 센서의 오작동 등으로 인하여 잡음이 더해져 하나의 저화질 영상이 생성된다고 가정하고 이 문제를 역으로 해결하는 과정으로 설명된다[비특허문헌 2].Generally, a super resolution image generation method assumes a process of generating a single low resolution image as shown in FIG. As shown in the figure, the super-resolution image generation technique assumes that a natural image is down-sampled in the course of digital signalization and a low-quality image is generated by noise added due to sensor malfunction, [Non-Patent Document 2].

일반적으로, 복수 영상 기반의 초해상도 영상 생성 기법들이 공통적으로 가지는 흐름도는 도 2에 보인 것과 같다.Generally, a common flowchart of the multiple-image-based super-resolution image generation techniques is as shown in FIG.

도 2에서 보는 바와 같이,첫 번째 단계로 초해상도 영상 생성 기법을 적용하려는 목표 영상을 포함하여 총 t장의 영상이 입력된다. 이 경우, 저해상도 영상 y1부터 yt는 인접한 영상이어야 하며, 장면의 전환이 발생해서는 안 된다. 이렇게 정해진 입력영상들은 목표 영상을 기준으로 그 위치관계를 정합해야 한다. 그 후 위치관계를 기반으로 하여 얻어진 정합점들은 고해상도 영상의 화소 값을 추정하는 데 사용한다. 이러한 결과에 최종적으로 블록현상 제거 필터(de-blocking filter) 혹은 초점복원 필터(de-blurring filter)적용 등을 후처리 과정으로 하여 한 장의 고해상도 영상 X를 얻게 된다[비특허문헌 7].As shown in FIG. 2, as a first step, a total of t images including a target image to which a super resolution image generation technique is applied are input. In this case, the low-resolution images y 1 to y t must be adjacent images, and scene transition should not occur. The input images thus determined should be matched in positional relationship with respect to the target image. Then, the matching points obtained based on the positional relation are used to estimate the pixel value of the high resolution image. Finally, a de-blocking filter or a de-blurring filter is applied as a post-process to obtain a single high-resolution image X [Non-Patent Document 7].

그러나 기존에 제안된 복수영상 기반의 초해상도 영상 생성 기법들의 경우, 초해상도 영상 생성 기법이 적용되는 입력 영상이 단순 회전(rotation)이나 전역이동과 같은 병진이동(global translation)과, 매우 작은 부화소(sub-pixel) 단위의 움직임만을 포함하고 있어야 좋은 결과를 얻을 수 있고[비특허문헌 4, 5], 이러한 제한을 극복하기 위해 몇 가지 다른 기법이 제안되었으나[비특허문헌 6, 7] 이 기법들의 경우 객체의 내부 질감(texture)을 모호하게 하는 문제점이 있다.However, in the case of the proposed multi-image-based super-resolution image generation techniques, the input image to which the super-resolution image generation technique is applied is subjected to global translation such as simple rotation or global movement, (non-patent documents 4 and 5), several other techniques have been proposed to overcome these limitations [Non-Patent Documents 6 and 7] There is a problem that the internal texture of the object becomes ambiguous.

다른 방법으로는 한 장의 고해상도 영상을 핵심영상(key-frame)으로 하여 이 정보를 기반으로 인접한 영상들에 적용하는 초해상도 영상 생성 기법이 제안되었으나[비특허문헌 8], 이 방법은 동영상 압축에 쓰이는 기법으로, 핵심영상으로 사용할 최소 한 장의 고해상도 영상이 존재하지 않으면 적용할 수 없다는 단점이 있다.
In another method, a super-resolution image generation technique has been proposed in which a single high-resolution image is applied as a key-frame to adjacent images based on this information [Non-Patent Document 8] This technique is disadvantageous in that it can not be applied unless there is at least one high-resolution image to be used as a core image.

[비특허문헌 1] G.B. Kang, Y.S. Yang and J.H. Kim, "A study on interpolation for enlarged still image," KIICE General Conference, pp. 643-648, Bukyung univ., Korea, May. 2001.[Non-Patent Document 1] G.B. Kang, Y.S. Yang and J.H. Kim, "A study on interpolation for enlarged still image," KIICE General Conference, pp. 643-648, Bukyung univ., Korea, May. 2001. [비특허문헌 2] S.C. Park, M.K. Park, and M.G. Kang, "Super resolution image reconstruction: a technical overview," IEEE Signal Processing Magazine, vol. 20, no. 3, pp. 21-36, May, 2003.[Non-Patent Document 2] S.C. Park, M.K. Park, and M.G. Kang, "Super resolution image reconstruction: a technical overview," IEEE Signal Processing Magazine, vol. 20, no. 3, pp. 21-36, May, 2003. [비특허문헌 3] J.M. Lim and J. Yoo, "super resolution Algorithm using Discrete Wavelet Transform for Single-image," KOSBE Journals, vol. 17, no. 2, pp. 344-353, Mar., 2012.[Non-Patent Document 3] J.M. Lim and J. Yoo, "Super Resolution Algorithm using Discrete Wavelet Transform for Single-image," KOSBE Journals, vol. 17, no. 2, pp. 344-353, Mar., 2012. [비특허문헌 4] S.C. Kwon and J. Yoo, "super resolution algorithm by motion estimation with sub-pixel accuracy using 6-tap FIR filter," KICS Journals, vol. 37, no. 6, pp. 464-472, Jun., 2012.[Non-Patent Document 4] S.C. Kwon and J. Yoo, "Super Resolution Algorithm by Motion Estimation with Sub-pixel Accuracy Using a 6-tap FIR Filter," KICS Journals, vol. 37, no. 6, pp. 464-472, Jun., 2012. [비특허문헌 5] V.K. Asari, M.N. Islam and M.A. Karim, "Super resolution enhancement technique for low resolution video," IEEE trans. on Consumer Electronics, vol. 56, no. 2, pp. 919-924, May, 2010. [Non-Patent Document 5] V.K. Asari, M.N. Islam and M.A. Karim, "Super resolution enhancement technique for low resolution video," IEEE trans. on Consumer Electronics, vol. 56, no. 2, pp. 919-924, May, 2010. [비특허문헌 6] S. Farsiu and P. Milanfar, "Kernel regression for image processing and reconstruction," IEEE trans. on Image Processing, vol. 16, no. 2, pp. 349-366, Feb., 2007. [Non-Patent Document 6] S. Farsiu and P. Milanfar, "Kernel regression for image processing and reconstruction," IEEE Trans. on Image Processing, vol. 16, no. 2, pp. 349-366, Feb., 2007. [비특허문헌 7] M. Elad, H. Takeda and P. Milanfar, "Generalizing the nonlocal-means to super resolution reconstruction," IEEE trans. on Image Processing, vol. 18, no. 1, pp. 36-51, Jan., 2009.[Non-Patent Document 7] M. Elad, H. Takeda and P. Milanfar, "Generalizing the nonlocal-means to super resolution reconstruction," on Image Processing, vol. 18, no. 1, pp. 36-51, Jan., 2009. [비특허문헌 8] S.C. Jeong and Y.L. Choi, "Video super resolution algorithm using bi-directional overlapped block motion compensation and on-the-fly dictionary training," IEEE trans. on Circuits and Systems for Video Technology, vol. 21, no. 3, pp. 274-285, Mar., 2011.[Non-Patent Document 8] S.C. Jeong and Y.L. Choi, "Video super resolution algorithm using bi-directional overlapped block motion compensation and on-the-fly dictionary training," IEEE Trans. on Circuits and Systems for Video Technology, vol. 21, no. 3, pp. 274-285, Mar., 2011. [비특허문헌 9] T.H. Kim, Y.S. Moon and C.S. Han, "Estimation of real boundary with subpixel accuracy in digital imagery," KSPE Journals, vol. 16, no. 8, pp. 16-22. Aug., 1999.[Non-Patent Document 9] T.H. Kim, Y.S. Moon and C.S. Han, "Estimation of real boundary with subpixel accuracy in digital imagery," KSPE Journals, vol. 16, no. 8, pp. 16-22. Aug., 1999. [비특허문헌 10] T. Wiegand, G. J. Sullivan, G. Bjontegaard, and A. Luthra, "Overview of the H.264/AVC video coding standard," IEEE trans. on circuits and systems for video technology, vol. 13, no. 7, pp. 560-576, Jul., 2003.[Non-Patent Document 10] T. Wiegand, G. J. Sullivan, G. Bjontegaard, and A. Luthra, "Overview of the H.264 / AVC video coding standard," IEEE Trans. on circuits and systems for video technology, vol. 13, no. 7, pp. 560-576, Jul., 2003. [비특허문헌 11] N. Hirai, T. Kato, T. Song and T. Shimamoto, "An efficient architecture for spiral-type motion estimation for H.264/AVC," IEEK General Conference, pp. 314-317, Je-ju, Korea, Jul., 2009.[Non-Patent Document 11] N. Hirai, T. Kato, T. Song and T. Shimamoto, "An efficient architecture for spiral-type motion estimation for H.264 / AVC," IEEK General Conference, pp. 314-317, Je-ju, Korea, Jul., 2009. [비특허문헌 12] Y. Ismail and J.B. McNeely, M. Shaaban, H. Mahmoud and M.A. Bayoumi, "Fast motion estimation system using dynamic models for H.264/AVC video coding," IEEE trans. on Circuits and Systems for Video Technology, vol. 22, no. 1, pp. 28-42, Jan., 2012. [Non-Patent Document 12] Y. Ismail and J.B. McNeely, M. Shaaban, H. Mahmoud and M.A. Bayoumi, "Fast motion estimation system using dynamic models for H.264 / AVC video coding," IEEE Trans. on Circuits and Systems for Video Technology, vol. 22, no. 1, pp. 28-42, Jan., 2012. [비특허문헌 13] H.M. Wong, O.C. Au, A. Chang, S.K. Yip and C.W. Ho, "Fast mode decision and motion estimation for H.264(FMDME)," IEEE Int. Symposium on Circuits and Systems, pp. 21-24, Greece, May, 2006.[Non-Patent Document 13] H.M. Wong, O.C. Au, A. Chang, S.K. Yip and C.W. Ho, "Fast mode decision and motion estimation for H.264 (FMDME)," IEEE Int. Symposium on Circuits and Systems, pp. 21-24, Greece, May, 2006. [비특허문헌 14] S. Winkler, "The evolution of video quality measurement: From PSNR to hybrid metrics," IEEE trans. on Broadcasting, vol. 54, no. 3, pp. 660-668, Sep., 2008.[Non-Patent Document 14] S. Winkler, "Evolution of video quality measurement: From PSNR to hybrid metrics," IEEE trans. on Broadcasting, vol. 54, no. 3, pp. 660-668, Sep., 2008.

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 움직임 벡터의 정규화 및 윤곽선(edge)의 패턴 분석을 이용하여 복수 영상에 기반한 초해상도 영상을 생성하는, 복수 영상 기반 초해상도 영상 생성 방법을 제공하는 것이다. 특히, 본 발명에서는 도 2의 초해상도 영상 생성 과정 중 2번째와 3번째 단계인 정합과 고해상도 보간의 내용을 주로 개선한다.An object of the present invention is to solve the above-mentioned problems, and an object of the present invention is to provide a method and apparatus for generating a super resolution image based on a plurality of images using motion vector normalization and edge pattern analysis . Particularly, in the present invention, the contents of the second and third steps of matching and high-resolution interpolation are improved mainly in the process of generating the super-resolution image of FIG.

보다 구체적으로, 본 발명의 목적은 종래 방법의 단점인 부화소 단위의 움직임에 대한 제한을 움직임 벡터의 정규화 기법을 통해 해결하고, 윤곽선 패턴 분석을 기반으로 한 2×2 블록 단위의 움직임 추정을 통해 병진이동에 대한 제한을 해결하는, 복수 영상 기반 초해상도 영상 생성 방법을 제공하는 것이다.
More specifically, it is an object of the present invention to solve the limitation of the motion per sub-pixel, which is a disadvantage of the conventional method, through a normalization technique of a motion vector, and to perform motion estimation on a 2x2 block basis based on contour pattern analysis Resolution image generation method that solves the limitation on translational movement.

상기 목적을 달성하기 위해 본 발명은 저해상도 영상을 입력받아 초해상도 영상을 생성하는 복수 영상 기반 초해상도 영상 생성 방법에 관한 것으로서, (a) 상기 저해상도 영상에서 목표 시점의 영상 및 상기 목표 시점의 전후 시점의 영상을 선정하는 단계; (b) 상기 목표 시점 및 전후 시점의 영상(이하 대상 영상)의 부화소를 화소로 확장하고, 6-tap FIR(finite impulse response) 필터(이하 6탭 필터)를 적용하여 보간하는 단계; (c) 상기 목표 시점의 확장된 영상을 기준으로, 상기 전후 시점의 확장된 영상에서의 블록 단위의 움직임 벡터를 추정하는 단계; 및, (d) 상기 대상 영상의 확장 배수의 나머지 연산(modulo)으로, 추정된 움직임 벡터를 정규화하는 단계; (e) 윤곽선 패턴 분석에 따라 움직임 벡터에 의한 정합점을 검증하는 단계; 및, (f) 1차원 커널 추정식을 통한 확장된 영상의 최종 부화소의 화소값을 추정하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method for generating a super-resolution image by generating a super-resolution image by receiving a low-resolution image, the method comprising the steps of: (a) Selecting an image of the image; (b) expanding the subpixels of the target viewpoint and the forward / backward viewpoint image (hereinafter referred to as a target image) into pixels and interpolating by applying a 6-tap finite impulse response (FIR) filter (hereinafter referred to as a 6-tap filter); (c) estimating a block-by-block motion vector in the expanded image at the previous and following points on the basis of the expanded view of the target viewpoint; And (d) normalizing the estimated motion vector with a modulo of an expansion multiple of the target image. (e) verifying a matching point by a motion vector according to a contour pattern analysis; And (f) estimating a pixel value of the last sub-pixel of the extended image through the one-dimensional kernel estimation equation.

또, 본 발명은 복수 영상 기반 초해상도 영상 생성 방법에 있어서, 상기 (b)단계에서, 상기 대상 영상들에 6탭 필터를 적용하여 1/2화소를 구하고 선형보간법을 적용하여 1/4화소를 구하여, 상기 대상 영상을 16배로 확장하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of generating a multi-image-based super-resolution image, wherein in step (b), a 6-tap filter is applied to the target images to obtain 1/2 pixel, And enlarges the target image by 16 times.

또, 본 발명은 복수 영상 기반 초해상도 영상 생성 방법에 있어서, 상기 (c)단계에서, 2×2 블록단위의 움직임 추정을 추정하되, 영상 간 유사블록의 탐색 기준은 SAD(sum of absolute difference)값을 이용하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of generating a plurality of image-based super-resolution images, wherein in step (c), a motion estimation is performed on a 2x2 block basis, Value is used.

또, 본 발명은 복수 영상 기반 초해상도 영상 생성 방법에 있어서, 상기 (d)단계에서, 상기 움직임 벡터가 0이 아닌 경우, 영상의 가로 또는 세로의 확장 배수로 상기 움직임 벡터를 나머지 연산(modulo)하여 정규화하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of generating a multi-image-based super-resolution image, wherein, in step (d), when the motion vector is not 0, the motion vector is modulo- And normalization.

또, 본 발명은 복수 영상 기반 초해상도 영상 생성 방법에 있어서, 상기 (e)단계에서, 2×2 블록단위로 윤곽선 패턴을 대비하여 분석하는 것을 특징으로 한다.In addition, the present invention is a method for generating a multi-image-based super-resolution image, wherein the contour pattern is analyzed in units of 2x2 blocks in step (e).

또, 본 발명은 복수 영상 기반 초해상도 영상 생성 방법에 있어서, 상기 (f)단계에서, 나다라야-왓슨(nadaraya-watson) 커널 추정식을 이용하는 것을 특징으로 한다.
Further, the present invention is a method for generating a multi-image based super resolution image, wherein a nadaraya-watson kernel estimation equation is used in step (f).

상술한 바와 같이, 본 발명에 따른 복수 영상 기반 초해상도 영상 생성 방법에 의하면, 기존의 이중선형(bi-linear) 보간법, 단일영상 기반의 초해상도 영상 생성 기법, 및 복수 영상 기반의 초해상도 영상 생성 기법 보다 객관적, 주관적으로 우수한 성능을 가지는 효과가 얻어진다.
As described above, according to the method of generating a plurality of image-based super-resolution images according to the present invention, the conventional bi-linear interpolation method, a single image-based super-resolution image generation technique, It is possible to obtain an effect that has superior performance objectively and subjectively than the technique.

도 1은 종래기술에 의한 저해상도 영상이 생성되는 과정을 설명하는 흐름도.
도 2는 종래기술에 의한 복수 영상 기반 초해상도 영상 생성 방법을 설명하는 흐름도.
도 3은 본 발명을 실시하기 위한 전체 시스템의 구성도.
도 4는 본 발명에 따른 디지털 변환(ADC) 과정에서 발생하는 앨리어싱의 일례를 도시한 것.
도 5는 본 발명에 따른 화소이동의 예로서, (a) 정수단위의 화소이동과, (b) 부화소단위의 화소이동을 도시한 것이고, 각 화면의 첫 번째 열이 f(t-1)영상이고, 두 번째 열이 f(t) 영상임.
도 6은 본 발명의 일실시예에 따른 복수 영상 기반 초해상도 영상 생성 방법을 설명하는 흐름도.
도 7은 본 발명에 따른 6-tap FIR 필터 설명을 위한 화소 배치도.
도 8은 본 발명에 따른 움직임 추정에서의 영상 간 시간적 중복성 이용하는 일례로서, (a) (t-1)번째 영상과 (b) (t)번째 영상임.
도 9는 본 발명에 따른 직임 벡터 정규화 방법을 설명하는 흐름도.
도 10은 본 발명에 따른 윤곽선의 패턴을 고려하지 않은 정합점의 사용 예로서, (a) 다양한 정합점의 위치이고, (b) 패턴 분석 적용 전과, (c) 패턴 분석 적용 후의 영상임.
도 11은 본 발명에 따른 윤곽선의 패턴 고려를 위한 2×2 블록의 8가지 패턴을 도시한 것.
도 12는 본 발명에 따른 정합점들과 목표 보간점의 위치의 예로서, (a) 보간 전, (b) 보간 후의 위치임.
도 13은 본 발명의 실험에 따른 각 실험 영상의 PSNR 측정결과(db)에 대한 표.
도 14는 본 발명의 실험에 따른 Mother and daughter (6번째 영상)으로서, (a) 원본영상, (b) 이중선형, (c) SR[3], (d) SR[4], (e) 본원발명에 의한 결과 영상.
도 15는 본 발명의 실험에 따른 News (8번째 영상)으로서, (a) 원본영상, (b) 이중선형, (c) SR[3], (d) SR[4], (e) 본원발명에 의한 결과 영상.
도 16은 본 발명의 실험에 따른 Carphone (19번째 영상)으로서, (a) 원본영상, (b) 이중선형, (c) SR[3], (d) SR[4], (e) 본원발명에 의한 결과 영상.
도 17은 본 발명의 실험에 따른 Coastguard (4번째 영상)으로서, (a) 원본영상, (b) 이중선형, (c) SR[3], (d) SR[4], (e) 본원발명에 의한 결과 영상.
도 18은 본 발명의 실험에 따른 Tempete (3번째 영상)으로서, (a) 원본영상, (b) 이중선형, (c) SR[3], (d) SR[4], (e) 본원발명에 의한 결과 영상.
FIG. 1 is a flowchart illustrating a process of generating a low-resolution image according to the related art.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]
3 is a configuration diagram of the entire system for implementing the present invention;
FIG. 4 shows an example of aliasing occurring in the digital conversion (ADC) process according to the present invention.
FIG. 5 shows an example of the pixel shift according to the present invention, in which (a) pixel shift in an integer unit and (b) pixel shift in a sub- , And the second column is f (t) image.
6 is a flowchart illustrating a method of generating a multi-image-based super-resolution image according to an exemplary embodiment of the present invention.
7 is a pixel layout diagram for explaining a 6-tap FIR filter according to the present invention.
FIG. 8 is an example of using temporal redundancy between images in motion estimation according to the present invention, wherein (a) is a (t-1) th image and (b) (t) th image.
9 is a flow chart illustrating a method for normalizing a directive vector according to the present invention.
FIG. 10 shows an example of using matching points that do not consider contour lines according to the present invention, (a) the positions of various matching points, (b) before applying pattern analysis, and (c) after applying pattern analysis.
Figure 11 shows eight patterns of 2x2 blocks for contour line consideration in accordance with the present invention.
12 is an example of the positions of the matching points and the target interpolation point according to the present invention, (a) before interpolation and (b) after interpolation.
13 is a table for PSNR measurement result (db) of each experimental image according to the experiment of the present invention.
(A) original image, (b) double linearity, (c) SR [3], (d) SR [4], and (e) The resulting image according to the present invention.
(B) a double linear shape, (c) SR [3], (d) SR [4], and (e) the present invention The result image by.
(A) original image, (b) double linearity, (c) SR [3], (d) SR [4] The result image by.
(A) original image, (b) double linearity, (c) SR [3], (d) SR [4] The result image by.
FIG. 18 is a schematic diagram of a TEMpete (third image) according to an experiment of the present invention, in which (a) an original image, (b) a double linear shape, (c) SR [3] The result image by.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.
In the description of the present invention, the same parts are denoted by the same reference numerals, and repetitive description thereof will be omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템의 구성의 예들에 대하여 도 3을 참조하여 설명한다.First, examples of the configuration of the entire system for implementing the present invention will be described with reference to FIG.

도 3에서 보는 바와 같이, 본 발명에 따른 복수 영상 기반 초해상도 영상 생성 방법은 저해상도 영상(10)을 입력받아 초해상도 영상(20)을 생성하는 컴퓨터 단말(30) 상의 프로그램 시스템으로 실시될 수 있다. 즉, 초해상도 영상 생성 방법은 프로그램으로 구성되어 컴퓨터 단말(30)에 설치되어 실행될 수 있다. 컴퓨터 단말(30)에 설치된 프로그램은 하나의 프로그램 시스템(40)과 같이 동작할 수 있다.3, the multi-image-based super-resolution image generation method according to the present invention can be implemented as a program system on a computer terminal 30 that receives a low-resolution image 10 and generates a super-resolution image 20 . That is, the super-resolution image generation method may be implemented by a program and installed in the computer terminal 30 and executed. The program installed in the computer terminal 30 can operate as one program system 40. [

한편, 다른 실시예로서, 초해상도 영상 생성 방법은 프로그램으로 구성되어 범용 컴퓨터에서 동작하는 것 외에 ASIC(주문형 반도체) 등 하나의 전자회로로 구성되어 실시될 수 있다. 또는 저해상도 영상(10)을 입력받아 초해상도 영상(20)을 생성하는 것만을 전용으로 처리하는 전용 컴퓨터 단말(30)로 개발될 수도 있다. 이를 초해상도 영상 생성 장치(40)라 부르기로 한다. 그 외 가능한 다른 형태도 실시될 수 있다.Meanwhile, as another embodiment, the method of generating a super-resolution image may be implemented by a single electronic circuit such as an ASIC (application-specific semiconductor) in addition to being operated by a general-purpose computer. Or a dedicated computer terminal 30 for processing only the generation of the super resolution image 20 by receiving the low resolution image 10. This is referred to as a super-resolution image generating apparatus 40. Other possible forms may also be practiced.

저해상도 영상(10)은 컴퓨터 단말(30)에 직접 입력되어 저장되고, 초해상도 영상 생성 장치(40)에 의해 처리된다. 또는, 저해상도 영상(10)은 컴퓨터 단말(30)의 저장매체에 미리 저장되고, 초해상도 영상 생성 장치(40)에 의해 저장된 저해상도 영상(10)을 읽어 입력될 수도 있다.The low resolution image 10 is directly input to the computer terminal 30 and stored therein, and is processed by the super resolution image generation apparatus 40. [ Alternatively, the low-resolution image 10 may be stored in advance in the storage medium of the computer terminal 30, and may be read by inputting the low-resolution image 10 stored by the super-resolution image generation apparatus 40. [

저해상도 영상(10) 및 초해상도 영상(20)은 시간상으로 연속된 프레임(또는 연속된 시점의 프레임)으로 구성된다. 하나의 프레임은 하나의 이미지를 갖는다. 또한, 영상(10,20)은 하나의 프레임(또는 이미지)을 가질 수도 있다. 즉, 영상(10,20)은 하나의 이미지인 경우에도 해당된다.The low-resolution image 10 and the super-resolution image 20 are composed of temporally consecutive frames (or consecutive frames of time). One frame has one image. Also, the images 10 and 20 may have one frame (or image). That is, the images 10 and 20 correspond to one image.

저해상도 영상에서 초해상도 영상을 생성하는 것은, 곧 하나의 저해상도 프레임(또는 이미지)에서 하나의 초해상도 프레임(또는 이미지)을 생성하는 것을 의미하고, 또한, 모든 시점의 프레임에 대하여 각 초해상도 프레임이 생성되어 전체 저해상도 영상에 대한 초해상도 영상을 생성한다는 것을 의미한다.Generating a super resolution image in a low resolution image means generating a super resolution frame (or image) in a single low resolution frame (or image) immediately. Further, each super resolution frame And generates a super resolution image for the entire low resolution image.

이하에서 특별한 구별의 필요성이 없는 한, 영상이란 용어를 프레임 용어와 혼용하여 사용하기로 한다.
Unless there is a need for special distinction below, the term video will be used in combination with the frame terminology.

다음으로, 본 발명을 설명하기에 앞서, 본 발명에 따른 초해상도 영상 생성에서 기본적으로 이용되는 부화소(sub-pixel) 단위의 화소 이동에 관한 개념에 대하여 구체적으로 설명한다.Next, before describing the present invention, the concept of pixel shifting on a sub-pixel basis, which is basically used in generation of a super-resolution image according to the present invention, will be described in detail.

인간이 육안으로 보는 자연 영상은 연속적인 아날로그 신호이다. 영상신호를 컴퓨터 처리가 가능한 디지털 신호로 변환하기 위해서는 음성신호와 같이 신호를 디지털화 하는 과정이 필요하다. 그런데 임의의 자연 영상(nature scene)이 도 4에 보인 것처럼 저해상도 영상이 되는 과정에서 영상획득 기기의 센서 간 샘플링 간격으로 인한 필연적인 앨리어싱(aliasing)이 발생한다. 이로 인해 원 영상신호의 고주파 성분이 손실된다[비특허문헌 9].The natural image seen by the human eye is a continuous analog signal. In order to convert a video signal into a digital signal that can be processed by a computer, a process of digitizing the signal such as a voice signal is required. However, the arbitrary natural scene is inevitably aliasing due to the sampling interval between the sensors of the image acquisition device in the course of the low resolution image as shown in FIG. As a result, high frequency components of the original video signal are lost [Non-Patent Document 9].

초당 20에서 30장의 영상(또는 프레임)으로 구성된 동영상에서 현재의 영상(프레임)을 f(t)라 하고, 바로 전의 영상(프레임)을 f(t-1)라고 가정하면 장면의 전환 부분이 아닌 경우 두 영상은 서로 근소한 차이만을 가질 것이다. 도 5는 영상 간 존재하는 객체의 움직임을 보인다. 도 5에서 왼쪽 열은 f(t-1)영상, 오른쪽 열은 f(t)영상을 의미한다[비특허문헌 4].Assuming that the current image (frame) is f (t) and the immediately preceding image (frame) is f (t-1) in a moving image composed of 20 to 30 images (or frames) per second, The two images will have only a slight difference from each other. FIG. 5 shows the motion of an object existing between images. In Fig. 5, the left column represents the image f (t-1) and the right column represents the f (t) image [Non Patent Document 4].

도 5의 (a)는 영상 간 객체의 이동이 샘플링 간격인 정수단위로 이동한 경우를 보인다. 이 경우 디지털화 된 영상은 f(t-1)과 f(t)의 해당 객체가 같은 윤곽선 정보를 가지게 된다. 도 5의 (b)는 영상 간 객체가 샘플링 간격보다 작은 부화소 단위로 이동한 경우이다. 이 경우 첫 번째 경우와 달리 두 영상은 같은 객체에 대하여 서로 다른 윤곽선 정보를 가지게 된다[비특허문헌 2].FIG. 5 (a) shows a case where the movement of an object between images moves in units of an integer, which is a sampling interval. In this case, the digitized image has the same outline information of the corresponding object of f (t-1) and f (t). FIG. 5B shows a case in which the inter-image object moves in units of sub-pixels smaller than the sampling interval. In this case, unlike the first case, the two images have different contour information for the same object [Non-Patent Document 2].

첫 번째 경우처럼 복수의 영상이 서로 같은 윤곽선 정보를 가지고 있다면, 해당 영상들로는 초해상도 영상 생성 방법 적용이 불가능하고 이 경우 영상 간에 정수 단위의 화소이동이 일어났다고 정의한다. 그러나 두 번째 경우는 서로 다른 윤곽선 정보를 조합하여 초해상도 영상 생성 방법을 적용할 수 있으며 이 경우 영상 간에 부화소 단위의 화소이동이 일어났다고 정의한다[비특허문헌 4]. 따라서 복수 영상을 기반으로 하는 초해상도 영상 생성 방법을 적용하기 위해서는 입력 영상 간 부화소 단위의 이동이 보장되어야 한다.
If a plurality of images have the same outline information as in the first case, it is impossible to apply a method of generating a super resolution image to the corresponding images. In this case, it is defined that an integer unit pixel shift occurs between images. However, in the second case, it is possible to apply a method of generating a super-resolution image by combining different outline information. In this case, it is defined that a pixel shift is performed in units of sub-pixels among the images [Non Patent Document 4]. Therefore, in order to apply a method of generating a super-resolution image based on a plurality of images, it is necessary to ensure movement in sub-pixels between input images.

다음으로, 본 발명의 일실시예에 따른 복수 영상 기반 초해상도 영상 생성 방법을 도 6을 참조하여 보다 구체적으로 설명한다.Next, a multi-image-based super-resolution image generation method according to an embodiment of the present invention will be described in more detail with reference to FIG.

도 6에서 보는 바와 같이, 제안한 방법은 저해상도의 영상에서 목표 시점 프레임을 선정하는 단계(S10), 6-tap FIR(finite impulse response) 필터를 통한 부화소 확장 보간 단계(S20); 블록 단위의 움직임 추정(motion estimation) 단계(S30); 움직임 벡터 정규화 단계(S40); 블록단위 윤곽선(edge)의 패턴 분석에 따라 움직임 벡터의 정합점 검증 단계(S50); 및, 1차원 커널 추정식을 통한 최종 초해상도 영상 생성 단계(S60)로 구성된다. 추가적으로, 모든 시점에 대한 반복하는 단계(S70)를 포함하여 모든 시점 프레임에 대하여 초고해상도 영상을 생성할 수 있다.As shown in FIG. 6, the proposed method includes a step S10 of selecting a target viewpoint frame from a low resolution image, a subpixel extended interpolation step S20 through a 6-tap finite impulse response (FIR) filter; A block motion estimation step S30; A motion vector normalization step S40; A matching point verification step (S50) of a motion vector according to a pattern analysis of a block unit edge; And a final super resolution image generation step (S60) using a one-dimensional kernel estimation equation. In addition, an ultra-high resolution image can be generated for all view frames including repeating step S70 for all view points.

즉, 우선 저해상도의 동영상이 입력으로 주어지면, 동영상을 구성하는 각 영상 단위(또는 프레임 단위)로 제안하는 방법을 적용하게 된다(S10). 일례로서, 방법을 적용하고자 하는 영상(또는 프레임)을 포함하여 전, 후 각 3장 총 7장의 영상(프레임)이 사용되게 된다.That is, when a low-resolution moving image is given as an input, a method of proposing each image unit (or frame unit) constituting the moving image is applied (S10). As an example, a total of seven images (frames) of three frames before and after each of the images (or frames) to which the method is to be applied is used.

여기에 부화소 단위의 정합을 위해 6-tap FIR 필터를 이용하여 부화소 보간이 적용된다(S20). 이 과정을 거치게 되면 각 입력 저해상도 영상들은 가로, 세로 각 4배씩 총 16배로 영상이 확장된다. 다음으로 여기에 2×2 블록 단위의 움직임 추정을 적용하여 움직임 벡터를 추출하고(S30), 추출된 움직임 벡터는 정규화를 거치게 된다(S40). 또한 해당 블록의 패턴이 제안한 방법에 의해 정의되면 그 결과에 따라서 정합점들이 선택적으로 화소 값 계산에 사용된다(S50). 마지막으로 1차원의 커널 추정식을 통하여 목표 화소의 위치와 정합점들의 위치간 거리에 따른 가중 합(weighted-sum)으로 최종 화소 값을 계산한다(S60).Sub-pixel interpolation is applied using a 6-tap FIR filter for subpixel matching (S20). When this process is performed, each input low-resolution image is enlarged to a total of 16 times by 4 times in the horizontal and vertical directions. Next, a motion vector is extracted by applying a 2x2 block-based motion estimation (S30), and the extracted motion vector is normalized (S40). If the pattern of the corresponding block is defined by the proposed method, the matching points are selectively used for pixel value calculation according to the result (S50). Finally, the final pixel value is calculated by weighted sum according to the distance between the position of the target pixel and the position of the matching point through the one-dimensional kernel estimation equation (S60).

이렇게 모든 시점의 영상(프레임)에 방법이 적용된 영상들이 모여 하나의 고해상도 동영상이 출력된다(S70).The images to which the method is applied at all the viewpoints (frames) are collected to output one high-resolution video (S70).

한편, 최종적으로 생성된 영상에 대하여 블록현상 제거 필터(de-blocking filter) 혹은 초점복원 필터(de-blurring filter)적용 등 후처리 과정을 적용할 수 있으나, 본 발명에서는 이에 대한 설명을 생략한다.
On the other hand, a post-process such as a de-blocking filter or a de-blurring filter may be applied to the finally generated image, but a description thereof will be omitted in the present invention.

먼저, 저해상도의 영상에서 목표 시점 프레임을 선정하는 단계(S10)를 보다 구체적으로 설명한다. First, a step S10 of selecting a target time point frame from a low resolution image will be described in more detail.

앞서 설명한 바와 같이, 저해상도 영상은 시간상으로 연속된 영상(프레임) 또는 연속된 시점의 영상(프레임)으로 구성된다. 저해상도의 동영상이 입력으로 주어지면, 동영상을 구성하는 각 영상 단위(또는 프레임 단위) 중 하나 영상(프레임)을 선정한다. 이때의 영상을 목표 시점의 영상(또는 목표 영상)이라고 부르기로 한다.As described above, a low-resolution image is composed of an image (frame) continuous in time or an image (frame) in continuous view. When a low-resolution video is given as an input, one of the video units (or frames) constituting the video is selected. The image at this time is referred to as a target-point-of-view image (or target image).

목표 시점의 영상과, 상기 목표 시점의 전후 소정의 시점 M까지의 영상을 선정한다. 목표 시점의 영상을 f(t)라 하면, f(t-M), ..., f(t-2), f(t-1), f(t), f(t+1), f(t+2), ..., f(t+M) 등 총 2M+1장의 영상(프레임)이 사용된다. 예를 들어, 소정의 M 시점이 3까지이면, 목표 시점 영상을 포함하여 전후 시점 모두 총 7장의 영상이 사용된다.A video at the target time point and an image up to a predetermined point M before and after the target time point are selected. (T-1), f (t), f (t + 1), and f (t) +2), ..., f (t + M) are used. For example, if the predetermined M view is up to 3, a total of 7 images are used, including the target view image and the forward and back view images.

다음으로, 6-tap FIR 필터를 통한 부화소 확장 보간 단계(S20)를 설명한다.Next, the subpixel extended interpolation step (S20) through the 6-tap FIR filter is described.

복수 영상 간 초해상도 영상 생성 방법이 가능하기 위해서는 입력영상들이 부화소 단위의 움직임 벡터를 가져야 하며, 부화소 단위의 움직임을 찾아내기 위해 입력영상들에 대한 부화소 확장이 필요하다. 본 발명에서는 1/4 화소(quarter-pixel) 단위의 움직임 추정을 통한 정합방법을 사용하기 때문에, 입력 영상들에 대하여 가로 4배, 세로 4배로 총 16배의 영상 확장이 필요하다.In order to be able to generate a super-resolution image between multiple images, input images must have sub-pixel motion vectors, and sub-pixel expansion is required for input images to detect sub-pixel motion. According to the present invention, since the matching method using quarter-pixel units of motion estimation is used, a total of 16 times of image expansion is required, four times as large as the input images and four times as large as the input images.

여기에 사용되는 방법은 대표적으로 이중선형(bi-linear), 고등차수(bi-cubic), 란초스(Lanczos) 보간법 등이 있다[비특허문헌 4]. 이러한 부화소 확장 방법들 중 움직임 추정 및 초해상도 영상 생성 방법에 가장 적합한 보간법은 H.264/AVC의 표준에서 사용되는 6-tap FIR 필터로서 기존 방법에서 실험적으로 증명되었다[비특허문헌 4].The methods used here are typically bi-linear, bi-cubic, Lanczos interpolation, etc. [Non-Patent Document 4]. Among these sub-pixel expansion methods, the interpolation method most suitable for the motion estimation and the super-resolution image generation method is a 6-tap FIR filter used in the H.264 / AVC standard and has been experimentally proved in the existing method [Non Patent Document 4].

따라서 본 발명에서는 6-tap FIR 필터 기반의 부화소 확장을 적용한다. 수학식 1은 1/2 화소(half-pixel)탐색 과정에 사용된다[비특허문헌 10].Therefore, in the present invention, a sub-pixel expansion based on a 6-tap FIR filter is applied. Equation 1 is used in a half-pixel search process [Non-Patent Document 10].

[수학식 1][Equation 1]

Figure 112013014621877-pat00001
Figure 112013014621877-pat00001

여기서 b와 h는 각각 1/2 화소 단위의 화소 값을 의미하고, A, C, G, M, R, T, E, F, H, I, J는 각각 정수단위의 원본 화소 값을 의미한다. Here, b and h are pixel values in units of 1/2 pixel, and A, C, G, M, R, T, E, F, H, .

또한, 각 정수단위의 화소에 곱해지는 숫자는 가중치를 나타낸다. 도 7에 수학식 1에 따른 화소의 배치도를 보인다. 도 7에서 대문자로 표시되어 있는 회색 사각형은 원본 정수 화소를 의미한다.In addition, the number multiplied by the pixel of each integer unit represents a weight value. 7 shows a layout of the pixel according to Equation (1). In FIG. 7, a gray square indicated by an upper case letter denotes an original integer pixel.

도 7과 같이 1/2화소를 구한 후, 1/4 화소(quarter-pixel)는 수학식 2와 같이 선형 보간법을 적용해 구할 수 있다[비특허문헌 10].As shown in FIG. 7, a half-pixel is obtained, and a quarter-pixel can be obtained by applying a linear interpolation method as shown in Equation 2 [Non-Patent Document 10].

[수학식 2]&Quot; (2) "

Figure 112013014621877-pat00002

Figure 112013014621877-pat00002

다음으로, 부화소 확장 영상에 대한 블록 단위의 움직임 추정 단계(S30)를 설명한다.Next, a block-based motion estimation step S30 for the subpixel extended image will be described.

앞서 설명한 수학식 1과 2를 이용하여 가로 4배와 세로 4배, 총 16배로 부화소로 확장된 입력영상들을 가지고 목표 영상에 대하여 블록단위의 움직임 추정을 적용하게 된다(S30).The block-based motion estimation is applied to the target image using the input images expanded to the sub-pixels by 4 times, 4 times, 4 times, and 16 times in total (S30) using Equations 1 and 2 described above.

움직임 추정은 원래 영상압축을 통해 제안된 방법으로 도 8과 같이 현재 영상과 다음 영상의 시간적 중복성(temporal redundancy)을 이용하여 이전 영상의 차분(difference)만을 저장하여 현재영상을 만들어 내는 압축 원리를 가진다[비특허문헌 11].The motion estimation has a compression principle of generating a current image by storing only a difference of a previous image by using a temporal redundancy of a current image and a next image as shown in FIG. 8 by a method proposed through original image compression [Non-Patent Document 11].

본 발명에서는 2×2 블록단위의 움직임 추정을 이용함으로써 영상 간 복잡한 움직임이나 지역적인 움직임(local motion)에 강한 영상 정합이 가능하다. 영상 간 유사블록의 탐색 기준은 수학식 3의 SAD(sum of absolute difference)값을 이용한다[비특허문헌 11].In the present invention, by using motion estimation of 2x2 block units, it is possible to perform strong motion matching between images or strong local motion. The search reference of the similar block between images uses the SAD (sum of absolute difference) value of Equation (3) [Non-Patent Document 11].

[수학식 3]&Quot; (3) "

Figure 112013014621877-pat00003
Figure 112013014621877-pat00003

여기서 SAD(i,j)는 탐색영역 내 (i,j)위치의 SAD값을 나타내고, x와 y는 처리 블록 내의 좌표를 나타내며, 0과 1의 값을 가질 수 있다. Bt는 목표 영상내의 처리 블록, Bp는 p번 입력 저해상도 영상내의 처리 블록을 나타낸다.Here, SAD (i, j) represents the SAD value at the position (i, j) in the search area, and x and y represent the coordinates in the processing block and may have values of 0 and 1. B t denotes a processing block in the target image, and B p denotes a processing block in the p- th input low resolution image.

움직임 추정은 많은 연산을 필요로 하는 과정으로, 그 속도를 높이기 위해 다양한 방법이 제안되었으나[비특허문헌 12, 13] 모두 탐색의 정확도를 어느 정도 감소시킨다.Motion estimation requires a lot of computation. Various methods have been proposed to increase the speed of motion estimation. However, all of [Non-Patent Documents 12 and 13] reduce the search accuracy to some extent.

움직임 추정의 고속화는 종래의 공지 기술을 이용할 수 있다. 특히, 초해상도 영상 생성 방법의 결과는 정합의 정확도에 의해 크게 좌우되므로 본 발명에서는 전역탐색(full search) 방식의 움직임 추정을 사용한다.
Accelerating motion estimation can use conventional techniques known in the art. In particular, since the result of the method of generating a super-resolution image greatly depends on the accuracy of matching, the present invention uses a full search method of motion estimation.

다음으로, 움직임 벡터 정규화 단계(S40)를 설명한다. 앞서의 과정을 통해 영상 간의 움직임 벡터를 찾은 후 이를 정규화 하는 과정이 필요하다.Next, the motion vector normalization step S40 will be described. It is necessary to find the motion vector between the images and normalize them.

앞에서 언급한 바와 같이 복수 영상을 기반으로 하는 초해상도 영상 생성 방법은 입력영상 간 목표 영상에 대하여 부화소 단위의 이동이 보장되어야 한다[비특허문헌 2]. 즉, 영상 내 객체의 움직임은 반드시 한 화소 이내의 부화소 범위에서 나타나야 한다. 그러나 이러한 제한사항은 초해상도 영상 생성 방법을 적용할 수 있는 영상을 상당히 제한적으로 만든다. 다시 말해 움직이지 않는 사물이나 배경을 하나의 영상매체로 얻을 경우 쉽게 이러한 영상을 획득할 수 있으나, 객체의 움직임이 복잡하거나 클 경우 기존의 초해상도 영상 생성 방법을 적용하기 힘들다. 실제로 일반적인 동영상은 이러한 조건을 충분히 만족하지 않는다.As described above, in the method of generating a super-resolution image based on a plurality of images, movement of the target image between the input images must be guaranteed on a sub-pixel basis [Non-Patent Document 2]. That is, the motion of an object in an image must be displayed within a sub-pixel range within one pixel. However, these limitations make the image that can apply the super-resolution image generation method considerably restrictive. In other words, it is easy to acquire such an image if a moving object or a background is obtained as a single image medium. However, if the motion of the object is complicated or large, it is difficult to apply the existing super-resolution image generation method. In fact, typical videos do not fully satisfy these conditions.

따라서 본 발명에서는 움직임 벡터의 정규화를 통해 한 화소 이상의 큰 움직임 벡터를 갖는 일반적인 경우에 대해서도 초해상도 영상 생성 방법을 적용할 수 있도록 한다.Therefore, in the present invention, a normal resolution image generation method can be applied to a general case having a motion vector larger than one pixel through normalization of a motion vector.

도 9는 이에 따른 움직임 벡터 정규화 방법의 흐름도이다.9 is a flowchart of a motion vector normalization method according to the present invention.

먼저 전체 p장의 입력영상에서 목표 영상 내 하나의 처리 블록에 대하여 나머지 (p-1)장에 대한 블록 움직임 추정을 한다. 움직임추정 결과로 한 개의 목표 보간점에 대하여 총 2×2×(p-1)개의 움직임 벡터를 얻을 수 있다. 즉, 블록을 구성하는 화소가 2×2 개 이므로, 목표 시점을 제외하고 나머지 (p-1)장에서 움직임 추정의 결과로서, 각 장마다 한 블록씩 얻게 되어 총 벡터 수는 2×2×(p-1)개가 된다.First, the block motion estimation is performed for the remaining (p-1) chapters for one processing block in the target image in the input image of the p total chapters. As a result of the motion estimation, a total of 2 x 2 x (p-1) motion vectors can be obtained for one target interpolation point. That is, since the pixels constituting the block are 2 × 2, one block is obtained for each chapter as a result of the motion estimation in the remaining (p-1) chapters excluding the target viewpoint, so that the total number of vectors is 2 × 2 × p-1).

이 벡터가 0의 값을 가지는 경우 목표 보간점과의 거리가 0이므로 정규화를 거치지 않고 그 값을 그대로 사용한다. 만약 0의 벡터 값을 가지는 화소가 복수 개라면, 해당 화소들의 값을 평균하여 목표 보간점에 대입한다.If this vector has a value of 0, the distance from the target interpolation point is 0. Therefore, the value is used without being normalized. If there are a plurality of pixels having a vector value of 0, the values of the pixels are averaged and substituted into the target interpolation point.

0의 벡터 값을 가지는 화소란, 기본적으로 움직임 추정을 하면 ‘기준 화소’가 ‘움직임 추정이 가해지는 화소들 중에 가장 유사한 화소’와의 거리가 나오게 되는데 이 거리(벡터)가 0인 경우를 말한다. 즉, 움직임이 매우 적은 특성을 가진 정적인 동영상과 같이, 움직임 벡터가 0이 나오는 경우이다. 또한 목표 보간점은, 저해상도 영상을 고해상도 영상으로 옮겨놨을 때 필연적으로 화소의 빈자리(보간해야할 부분)가 발생하는데 이 부분을 목표 보간 점이라 한다.A pixel having a vector value of 0 means that a distance between the 'reference pixel' and 'the pixel that is the most similar among the pixels to which motion estimation is applied' is generated when the motion estimation is basically performed, and this distance (vector) is 0. That is, as in the case of a static moving picture with very low motion characteristics, a motion vector of 0 is generated. In addition, when the low-resolution image is transferred to the high-resolution image, the target interpolation point inevitably generates a vacancy (a portion to be interpolated) of the pixel, which is referred to as a target interpolation point.

반대로 추출한 움직임 벡터의 거리가 0이 아닌 경우, 4의 나머지 연산(modulo)으로 움직임 벡터를 정규화한다. 여기서 4의 나머지 연산을 하는 이유는 1/4화소 정확도의 움직임 추정을 위해 입력영상들에 대하여 가로 4배, 세로 4배의 부화소 확장을 적용하였기 때문이다.Conversely, if the distance of the extracted motion vector is not 0, the motion vector is normalized by the remaining 4 modulo. Here, the reason for performing the remainder of 4 is because the subpixel extension of 4 times the width and 4 times the length is applied to the input images for the motion estimation with the 1/4 pixel accuracy.

만약 나머지 연산의 결과가 0이라면, 해당 화소는 부화소 단위가 아닌 정수단위의 이동 량을 가지므로 목표점 보간에 사용하지 않는다. 나머지 연산의 결과가 0인 경우를 제외하고 4의 나머지 연산의 결과로 가능한 값은 1, 2, 3으로, 각각에 대하여 0.25, 0.5, 0.75의 부화소 이동 량을 부여하고 해당 화소 값을 저장한다.If the result of the remainder operation is 0, the corresponding pixel is not used for target point interpolation because it has an integer unit movement amount instead of a sub-pixel unit. Except that the result of the remaining operation is 0, the possible values of the remaining operations of 4 are 1, 2, and 3, and subpixel shift amounts of 0.25, 0.5, and 0.75 are assigned to each, and the corresponding pixel value is stored .

즉, 영상을 확장한 배수(또는 확장 배수, 예로서 4배)의 나머지 연산(modulo)으로 단위화하여, 추정된 움직임 벡터를 정규화한다.That is, the image is normalized by moduloing the image with a modulo of an extended multiple (or an extended multiple, for example, four times).

이렇게 얻어지는 정규화 된 움직임 벡터가 가리키는 각 입력 저해상도 영상의 정합점들과 그 화소 값들은 이하에서 언급할 커널 추정법(kernel estimation)을 통한 목표 화소 보간에 사용된다.
The matching points and the pixel values of each input low-resolution image pointed to by the normalized motion vector thus obtained are used for target pixel interpolation through kernel estimation as described below.

다음으로, 윤곽선 패턴 분석에 따라 움직임 벡터에 의한 정합점을 검증하는 단계(S50)를 설명한다.Next, a description will be made of a step (S50) of verifying a matching point by a motion vector in accordance with the contour pattern analysis.

기존 복수 영상 기반의 초해상도 영상 생성 방법들의 경우 정합의 결과로서 얻은 화소 값들에 대해 정합의 정확도나 윤곽선의 패턴을 고려하지 않고 다양한 보간법을 통해 목표 보간점의 화소 값을 구한다. 그러나 이 부분을 고려하지 않으면 적합하지 않은 화소 값이라 해도 부화소 이내의 움직임 조건만 만족하면 사용될 수 있어 제안하는 방법의 결과 품질을 저하시킨다.In the case of the conventional multiple image based super resolution image generation methods, the pixel values of the target interpolation point are obtained through various interpolation methods without considering the matching accuracy or the contour line pattern for the pixel values obtained as the matching result. However, if this part is not taken into consideration, even if the pixel value is not suitable, it can be used if only the motion condition within the sub-pixel is satisfied, which degrades the result quality of the proposed method.

이 오류를 도 10에 보인다. 도 10의 (a)에 보인 것처럼 검게 칠해진 부분은 윤곽선을 나타내며, 이 윤곽선이 포함된 블록을 초해상도 복원 시 사용하기 위한 정합점들 중 일부를 붉은색과 파란색으로 나타내었다. 파란색으로 표시된 위치에 속해있는 정합점들은 사용되기에 적합하지만, 붉은색으로 표시된 위치의 정합점들을 사용하면 화소 값의 정확도가 떨어지고, 경우에 따라 화소 값이 튀는 격자현상이 나타날 수 있다. 이러한 오류를 개선하기 전과 개선한 후의 결과를 도 10의 (b) 와 (c)에 각각 보이고 붉은 원으로 표시하였다.This error is shown in FIG. As shown in FIG. 10 (a), the hatched portion represents an outline, and some of the matching points for using the block including the outline in the resolution restoration are shown in red and blue. Although the matching points belonging to the positions indicated in blue are suitable for use, the accuracy of the pixel values may be degraded and the lattice phenomenon of the pixel values may occur in some cases if the matching points of the positions indicated in red are used. The results before and after improvement of these errors are shown in Fig. 10 (b) and (c), respectively, and are indicated by a red circle.

본 발명에서는 2×2 블록단위의 처리를 함으로써 도 11에 보인 것처럼 총 여덟 가지의 윤곽선 패턴 분석을 할 수 있다.In the present invention, a total of eight patterns of contour lines can be analyzed as shown in FIG. 11 by performing processing in units of 2x2 blocks.

판단의 기준은 다음과 같다.The criteria for judgment are as follows.

예를 들어 도 11의 ①의 경우 a와 b, c와 d의 화소 값의 차이가 매우 근소해야 하고, a와 c, b와 d의 화소 값의 차이는 충분히 커야 한다. 이러한 차이 값 역시 문턱 값을 정해서 판별하며, 문턱 값에 따라 패턴 분석의 민감도를 조절할 수 있다. 이러한 기준에 의해 ①의 패턴으로 판단이 될 경우, 모인 정합점들에 대하여 c와 d범위 내에 있는 점들은 사용하지 않는다. 나머지 7개 윤곽선 패턴의 경우도 마찬가지의 방식을 적용한다.For example, in the case of (1) in FIG. 11, the difference between the pixel values of a and b, c and d should be very small, and the difference between the pixel values of a and c, b and d should be sufficiently large. This difference value is also determined by determining the threshold value, and the sensitivity of the pattern analysis can be adjusted according to the threshold value. If these criteria are used to judge by the pattern of (1), the points within the range of c and d are not used for the collected matching points. The same applies to the remaining 7 contour patterns.

이러한 윤곽선의 패턴분석방법 외에, 수학식 4를 이용하여 부화소 탐색으로 구해진 목표 보간점과 일정한 문턱 값 이상 차이가 나는 정합점들은 사용하지 않는다. In addition to the method of pattern analysis of the outline, the matching points which differ from the target interpolation point obtained by the sub-pixel search using Equation (4) by a predetermined threshold value are not used.

[수학식 4]&Quot; (4) "

Figure 112013014621877-pat00004
Figure 112013014621877-pat00004

여기서 V(Pt)는 정합점 탐색의 기준이 되는 원본 화소 값을, V(Pr)은 각 정합점의 화소 값을 의미한다. 최적의 T값을 통하여 잘못된 정합점의 사용으로 나타날 수 있는 격자 현상을 해결할 수 있다.Here, V (P t ) is a source pixel value used as a reference for matching point search, and V (P r ) is a pixel value of each matching point. The optimal T value can solve the lattice phenomenon that may be caused by the use of an incorrect matching point.

이 단계에서 설명한 두 가지 방법을 이용하여 결과영상에서 경계 부근의 잡음을 효과적으로 제거할 수 있다.By using the two methods described in this step, it is possible to effectively remove the noise near the boundary of the result image.

부연하면, 정합점이 구해지는 때의 영상은 수학식 1과 2를 통해 확장된 상태에서 얻어지는 영상이고, 기준화소는 f(t)내부의 화소이다. 정합점 화소란 나머지 시점(f(t-2) 등)에서 얻어지는 화소이다. 윤곽선 패턴 분석을 통해 일부 정합점을 버리고, 기준화소와 일정 이상 차이가 날 경우 정합점을 버린다. 이 두 단계를 거쳐 남은 신뢰도가 높은 정합점을 보간에 사용한다. In other words, the image when the matching point is obtained is an image obtained by expanding through Equations 1 and 2, and the reference pixel is a pixel inside f (t). The matching point pixel is a pixel obtained at the remaining time point (f (t-2), etc.). By discarding some matching points through contour pattern analysis and discarding the matching points when a difference exceeds a certain distance from the reference pixel. Through these two steps, we use the remaining highly reliable matching points for interpolation.

결과적으로, 앞의 실시예에서, 목표 영상을 16배 부화소 확장을 하고, 각 확장된 부화소의 값이 제대로 구해졌는지를 전후 시점의 영상을 통해 검증한다. 이때, 움직임 벡터를 통한 정합점에 의한 윤곽선패턴으로 검증한다. 부화소 확장(수학식1)은 단순히 원본 저해상도 목표 시점영상을 이루는 화소들에 계수를 곱하여 얻어지는 확장 영상이다. 여기서 임시로 채워진 화소들을 기준으로 다른 나머지 시점들과의 움직임 추정 및 윤곽선 패턴분석으로 값을 보정하는 것이다.
As a result, in the above embodiment, the target image is expanded by 16 times the subpixel, and whether the value of each extended subpixel is correctly obtained is verified through the images at the preceding and following points in time. At this time, it is verified by an outline pattern by a matching point through a motion vector. The subpixel expansion (Equation 1) is an extension image obtained by simply multiplying pixels constituting an original low-resolution target view image by a coefficient. Here, the values are corrected by motion estimation and contour pattern analysis with respect to other remaining time points based on temporarily filled pixels.

다음으로, 1차원 커널 추정식을 통한 확장된 영상의 최종 부화소의 화소값을 추정하는 단계(S60)를 설명한다.Next, a step S60 of estimating the pixel value of the last sub-pixel of the expanded image through the one-dimensional kernel estimation equation will be described.

앞서의 단계를 통해 선택된 정합점들을 이용하여 목표로 하는 보간점의 화소 값을 추정한다. 본 발명에서 사용되는 1차원의 커널 추정법(kernel estimation)은 데이터가 주어졌을 때 복수 표본의 위치와 해당 값을 근거로 하여 임의 위치의 값을 구하는 추정법이다.The pixel values of the target interpolation point are estimated using the matching points selected in the previous step. The one-dimensional kernel estimation used in the present invention is an estimation method for obtaining a value of an arbitrary position based on the position of a plurality of samples and the corresponding values when data is given.

커널 추정법은 추정 식의 차수에 따라 그 정확도가 결정되나, 차수 증가에 따른 식의 복잡도가 매우 커지기 때문에 일반적으로 차수를 0으로 하여 정규화 한 추정 식을 사용한다. 수학식 5에 보인 것처럼 추정 식의 차수를 0으로 하여 정규화 된 경우 이를 나다라야-왓슨(nadaraya-watson) 커널 추정식이라 한다[비특허문헌 14].In the kernel estimation method, the accuracy is determined according to the degree of the estimation equation. However, since the complexity of the equation becomes very large as the order increases, the normalized estimation equation is used. As shown in Equation (5), when the degree of the estimation equation is normalized to zero, this is called a nadaraya-watson kernel estimation equation [Non Patent Document 14].

[수학식 5]&Quot; (5) "

Figure 112013014621877-pat00005
Figure 112013014621877-pat00005

여기서 K(u)는 가우시안 기반의 커널 식을 의미하며, 수학식 6으로 나타낼 수 있다.Here, K (u) means a Gaussian based kernel equation, and can be expressed by Equation (6).

[수학식 6]&Quot; (6) "

Figure 112013014621877-pat00006
Figure 112013014621877-pat00006

또한, 수학식 6의 xi-x는 목표 보간점과 i번째 정합점 사이의 유클리드 거리(euclidean distance)를 나타내고, Yi는 i번째 정합점의 화소 값을, h는 커널 추정 식의 대역폭(bandwidth)을 나타낸다.In Equation (6), x i -x represents the euclidean distance between the target interpolation point and the i-th matching point, Y i represents the pixel value of the i-th matching point, h represents the bandwidth of the kernel estimation equation bandwidth.

앞 단계에서 설명한 정규화 과정을 통해 얻은 움직임 벡터는 가로와 세로 방향으로 각각 0.25, 0.5, 0.75의 값을 가질 수 있다.The motion vectors obtained from the normalization process described in the previous step can have values of 0.25, 0.5, and 0.75 in the horizontal and vertical directions, respectively.

도 12에 정합점들과 보간하고자 하는 목표점과의 위치관계를 보인다. 도 12의 (a)에 보인 것처럼 각 정합점들의 목표 보간점과의 유클리드 거리와 해당 화소 값이 앞서 설명한 수학식 5에서 사용된다. 이를 통해 최종적인 목표 보간점의 화소 값을 구할 수 있다.12 shows the positional relationship between the matching points and the target point to be interpolated. As shown in FIG. 12 (a), the Euclidean distance from the target interpolation point of each matching point and the corresponding pixel value are used in Equation (5) described above. Thus, the pixel value of the final target interpolation point can be obtained.

요약하면, 우선 6탭 필터를 적용하여 모든(7장) 영상이 16배씩 확장된다. 그 후 목표 시점 영상을 기준으로 하여 나머지 여섯장에 움직임 추정을 하면 움직임 벡터들(normalization 적용 된)과 그 벡터가 가리키는 정합점이 추출되고, 이 정합점을 그대로 사용하는 것이 아니라 두 단계로 걸러낸 후에 남은 정합점들을 보간에 사용된다. 결국 정합점이란 6탭 필터에 의해 구해진 화소(또는 부화소)를 포함한 전체 화소(전후시점 구분없이 전체 화소)가 후보가 될 수 있다.
In summary, all (7) images are expanded 16 times by applying a 6-tap filter. Thereafter, if motion estimation is performed on the remaining six frames based on the target viewpoint image, the motion vectors (normalization applied) and the matching points indicated by the vectors are extracted. Instead of using the matching points as they are, The remaining matching points are used for interpolation. As a result, all pixels including the pixel (or the sub-pixel) obtained by the 6-tap filter (all the pixels without the front and rear viewpoints) can be candidates.

다음으로, 본 발명의 효과를 실험을 통해 구체적으로 설명한다.Next, the effects of the present invention will be described in detail through experiments.

본 발명에서 제안한 방법의 성능을 확인하기 위한 실험 조건은 다음과 같다. 우선 352×288(CIF) 크기의 'Mother and Daughter', 'News', 'Carphone', 'Coastguard', 'Tempete', 5개의 동영상들에 대하여 각각 연속된 30장의 영상을 176×144 (QCIF) 크기로 다운 샘플링(down-sampling) 한다. 그 후 다운 샘플링 된 영상에 각각 이중선형(bi-linear)보간법, 이산 웨이블릿 변환 (Discrete Wavelet Transform; DWT) 기반의 초해상도 영상 생성 방법[비특허문헌 3], 기존에 제안된 복수 영상 기반의 초해상도 영상 생성 방법[비특허문헌 4]과 제안된 본 발명의 방법을 적용하여 다시 원본 크기로 복원 후 주관적, 객관적으로 결과를 비교하는 방식으로 실험을 진행한다. 객관적인 성능 비교를 위하여 본 발명에서는 수학식 7의 PSNR을 기준으로 사용한다[비특허문헌 14]. Experimental conditions for confirming the performance of the method proposed by the present invention are as follows. First, 30 consecutive images of 176 × 144 (QCIF) images were recorded for 5 videos with a size of 352 × 288 (CIF) 'Mother and Daughter', 'News', 'Carphone', 'Coastguard', 'Tempete' Down-sampling to the size of the image. Thereafter, a bi-linear interpolation method and a discrete wavelet transform (DWT) -based super-resolution image generation method [Non-Patent Document 3] are applied to the downsampled images, The resolution image generation method [Non-Patent Document 4] and the proposed method of the present invention are applied to restore the original size, and then the experiment is conducted by subjectively and objectively comparing the results. For objective performance comparison, the present invention uses the PSNR of Equation (7) as a reference (Non-Patent Document 14).

[수학식 7]&Quot; (7) "

Figure 112013014621877-pat00007
Figure 112013014621877-pat00007

여기서 f는 원본 영상, g는 비교하고자 하는 영상, M과 N은 각각 영상의 가로와 세로의 길이를 나타낸다. 이 수치가 높을수록 비교하고자 하는 영상 g는 원본영상 f에 가깝고, 방법의 성능이 우수한 것으로 정의한다.Where f is the original image, g is the image to be compared, and M and N are the length and width of the image, respectively. The higher the value, the closer the image g to be compared to the original image f, and the better the performance of the method is defined.

도 13의 표에 총 5개의 실험 영상에 따른 각각의 PSNR(Peak Signal to Noise Ratio) 측정결과를 나타내었다. 최초 30장의 실험영상을 대상으로 PSNR을 측정하고, 그 평균수치를 나타내었다. 표에서 확인할 수 있듯이 제안하는 본 발명의 방법을 기존 방법들과 비교했을 때, 각 실험영상에 따라 다르지만 가장 높은 PSNR 수치를 나타내는 것을 확인할 수 있다. 특히 이중선형(Bi-linear) 보간법과의 차이는 평균 2.5db이상으로 매우 큰 것을 알 수 있으며, 'Mother and daughter', 'News' 영상의 경우 3.8db 이상의 높은 수치차이를 나타낸다.The results of measurement of each PSNR (Peak Signal to Noise Ratio) according to the five experimental images are shown in the table of FIG. PSNR was measured on the first 30 experimental images and the average value was shown. As can be seen in the table, when the proposed method of the present invention is compared with the existing methods, it can be confirmed that the PSNR value is the highest, although it depends on each experimental image. Especially, the difference from the bi-linear interpolation method is larger than the average of 2.5dB. The 'Mother and daughter' and 'News' images show a high difference of more than 3.8db.

도 14부터 도 18을 통해 실험영상에 따른 각 보간 방법의 주관적 화질 비교를 보인다. 자세한 비교를 위해 영상의 일부를 8배 확대하여 함께 보인다.14 through 18, a subjective image quality comparison of each interpolation method according to an experimental image is shown. For a more detailed comparison, a portion of the image is magnified 8 times and shown together.

도 14부터 도 18를 보면 도 13의 표에서의 PSNR 차이와 같이 이중선형 보간법과의 선명도 차이가 매우 크다는 것을 알 수 있다. 특히 도 14부터 도 16의 각 확대 영상에서는 영상 내 인물의 얼굴과 경계 부근에서 기존에 제안된 방법들에 비하여 뚜렷한 윤곽선을 가진다는 것을 확인 할 수 있다. 14 to 18, it can be seen that the difference in sharpness from the bilinear interpolation method is very large as in the PSNR difference in the table of FIG. In particular, in the enlarged images of FIGS. 14 to 16, it can be seen that the images have a clear contour line in comparison with the previously proposed methods in the face and the boundary of the image.

또한 도 17의 (d)에 확대 된 객체 하단부에 2장에서 언급한 잘못된 정합점들의 사용 시 나타날 수 있는 잡음과 그것이 제안된 방법을 통해 제거된 결과를 눈으로 확인할 수 있다. 마지막으로 도 18의 (d)에서 역시 정합오류로 인한 잡음이 관측되지만 그림 (e)에서 깨끗이 제거된 모습을 볼 수 있다. 도 14부터 도 18의 (c) 가 나타내는 이산 웨이블릿 변환 기반의 초해상도 영상 생성 방법[비특허문헌 3]의 경우 기존의 이중선형 보간법 보다는 객관적, 주관적으로 좋은 성능을 보이지만, 서론에서 언급한 것과 같이 외부의 정보를 활용할 수 없다는 점에서 화질 상승의 한계가 있다는 사실을 객관적 수치 비교를 통해 확인할 수 있다.It is also possible to visually observe the noise that may appear in the case of using the false matching points mentioned in the chapter 2 at the lower part of the object enlarged in (d) of FIG. 17 and the result of removing it through the proposed method. Finally, in Fig. 18 (d), noise due to matching error is also observed, but it can be seen that the noise is removed from the figure (e). In the case of the method of generating a super-resolution image based on the discrete wavelet transform shown in FIGS. 14 to 18C (Non-Patent Document 3), the objective and subjective performance are better than the conventional bilinear interpolation method. However, The fact that there is a limit to the increase of the picture quality in that the external information can not be utilized can be confirmed through the objective numerical comparison.

본 발명에서는 기존의 단일영상 초해상도 영상 생성 방법과 복수 영상 기반의 초해상도 영상 생성 방법이 포함하고 있는 여러 제한 사항을 완화할 수 있는 새로운 초해상도 영상 생성 방법을 제안하였다. 제안하는 방법에서는 동영상 내 영상들간에 부화소 단위의 움직임만이 존재해야 하는 제한을 움직임 벡터의 정규화를 통해 다양한 동영상에 초해상도 영상 생성 방법을 적용 가능하도록 범위를 확대하고, 윤곽선(edge)의 패턴 분석을 통하여 각 영상의 내용에 적응적인 보간을 하도록 하였다. 실험 결과 제안하는 초해상도 영상 생성 방법이 기존의 이중선형(bi-linear) 보간법, 단일영상 기반의 초해상도 영상 생성 방법과 복수 영상 기반의 초해상도 영상 생성 방법보다 객관적, 주관적으로 우수한 성능을 가진다는 것을 확인할 수 있었다.
The present invention proposes a new super-resolution image generation method that can mitigate various limitations of the conventional single-image super-resolution image generation method and the multi-image-based super-resolution image generation method. In the proposed method, the constraint that only the subpixel motion should be present between the images in the moving image is enlarged so that the method of generating the superresolution image can be applied to various moving pictures through the normalization of the motion vector, and the pattern of the edge Through the analysis, adaptive interpolation was applied to the contents of each image. Experimental results show that the proposed super-resolution image generation method has more objective and subjective superior performance than the existing bi-linear interpolation method, single-image-based super-resolution image generation method, and multi- .

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
Although the present invention has been described in detail with reference to the above embodiments, it is needless to say that the present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the spirit of the present invention.

10 : 저해상도 영상 20 : 초해상도 영상
30 : 컴퓨터 단말 40 : 프로그램 시스템
10: Low Resolution Image 20: Super Resolution Image
30: computer terminal 40: program system

Claims (6)

복수개의 시간상으로 연속된 저해상도 영상을 입력받아 초해상도 영상을 생성하는 복수 영상 기반 초해상도 영상 생성 방법에 있어서,
(a) 상기 저해상도 영상에서 목표 시점의 영상 및 상기 목표 시점의 전후 시점의 영상을 선정하는 단계;
(b) 상기 목표 시점 및 전후 시점의 영상(이하 대상 영상)의 부화소를 화소로 확장하고, 6-tap FIR(finite impulse response) 필터(이하 6탭 필터)를 적용하여 보간하는 단계;
(c) 상기 목표 시점의 확장된 영상을 기준으로, 상기 전후 시점의 확장된 영상에서의 블록 단위의 움직임 벡터를 추정하는 단계; 및,
(d) 상기 대상 영상의 확장 배수의 나머지 연산(modulo)으로, 추정된 움직임 벡터를 정규화하는 단계;
(e) 윤곽선 패턴 분석에 따라 움직임 벡터에 의한 정합점을 검증하는 단계; 및,
(f) 1차원 커널 추정식을 통한 확장된 영상의 최종 부화소의 화소값을 추정하는 단계를 포함하는 것을 특징으로 하는 복수 영상 기반 초해상도 영상 생성 방법.
A multi-image-based super-resolution image generation method for generating a super-resolution image by receiving a plurality of temporally continuous low-resolution images,
(a) selecting an image at a target time point and an image at forward and backward points of time at the target point in the low-resolution image;
(b) expanding the subpixels of the target viewpoint and the forward / backward viewpoint image (hereinafter referred to as a target image) into pixels and interpolating by applying a 6-tap finite impulse response (FIR) filter (hereinafter referred to as a 6-tap filter);
(c) estimating a block-by-block motion vector in the expanded image at the previous and following points on the basis of the expanded view of the target viewpoint; And
(d) normalizing the estimated motion vector with a modulo of an expansion multiple of the target image;
(e) verifying a matching point by a motion vector according to a contour pattern analysis; And
(f) estimating a pixel value of a final sub-pixel of the extended image through a one-dimensional kernel estimation equation.
제1항에 있어서,
상기 (b)단계에서, 상기 대상 영상들에 6탭 필터를 적용하여 1/2화소를 구하고 선형보간법을 적용하여 1/4화소를 구하여, 상기 대상 영상을 16배로 확장하는 것을 특징으로 하는 복수 영상 기반 초해상도 영상 생성 방법.
The method according to claim 1,
Wherein in step (b), a 6-tap filter is applied to the target images to obtain 1/2 pixel, linear interpolation is applied to obtain 1/4 pixels, and the target image is expanded 16 times Based super resolution image generation method.
제1항에 있어서,
상기 (c)단계에서, 2×2 블록단위의 움직임 추정을 추정하되, 영상 간 유사블록의 탐색 기준은 SAD(sum of absolute difference)값을 이용하는 것을 특징으로 하는 복수 영상 기반 초해상도 영상 생성 방법.
The method according to claim 1,
Wherein the step (c) estimates a 2x2 block-by-block motion estimation, and uses a SAD (sum of absolute difference) value as a search criterion of an inter-image similar block.
제1항에 있어서,
상기 (d)단계에서, 상기 움직임 벡터가 0이 아닌 경우, 영상의 가로 또는 세로의 확장 배수로 상기 움직임 벡터를 나머지 연산(modulo)하여 정규화하는 것을 특징으로 하는 복수 영상 기반 초해상도 영상 생성 방법.
The method according to claim 1,
Wherein, in the step (d), if the motion vector is not 0, the motion vector is normalized by modulo the motion vector with a horizontal or vertical extension of the image.
제1항에 있어서,
상기 (e)단계에서, 2×2 블록단위로 윤곽선 패턴을 대비하여 분석하는 것을 특징으로 하는 복수 영상 기반 초해상도 영상 생성 방법.
The method according to claim 1,
Wherein, in step (e), the outline pattern is analyzed in units of 2x2 blocks.
제1항에 있어서,
상기 (f)단계에서, 나다라야-왓슨(nadaraya-watson) 커널 추정식을 이용하는 것을 특징으로 하는 복수 영상 기반 초해상도 영상 생성 방법.
The method according to claim 1,
Wherein in the step (f), a nadaraya-watson kernel estimation equation is used.
KR1020130017312A 2013-02-19 2013-02-19 A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis Expired - Fee Related KR101428531B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130017312A KR101428531B1 (en) 2013-02-19 2013-02-19 A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130017312A KR101428531B1 (en) 2013-02-19 2013-02-19 A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis

Publications (1)

Publication Number Publication Date
KR101428531B1 true KR101428531B1 (en) 2014-08-26

Family

ID=51750000

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130017312A Expired - Fee Related KR101428531B1 (en) 2013-02-19 2013-02-19 A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis

Country Status (1)

Country Link
KR (1) KR101428531B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343923A (en) * 2021-07-01 2021-09-03 江苏舆图信息科技有限公司 Real-time river drainage port drainage state identification method based on video images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040106202A (en) * 2003-06-11 2004-12-17 학교법인 대양학원 Method and apparatus for motion vector search
KR100504594B1 (en) 2003-06-27 2005-08-30 주식회사 성진씨앤씨 Method of restoring and reconstructing a super-resolution image from a low-resolution compressed image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040106202A (en) * 2003-06-11 2004-12-17 학교법인 대양학원 Method and apparatus for motion vector search
KR100504594B1 (en) 2003-06-27 2005-08-30 주식회사 성진씨앤씨 Method of restoring and reconstructing a super-resolution image from a low-resolution compressed image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343923A (en) * 2021-07-01 2021-09-03 江苏舆图信息科技有限公司 Real-time river drainage port drainage state identification method based on video images

Similar Documents

Publication Publication Date Title
JP5453304B2 (en) Motion estimation using adaptive search range
US9602814B2 (en) Methods and apparatus for sampling-based super resolution video encoding and decoding
US7860167B2 (en) Apparatus and method for adaptive 3D artifact reducing for encoded image signal
CN101379827B (en) Edge-based spatio-temporal filtering method and device
JP3753578B2 (en) Motion vector search apparatus and method
KR100530223B1 (en) Frame interpolation method and apparatus at frame rate conversion
EP0849950A2 (en) Dynamic sprites for encoding video data
US7957610B2 (en) Image processing method and image processing device for enhancing the resolution of a picture by using multiple input low-resolution pictures
KR101773279B1 (en) Upsampling and signal enhancement
US20100026897A1 (en) Method, Apparatus, and Computer Software for Modifying Moving Images Via Motion Compensation Vectors, Degrain/Denoise, and Superresolution
US20110188583A1 (en) Picture signal conversion system
JP2000188680A (en) Method and system for generating high resolution image
JP2009147807A (en) Image processing device
Jaiswal et al. Exploitation of inter-color correlation for color image demosaicking
Georgis et al. Reduced complexity superresolution for low-bitrate video compression
JP2000244851A (en) Image processing apparatus, method, and computer-readable storage medium
Bareja et al. An effective iterative back projection based single image super resolution approach
KR100565066B1 (en) Motion Compensation Interpolation Method Using Overlapping Block-based Motion Estimation and Frame Rate Conversion Apparatus
US7129987B1 (en) Method for converting the resolution and frame rate of video data using Discrete Cosine Transforms
US9008421B2 (en) Image processing apparatus for performing color interpolation upon captured images and related method thereof
Vo et al. Selective data pruning-based compression using high-order edge-directed interpolation
WO2014008329A1 (en) System and method to enhance and process a digital image
JP2005295510A (en) Resolution conversion method and apparatus
Wang et al. Improved super-resolution reconstruction from video
Bätz et al. Multi-image super-resolution using a locally adaptive denoising-based refinement

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

Fee payment year number: 1

St.27 status event code: A-2-2-U10-U11-oth-PR1002

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

FPAY Annual fee payment

Payment date: 20170721

Year of fee payment: 4

PR1001 Payment of annual fee

Fee payment year number: 4

St.27 status event code: A-4-4-U10-U11-oth-PR1001

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 5

PR1001 Payment of annual fee

Fee payment year number: 5

St.27 status event code: A-4-4-U10-U11-oth-PR1001

FPAY Annual fee payment

Payment date: 20190603

Year of fee payment: 6

PR1001 Payment of annual fee

Fee payment year number: 6

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PC1903 Unpaid annual fee

Not in force date: 20200805

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

St.27 status event code: A-4-4-U10-U13-oth-PC1903

PC1903 Unpaid annual fee

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20200805

St.27 status event code: N-4-6-H10-H13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000