[go: up one dir, main page]

KR101155227B1 - Apparatus and method for converting image reflecting directional texture information of original image - Google Patents

Apparatus and method for converting image reflecting directional texture information of original image Download PDF

Info

Publication number
KR101155227B1
KR101155227B1 KR1020110005519A KR20110005519A KR101155227B1 KR 101155227 B1 KR101155227 B1 KR 101155227B1 KR 1020110005519 A KR1020110005519 A KR 1020110005519A KR 20110005519 A KR20110005519 A KR 20110005519A KR 101155227 B1 KR101155227 B1 KR 101155227B1
Authority
KR
South Korea
Prior art keywords
image
pixel
pixels
value
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020110005519A
Other languages
Korean (ko)
Other versions
KR20110133411A (en
Inventor
윤경현
이호창
서상현
류승택
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Publication of KR20110133411A publication Critical patent/KR20110133411A/en
Application granted granted Critical
Publication of KR101155227B1 publication Critical patent/KR101155227B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

윤곽선 효과를 고려한 영상 변환 장치 및 방법이 개시된다. 영상 입력부는 형태와 색상에 있어서 결과 영상의 기본이 되는 영상인 목표 영상과 결과 영상의 질감을 결정하기 위해 사용되는 참조 영상인 소스 영상을 입력받는다. 거리 함수 계산부는 결과 영상을 구성하는 각각의 픽셀의 값을 결정하기 위해 결과 영상에서 순차적으로 선택된 처리 대상 픽셀에 대응하여 색상 인자, 질감 인자 및 방향 인자의 합으로 정의되는 거리 함수의 값을 계산한다. 결과 영상 생성부는 소스 영상 상에서 결정된 후보 픽셀들 중에서 거리 함수의 계산 결과를 최소화하는 픽셀의 픽셀값을 처리 대상 픽셀의 픽셀값으로 결정하여 결과 영상을 생성한다. 본 발명에 따르면, 소스 영상의 질감을 정확하게 반영하는 동시에 목표 영상의 방향성이 반영된 자연스러운 결과 영상을 생성할 수 있다.Disclosed are an image converting apparatus and method considering the contour effect. The image input unit receives a target image, which is the basic image of the result image, and a source image, which is a reference image used to determine the texture of the result image, in shape and color. The distance function calculator calculates a value of a distance function defined as a sum of color factors, texture factors, and direction factors corresponding to the pixels to be processed sequentially in the result image to determine values of each pixel constituting the result image. . The result image generator generates a result image by determining a pixel value of a pixel that minimizes a result of the calculation of the distance function among candidate pixels determined on the source image as the pixel value of the pixel to be processed. According to the present invention, it is possible to generate a natural result image reflecting the texture of the source image accurately and reflecting the direction of the target image.

Description

원 영상의 형태 방향 정보를 반영한 영상 변환 장치 및 방법{Apparatus and method for converting image reflecting directional texture information of original image}Apparatus and method for converting image reflecting directional texture information of original image}

본 발명은 영상 변환 장치 및 방법에 관한 것으로, 보다 상세하게는 사실적 영상을 비사실적 영상으로 변환하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for converting an image, and more particularly, to an apparatus and method for converting a realistic image into a non-realistic image.

화가들은 유사하고 안정적인 브러쉬 스트로크를 이차원 캔버스에 반복적으로 사용하여 그림을 그린다. 도 1에서 볼 수 있듯이 미술작품들은 재료와 서로 다른 길이, 방향 및 크기의 스트로크를 생성하기 위한 화가들의 브러쉬 사용기법에 따라 매우 상이한 형태를 가질 수 있다. 특히 브러쉬 스트로크는 물체의 형태를 표현하기 위한 경계를 따르기 때문에 브러쉬 스트로크의 방향은 중요한 특징이다. 비사실적 렌더링(Non-Photorealistic Rendering : NPR)의 주요 목표는 회화 기법의 모방이다. 비사실적 렌더링은 사용자와의 상호작용을 통한 브러쉬 작업의 물리적 동시성, 스트로크(붓터치) 기반 렌더링, 목표 영상에 기초한 질감 전이 등과 같은 구상 방법에 의해 분류될 수 있다. 이러한 비사실적 렌더링 기법 중에서 질감 전이 기법은 예제 소스 영상(S)과 목표 영상(T)을 입력받아 최종적인 결과 영상(R)을 출력한다. 목표 영상(T)에 존재하는 각각의 픽셀은 예제 소스 영상(S)를 구성하는 후보 집합 중에서 최적값에 의해 갱신된다. 결과 영상(R)은 목표 영상(T)의 색상과 소스 영상(S)의 질감을 합성하여 얻어진다. 기존의 기법들은 후보 픽셀들을 선정하기 위해 평균 색상과 공간 주파수에 기초한 거리 인자를 사용하여 후보 집합으로부터 최적의 질감을 검출한다. 이러한 인자들은 소스 영상(S)으로부터 목표 영상(T)으로의 질감 전이에 효과적이기는 하지만, 목표 영상(T)의 방향 정보가 손실된다. 앙호한 방향 정보의 사용에 의해 관찰자는 객체의 형태를 재구성하기 용이하고, 보다 예술적인 인상을 낳게 된다. 회화에 있어서 방향의 중요성은 브러쉬 스트로크가 명백하게 윤곽선의 방향을 따르는 반 고호의 작품에서 명백하게 알 수 있다. 스트로크 기반 렌더링 분야에서 이러한 기법은 스트로크의 방향을 조절하기 위해 널리 연구되고 있다. 일반적으로 영상의 경사(Gradient)는 스트로크 방향을 조절하기 위해 고려되나, 질감 전이 알고리즘은 이를 고려하기 어려운 픽셀 기반의 접근 방법이다.Painters draw a similar, stable brush stroke repeatedly on a two-dimensional canvas. As can be seen in Figure 1, the artworks can have very different forms depending on the artist's brush usage to create strokes of different lengths, directions and sizes from the material. In particular, the direction of the brush stroke is an important feature since the brush stroke follows a boundary for expressing the shape of the object. The main goal of Non-Photorealistic Rendering (NPR) is to imitate painting techniques. Non-realistic rendering can be categorized by visualization methods such as physical concurrency of brush operations through user interaction, stroke (brush-touch) based rendering, texture transitions based on target images, and the like. Among the non-realistic rendering techniques, the texture transfer technique receives the example source image S and the target image T and outputs the final result image R. Each pixel present in the target image T is updated by an optimal value among candidate sets constituting the example source image S. FIG. The resultant image R is obtained by synthesizing the color of the target image T and the texture of the source image S. FIG. Existing techniques detect the optimal texture from a candidate set using distance factors based on average color and spatial frequency to select candidate pixels. Although these factors are effective for the texture transition from the source image S to the target image T, the direction information of the target image T is lost. The use of obscure direction information makes it easier for the observer to reconstruct the shape of the object and create a more artistic impression. The importance of direction in painting is evident in Van Gogh's work in which the brush strokes clearly follow the direction of the outline. In the field of stroke-based rendering, this technique is widely studied to control the direction of stroke. Generally, the gradient of an image is considered to control the stroke direction, but the texture transition algorithm is a pixel-based approach that is difficult to consider.

본 발명이 이루고자 하는 기술적 과제는 목표 영상과 예제 소스 영상의 방향 성분과 목표 영상의 영상 경사에 기초한 윤곽선 효과를 모두 고려하여 결과 영상이 목표 영상의 방향성을 가지면서 예제 소스 영상의 질감을 반영할 수 있는 영상 변환 장치 및 방법을 제공하는 데 있다.The technical problem to be achieved by the present invention is to reflect the texture of the example source image while the resultant image has the orientation of the target image in consideration of both the directional component of the target image and the example source image and the contour effect based on the image tilt of the target image. There is provided an image conversion apparatus and method.

본 발명이 이루고자 하는 다른 기술적 과제는 목표 영상과 예제 소스 영상의 방향 성분과 목표 영상의 영상 경사에 기초한 윤곽선 효과를 모두 고려하여 결과 영상이 목표 영상의 방향성을 가지면서 예제 소스 영상의 질감을 반영할 수 있는 영상 변환 방법을 컴퓨터에서 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be achieved by the present invention is to reflect the texture of the example source image while the resultant image has the orientation of the target image in consideration of both the directional component of the target image and the example source image and the contour effect based on the image tilt of the target image. The present invention provides a computer-readable recording medium that records a program that can be executed on a computer.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 영상 변환 장치는, 형태와 색상에 있어서 결과 영상의 기본이 되는 영상인 목표 영상과 상기 결과 영상의 질감을 결정하기 위해 사용되는 참조 영상인 소스 영상을 입력받는 영상 입력부; 상기 결과 영상을 구성하는 각각의 픽셀의 값을 결정하기 위해 상기 결과 영상을 구성하는 픽셀들 중에서 순차적으로 선택된 처리 대상 픽셀에 대해 다음의 수학식 A로 정의되는 거리 함수의 값을 계산하는 거리 함수 계산부; 및 상기 소스 영상 상에서 결정된 후보 픽셀들 중에서 상기 거리 함수의 계산 결과를 최소화하는 픽셀의 픽셀값을 상기 처리 대상 픽셀의 픽셀값으로 결정하여 상기 결과 영상을 생성하는 결과 영상 생성부;를 구비한다.In order to achieve the above technical problem, an image conversion apparatus according to the present invention includes a target image, which is a basic image of a result image, and a source image, which is a reference image used to determine texture of the result image, in shape and color. Image input unit for receiving a; Distance function calculation for calculating a value of a distance function defined by Equation A below for a target pixel sequentially selected among pixels constituting the resultant image to determine a value of each pixel constituting the resultant image. part; And a result image generator configured to generate a result image by determining a pixel value of a pixel which minimizes a result of the calculation of the distance function among the candidate pixels determined on the source image as the pixel value of the pixel to be processed.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 영상 변환 방법은, (a) 형태와 색상에 있어서 결과 영상의 기본이 되는 영상인 목표 영상과 상기 결과 영상의 질감을 결정하기 위해 사용되는 참조 영상인 소스 영상을 입력받는 단계; (b) 상기 소스 영상의 픽셀들을 무작위로 선택하여 상기 결과 영상의 픽셀들을 채워 상기 결과 영상을 초기화하는 단계; (c) 상기 결과 영상의 좌상 픽셀로부터 우하 픽셀까지 순차적으로 처리 대상 픽셀을 선택하고, 상기 선택된 처리 대상의 픽셀의 값을 결정하기 위해 다음의 수학식 A로 정의되는 거리 함수의 값을 계산하는 단계; 및 (d) 상기 소스 영상 상에서 결정된 후보 픽셀들 중에서 상기 거리 함수의 계산 결과를 최소화하는 후보 픽셀의 픽셀값을 상기 처리 대상 픽셀의 픽셀값으로 결정하는 단계;를 가지며, 상기 (c)단계 및 상기 (d)단계는 상기 결과 영상의 모든 픽셀에 대해 픽셀값을 결정할 때까지 반복적으로 수행된다.In order to achieve the above technical problem, an image conversion method according to the present invention includes (a) a reference image used to determine a target image, which is a basic image of a result image, and a texture of the result image in shape and color; Receiving a source image which is an image; (b) randomly selecting pixels of the source image to fill the pixels of the result image to initialize the result image; (c) sequentially selecting pixels to be processed from the upper left pixel to the lower right pixel of the resultant image, and calculating a value of a distance function defined by Equation A to determine a value of the selected pixel to be processed. ; And (d) determining a pixel value of a candidate pixel that minimizes a calculation result of the distance function among the candidate pixels determined on the source image as the pixel value of the pixel to be processed, wherein (c) and the Step (d) is repeatedly performed until a pixel value is determined for all pixels of the resultant image.

이때 수학식 A는

Figure 112012034258289-pat00001
로 정의되며, 여기서, r은 상기 결과 영상을 구성하는 픽셀들 중에서 순차적으로 선택된 처리 대상 픽셀, q는 소스 영상 상에서 결정된 후보 픽셀, DN(r,q)는 색상 인자로서 상기 목표 영상 상에서 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합에 속하는 픽셀들의 평균 픽셀값과 상기 소스 영상 상에서 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합에 속하는 픽셀들인 후보 픽셀들 각각에 대해 결정된 사각형 이웃 집합을 구성하는 픽셀들의 평균 픽셀값 사이의 유클리디안 거리, DL(r,q)는 질감 인자로서 상기 결과 영상 상에서 상기 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 속하는 픽셀들 중에서 상기 처리 대상 픽셀을 기준으로 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합 각각에 속하는 픽셀들의 표준 편차와 상기 후보 픽셀들 각각의 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합에 속하는 픽셀들의 표준 편차의 차이, DI(r,q)는 방향 인자로서 상기 결과 영상 상에서 결정된 L형 이웃 집합에 속해 있는 보간된 경사 방향에 수직한 방향으로 놓여 있는 픽셀들로 구성되는 I형 이웃 집합에 속해 있는 픽셀들의 밝기 평균값과 상기 후보 픽셀들 각각의 밝기값의 차이, wL은 상기 질감 인자에 대한 가중계수, 그리고 wI는 상기 방향 인자에 대한 가중계수이다.Equation A is
Figure 112012034258289-pat00001
Where r is a processing target pixel sequentially selected from the pixels constituting the resultant image, q is a candidate pixel determined on the source image, and D N (r, q) is a color factor to be processed on the target image. An average pixel value of pixels belonging to a rectangular neighborhood set consisting of pixels included in a rectangle of a preset size centered on a coordinate corresponding to a pixel, and a coordinate centered on a coordinate corresponding to a pixel to be processed on the source image. Euclidean distance, D L (r, q), between average pixel values of pixels constituting the rectangular neighborhood set determined for each of the candidate pixels that are pixels belonging to the rectangular neighborhood set of pixels included in the rectangle of the set size Denotes a texture factor that is centered on coordinates corresponding to the pixel to be processed on the resultant image. Standard deviations of pixels belonging to each of the L-shaped neighbor sets including pixels located in an upper left direction with respect to the processing target pixel among pixels belonging to a rectangle having a preset size and located in the upper left direction of each of the candidate pixels. The difference in the standard deviation of pixels belonging to the L-shaped neighbor set of pixels, D I (r, q), is a direction factor and lies in a direction perpendicular to the interpolated oblique direction belonging to the L-shaped neighbor set determined on the resultant image. The difference between the brightness averages of the pixels belonging to the set of I-type neighbors and the brightness values of each of the candidate pixels, w L is a weighting factor for the texture factor, and w I is a weighting factor for the direction factor. Coefficient.

본 발명에 따른 영상 변환 장치 및 방법에 의하면, 소스 영상의 질감을 정확히 반영하면서도 목표 영상의 방향 성분이 제대로 표현되어 있는 자연스러운 결과 영상을 생성할 수 있다. 또한 방향 인자에 대한 가중계수를 변화시킴으로써 결과 영상에의 목표 영상의 방향 성분의 반영 정도를 선택적으로 결정할 수 있다. 또한 소스 영상으로부터 추출한 각 픽셀의 명도 변화값을 이용하여 결과 영상을 구성하는 각각의 픽셀의 명도 값을 조정함으로써 결과 영상의 윤곽선을 부각시켜 보다 시각적으로 우수한 영상을 생성할 수 있다.According to the image converting apparatus and the method according to the present invention, it is possible to generate a natural result image in which the direction component of the target image is properly expressed while accurately reflecting the texture of the source image. The degree of reflection of the direction component of the target image in the resultant image can be selectively determined by changing the weighting factor for the direction factor. In addition, by adjusting the brightness value of each pixel constituting the result image by using the brightness change value of each pixel extracted from the source image, it is possible to create a more visually excellent image by highlighting the outline of the result image.

도 1은 화가들의 브러쉬 사용기법에 따라 매우 상이한 형태를 가지는 미술작품의 예를 도시한 도면,
도 2는 본 발명에 따른 영상 변환 장치에 대한 바람직한 실시예의 구성을 도시한 도면,
도 3은 스트로크 기반 렌더링 기법과 픽셀 기반 렌더링 기법을 설명하기 위한 도면,
도 4는 픽셀 x에 대한 사각형 이웃 집합과 L형 이웃 집합의 예를 도시한 도면,
도 5는 소스 영상의 에지 픽셀을 사용함으로써 결과 영상에 나타나는 결함을 설명하기 위한 도면,
도 6은 소스 영상에서 에지 영상을 감하여 얻어진 비에지 영상을 도시한 도면,
도 7은 원래의 그래디언트 영상과 보간된 그래디언트 영상을 도시한 도면,
도 8은 I형 이웃 집합의 예를 도시한 도면,
도 9는 방향 인자 DI(r.q)를 산출하는 구체적인 과정을 도시한 도면,
도 10a는 각각의 거리에서 변화율을 평균하여 얻어진 평균 명도 변화를 도시한 그래프,
도 10b는 소스 영상으로부터 에지로부터의 거리에 따른 각 픽셀의 명도 변화를 검출하는 과정을 도시한 도면,
도 11은 각각의 소스 영상에 따른 최근접 에지로부터 픽셀들의 거리에 대한 평균 픽셀 명도 변화 그래프를 도시한 도면,
도 12는 각각의 소스 영상들의 원 흐름과 보간된 흐름을 도시한 도면,
도 13은 원래의 방향과 보간된 방향으로부터 거리 차이(DoD) 값을 산출하는 과정을 도시한 도면,
도 14는 다양한 영상으로부터 산출된 DoD 값으로부터 추정된 방향 인자 가중계수 wI를 도시한 도면,
도 15는 본 발명에 따른 영상 변환 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도,
도 16은 다양한 형태의 소스 영상을 도시한 도면,
도 17a는 에펠탑 사진과 도 16의 (a)영상인 반 고호의 인물화를 각각 목표 영상과 소스 영상으로 하여 본 발명에 따른 영상 변환 장치 및 방법에 의해 생성한 결과 영상을 도시한 도면,
도 17b은 에펠탑 사진과 도 16의 (c), (j) 및 (e)영상을 소스 영상으로 사용하고, 방향 인자의 가중계수를 변화시키면서 얻어진 결과 영상들을 도시한 도면,
도 18a는 종래의 고속 질감 전이 기법에 의해 에펠탑 사진에 대해 도 16에 도시된 소스 영상들을 적용하여 얻어진 결과 영상들을 도시한 도면,
도 18b는 본 발명에 따른 영상 변환 장치 및 방법에 의해 에펠탑 사진에 대해 도 16에 도시된 소스 영상들을 적용하여 얻어진 결과 영상들을 도시한 도면,
도 19는 본 발명에 따른 영상 변환 장치 및 방법에 의해 에펠탑 사진에 대해 방향 인자 가중계수 wI를 변화시키면서 도 16의 (a)영상을 소스 영상으로 사용하여 얻어진 결과 영상들을 도시한 도면,
도 20은 풍경화를 목표 영상으로 하고 소스 영상을 도 16의 (g)영상, (f)영상 및 (b)영상으로 하여 반복횟수, 방향 인자의 가중계수 및 추가되는 부가 후보의 확률을 0으로 설정한 후 본 발명에 따른 영상 변환 장치 및 방법에 의해 생성한 결과 영상을 도시한 도면,
도 21은 다양한 기법에 의한 영상 변환 결과를 도시한 도면,
도 22a 및 도 22b는 각각 도 16의 (g)영상 및 (i)영상을 소스 영상으로 하여 얻어진 결과 영상을 도시한 도면,
도 23은 본 발명에 따른 방향 질감 전이 기법과 종래의 픽셀 기반 질감 전이 기법에 대해 소스 영상으로 도 16의 (c)영상을 사용하여 얻어진 결과 영상들을 도시한 도면,
도 24는 본 발명에 따른 방향 질감 전이 기법과 왕(Wang)에 의해 제안된 패치 기반의 기법에 대해 소스 영상으로 도 16의 (b)영상을 사용하여 얻어진 결과 영상들을 도시한 도면,
도 25는 본 발명에 따른 질감 전이 기법을 텍스쳐 합성에 적용한 결과를 도시한 도면,
도 26은 본 발명에 따른 질감 전이 기법을 다양한 영상에 대해 적용한 결과를 도시한 도면,
도 27은 본 발명에 따른 질감 전이 기법에서 제안하고 있는 윤곽선 효과를 첨성대 영상에 대해 적용한 결과를 도시한 도면, 그리고,
도 28은 본 발명에 따른 질감 전이 기법을 세종 대왕 영상에 적용한 결과를 도시한 도면이다.
1 is a view showing an example of a work of art having a very different form according to the artist's brush usage techniques,
2 is a diagram showing the configuration of a preferred embodiment of an image conversion apparatus according to the present invention;
3 is a diagram for explaining a stroke-based rendering technique and a pixel-based rendering technique;
4 shows an example of a rectangular neighborhood set and an L-shaped neighborhood set for pixel x,
FIG. 5 is a diagram for explaining a defect appearing in a resultant image by using edge pixels of a source image; FIG.
6 illustrates a non-edge image obtained by subtracting an edge image from a source image;
7 is a diagram illustrating an original gradient image and an interpolated gradient image;
8 shows an example of a type I neighbor set;
9 is a view showing a specific process of calculating the direction factor D I (rq),
10A is a graph showing the average brightness change obtained by averaging the rate of change at each distance;
10B is a diagram illustrating a process of detecting a change in brightness of each pixel according to a distance from an edge from a source image;
11 is a graph illustrating average pixel brightness change versus distance of pixels from the nearest edge according to each source image;
12 is a diagram illustrating a circular flow and interpolated flow of respective source images;
FIG. 13 is a diagram illustrating a process of calculating a distance difference (DoD) value from an original direction and an interpolated direction.
14 is a diagram illustrating a direction factor weighting factor w I estimated from DoD values calculated from various images;
15 is a flowchart illustrating a process of performing a preferred embodiment of the image conversion method according to the present invention;
FIG. 16 illustrates various types of source images; FIG.
17A is a view showing the resultant image generated by the image converting apparatus and method according to the present invention, using the Eiffel Tower photo and the portrait of Van Gogh as the image of FIG. 16 as the target image and the source image, respectively;
FIG. 17B is a view showing result images obtained by using the Eiffel Tower photo and the images (c), (j) and (e) of FIG. 16 as source images, and changing the weighting factors of the direction factors;
FIG. 18A is a view showing result images obtained by applying the source images shown in FIG. 16 to a Eiffel tower photograph by a conventional high speed texture transfer technique; FIG.
18B is a view showing result images obtained by applying the source images shown in FIG. 16 to a picture of the Eiffel Tower by the image converting apparatus and method according to the present invention;
FIG. 19 is a view showing result images obtained by using the image (a) of FIG. 16 as a source image while varying the direction factor weighting factor w I for the Eiffel Tower photograph by the image converting apparatus and method according to the present invention ; FIG.
20 shows that the landscape image is the target image and the source image is the image (g), (f) and (b) of FIG. A view showing the resultant image generated by the image conversion apparatus and method according to the present invention;
21 is a view illustrating image conversion results by various techniques;
22A and 22B show a resultant image obtained by using the images (g) and (i) of FIG. 16 as source images, respectively;
FIG. 23 is a view illustrating result images obtained by using the image (c) of FIG. 16 as a source image for the direction texture transition technique and the conventional pixel-based texture transition technique according to the present invention; FIG.
24 is a view showing result images obtained by using the image of FIG. 16 (b) as a source image for the direction texture transition technique and the patch-based technique proposed by Wang according to the present invention;
25 is a diagram showing the result of applying the texture transfer technique to texture synthesis according to the present invention;
FIG. 26 is a diagram illustrating a result of applying a texture transfer technique to various images according to the present invention; FIG.
27 is a diagram showing the result of applying the contour effect proposed in the texture transfer technique according to the present invention to a kurtosis band image.
28 is a diagram illustrating the results of applying the texture transfer technique according to the present invention to the King Sejong image.

이하에서 첨부된 도면들을 참조하여 본 발명에 따른 영상 변환 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, exemplary embodiments of an image conversion apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 영상 변환 장치에 대한 바람직한 실시예의 구성을 도시한 도면이다.2 is a diagram showing the configuration of a preferred embodiment of an image conversion apparatus according to the present invention.

도 2를 참조하면, 본 발명에 따른 영상 변환 장치는 영상 입력부(210), 거리 함수 계산부(220), 결과 영상 생성부(230) 및 윤곽선 효과부(240)를 구비한다.2, the image conversion apparatus according to the present invention includes an image input unit 210, a distance function calculator 220, a result image generator 230, and a contour effect unit 240.

영상 입력부(210)는 목표 영상(T)과 소스 영상(S)을 입력받는 수단이다. 이러한 영상 입력부(210)는 인터넷과 같은 통신망을 통해 목표 영상(T)과 소스 영상(S)을 입력받거나 별도의 저장장치에 저장되어 있는 영상 중에서 사용자가 선택한 영상들을 목표 영상(T)과 소스 영상(S)으로 입력받는다. 이때 목표 영상(T)은 형태와 색상에 있어서 결과 영상(R)의 기본이 되는 영상이며, 소스 영상(S)은 결과 영상(R)의 질감을 결정하기 위해 사용되는 참조 영상이다.The image input unit 210 is a means for receiving the target image T and the source image S. The image input unit 210 receives a target image T and a source image S through a communication network such as the Internet, or selects images selected by a user from among images stored in separate storage devices. It is inputted with (S). In this case, the target image T is an image that is the basis of the result image R in form and color, and the source image S is a reference image used to determine the texture of the result image R. FIG.

거리 함수 계산부(220)는 결과 영상(R)을 구성하는 각각의 픽셀의 값을 결정하기 위한 거리 함수의 값을 계산한다. 본 발명에서 거리 함수는 색상 인자, 질감 인자 및 방향 인자로 구성된다. 본 발명은 목표 영상(T)에서 취한 질감을 소스 영상(S)의 경사 정보를 따르면서 소스 영상(S)으로 전이시키는 기법에 관한 것이다. 그리고 본 발명은 빠른 표현 기법 매트릭을 가지는 고속 질감 전이 기법을 확장하여 사용한다. 이때 본 발명은 경사 방향을 고려한 이웃의 유사도를 평가하기 위해 I-형 이웃의 개념을 도입한다.The distance function calculator 220 calculates a value of a distance function for determining a value of each pixel constituting the resultant image R. In the present invention, the distance function is composed of a color factor, a texture factor and a direction factor. The present invention relates to a technique for transferring the texture taken from the target image (T) to the source image (S) while following the inclination information of the source image (S). In addition, the present invention extends and uses a fast texture transfer technique having a fast presentation technique metric. In this case, the present invention introduces the concept of an I-type neighbor in order to evaluate the similarity of the neighbor considering the inclination direction.

스트로크 기반의 렌더링에 있어서 기본 단위는 스트로크이며, 결과 영상(R)은 스트로크로 채워진다. 이러한 기법들은 영상의 경사값(Gradient Value)을 기초로 스트로크를 회전시켜 객체 형상을 고찰할 수 있다. 반대로, 질감 전이 알고리즘은 각각의 픽셀을 채움으로써 결과 영상(R)을 생성한다. 각각의 픽셀은 오로지 하나의 색상값을 갖기 때문에 영상의 방향을 표현하는 것이 스트로크 기반의 렌더링보다 어렵다. 픽셀 기반의 기법은 도 3에 도시된 바와 같이 영상의 경사 방향을 따라 위치한 유사한 색상들로 각각의 픽셀을 채움으로써 영상의 방향을 표현할 수 있다. 본 발명은 픽셀 기반 기법인 고속 질감 전이 알고리즘을 기본으로 하여 구성된다. In stroke-based rendering, the basic unit is stroke, and the resultant image R is filled with strokes. These techniques can consider the shape of the object by rotating the stroke based on the gradient value of the image. In contrast, the texture transfer algorithm generates the resulting image R by filling each pixel. Because each pixel has only one color value, representing the direction of the image is more difficult than stroke-based rendering. The pixel-based technique may express the direction of the image by filling each pixel with similar colors located along the tilt direction of the image, as shown in FIG. 3. The present invention is constructed based on a fast texture transition algorithm, which is a pixel-based technique.

도 4에는 픽셀 x에 대한 사각형 이웃 집합과 L형 이웃 집합의 예가 도시되어 있다. 도 4를 참조하면, 픽셀 x에 대한 사각형 이웃 집합은 픽셀 x를 중심으로 일정한 크기의 사각형 영역 내에 위치하는 픽셀들을 구성요소로 하며, L형 이웃 집합은 픽셀 x의 사각형 이웃 집합의 구성요소들 중에서 좌상측에 위치하는 픽셀들을 구성요소로 한다. 만약 소스 영상(S), 필터링될 목표 영상(T) 및 결과 영상(R)이 모두 단일 채널 영상들이라고 가정하면, 고속 질감 전이 알고리즘은 다음의 과정에 의해 거리 함수를 기초로 결과 영상(R) 상의 픽셀을 결정한다. 4 shows examples of rectangular neighbor sets and L-shaped neighbor sets for pixel x. Referring to FIG. 4, the rectangular neighbor set for pixel x is composed of pixels located in a rectangular area of a constant size with respect to pixel x, and the L-shaped neighbor set is a component of the rectangular neighbor set of pixel x. Pixels located on the upper left side are used as components. If the source image S, the target image T to be filtered and the result image R are all single channel images, the fast texture transfer algorithm performs the result image R based on the distance function by the following process. Determine the pixels on the image.

먼저 소스 영상(S)으로부터 무작위로 선택된 픽셀들로 채워 결과 영상(R)을 초기화한다. 이때 함수 g를 픽셀 좌표의 매핑을 지속적으로 추적하는 함수라 할 때, 결과 영상(R)의 픽셀 r은 소스 영상(S)의 픽셀 g(r)로부터 값을 얻게 된다. 다음으로 결과 영상(R)을 좌상으로부터 우하방향으로 순차적으로 스캔하여 결과 영상(R)의 각 픽셀에 대해 후보 집합(Q)을 생성한 후 생성된 후보 집합(Q)으로부터 최소 거리 인수를 선택하여 결과 영상(R)의 픽셀 r을 갱신한다. 이를 위해 거리 함수 계산부(120)는 먼저 후보 집합(Q)을 생성한다. 후보 집합(Q)은 다음과 같이 정의될 수 있다.First, the resultant image R is initialized by filling randomly selected pixels from the source image S. In this case, when the function g is a function of continuously tracking the mapping of the pixel coordinates, the pixel r of the resultant image R obtains a value from the pixel g (r) of the source image S. Next, the resultant image R is sequentially scanned from the upper left to the lower right, generating a candidate set Q for each pixel of the resultant image R, and then selecting a minimum distance factor from the generated candidate set Q. The pixel r of the resultant image R is updated. To this end, the distance function calculator 120 first generates a candidate set Q. The candidate set Q may be defined as follows.

Figure 112011004530435-pat00002
Figure 112011004530435-pat00002

여기서, r은 결과 영상(R) 내에서 선택된 픽셀, g(r)은 결과 영상(R) 내에서 선택된 픽셀 r과 매핑되는 소스 영상(S)의 픽셀, 그리고 t는 L-형 이웃 집합에 존재하는 픽셀이다.Where r is a pixel selected in the result image R, g (r) is a pixel of the source image S mapped to pixel r selected in the result image R, and t is in the L-type neighbor set Is the pixel.

검색 공간을 확장하기 위해 사전에 정의된 확률 p에 추가적인 후보 픽셀을 더한다. 이는 무작위 영역에 기반하므로, 소스 영상(S)의 경계 픽셀의 사용에 의해 종종 도 5에 도시된 바와 같이 소스 영상(S)의 에지의 강도값과 유사한 강도값을 갖는 영역(사각형 박스로 표시된 영역)에서 결함을 낳게 된다. 이러한 결함을 없애기 위해 경계에 위치하지 않은 픽셀만을 사용한다. 이를 위해 소스 영상(S)으로부터 에지 픽셀을 제거하고, 남은 픽셀들에서 후보집합을 선택한다. 이러한 과정이 도 6에 도시되어 있다.Additional candidate pixels are added to a predefined probability p to expand the search space. Since this is based on a random area, an area (indicated by a square box) having an intensity value similar to that of the edge of the source image S is often shown by the use of the boundary pixels of the source image S, as shown in FIG. 5. ) Causes a defect. To eliminate this defect, use only pixels that are not at the boundary. To this end, edge pixels are removed from the source image S, and candidate sets are selected from the remaining pixels. This process is illustrated in FIG. 6.

다음으로, 거리함수 계산부(220)는 최적의 후보 픽셀을 선택하기 위한 거리 함수를 계산한다. 따라서 다음의 수학식을 이용하여 각 후보 픽셀의 거리를 계산하고 최소 거리의 픽셀인 결과 영상(R) 내에서 선택된 픽셀 r과 매핑되는 소스 영상(S)의 픽셀을 결정한다.Next, the distance function calculator 220 calculates a distance function for selecting an optimal candidate pixel. Therefore, the distance of each candidate pixel is calculated using the following equation, and the pixel of the source image S mapped to the selected pixel r is determined in the result image R which is the pixel of the minimum distance.

Figure 112011004530435-pat00003
Figure 112011004530435-pat00003

수학식 2에서 D(r,q)는 다음과 같이 정의된다.In Equation 2, D (r, q) is defined as follows.

Figure 112011004530435-pat00004
Figure 112011004530435-pat00004

여기서, DN(r,q)는 사각형 이웃 집합에 속하는 픽셀들의 색상 평균값 사이의 유클리디안 거리, DL(r,q)는 L형 이웃 집합에 속하는 픽셀들의 표준 편차의 차이, DI(r,q)는 방향 인자, wL은 0~1 사이의 값을 갖는 질감 인자에 대한 가중계수, 그리고 wI는 0~1 사이의 값을 갖는 방향 인자에 대한 가중계수이다.Where D N (r, q) is the Euclidean distance between color average values of pixels belonging to a rectangular neighbor set, D L (r, q) is the difference in standard deviations of pixels belonging to an L-shaped neighbor set, D I ( r, q) is a direction factor, w L is a weighting factor for a texture factor having a value between 0 and 1, and w I is a weighting factor for a direction factor having a value between 0 and 1.

수학식 3에 나타난 각각의 인자에 대한 산출과정은 다음과 같다.The calculation process for each factor shown in Equation 3 is as follows.

먼저, 목표 영상(T)과 소스 영상(S) 상에서 각각 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사각형(예를 들면, 5×5 픽셀 크기) 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합을 결정한 후 다음의 수학식으로 표현되는 각각의 사각형 이웃 집합에 속하는 픽셀들의 색상 평균값 사이의 유클리디안 거리인 DN(r,q)를 산출한다. First, a rectangular neighbor set consisting of pixels included in a rectangle (for example, 5 × 5 pixel size) centered on coordinates corresponding to a processing target pixel on a target image T and a source image S is determined. Then, D N (r, q), which is the Euclidean distance between color average values of pixels belonging to each set of square neighborhoods represented by the following equation, is calculated.

Figure 112011004530435-pat00005
Figure 112011004530435-pat00005

여기서, ???2

Figure 112011004530435-pat00006
놈을 의미하고, nr과 nq는 다음의 수학식으로 정의되는 목표 영상(T) 내의 사각형 이웃 집합에 속하는 픽셀들의 색상 평균값과 소스 영상(S) 내의 대응되는 사각형 이웃 집합에 속하는 픽셀들의 색상 평균값을 의미한다. here, ??? 2 is
Figure 112011004530435-pat00006
N r and n q are the color mean values of pixels belonging to the rectangular neighbor set in the target image T and the colors of the pixels belonging to the corresponding rectangular neighbor sets in the source image S defined by the following equation. Mean average value.

Figure 112011004530435-pat00007
Figure 112011004530435-pat00007

만약 사각형 이웃 집합을 결정하기 위한 사각형의 크기를 5×5 픽셀 크기로 설정하면, 소스 영상(S) 상에서 결정된 이웃 집합에 속하는 픽셀들에 해당하는 개수인 24개의 색상 인자 값이 결정된다. 이때 소스 영상(S) 상에서 결정된 이웃 집합에 속하는 픽셀들은 후보 픽셀 집합(Q)의 원소들이다. 수학식 4와 5에서 nr은 목표 영상(T) 상에서 처리 대상 픽셀의 좌표에 대응하는 좌표를 가진 픽셀에 대해 결정된 사각형 이웃 집합을 구성하는 픽셀들의 평균 픽셀값이다. 또한 수학식 4와 5에서 nq는 후보 픽셀 집합 Q를 구성하는 각각의 후보 픽셀에 대해 결정된 사각형 이웃 집합을 구성하는 픽셀들의 평균 픽셀값이다. 따라서 수학식 4와 5에 의해 각각의 후보 픽셀들에 대응하는 24개의 색상 인자 값이 도출된다.If the size of the rectangle for determining the rectangle neighbor set is set to 5 × 5 pixel size, 24 color factor values corresponding to the number of pixels belonging to the neighbor set determined on the source image S are determined. In this case, the pixels belonging to the neighbor set determined on the source image S are elements of the candidate pixel set Q. In Equations 4 and 5, n r is an average pixel value of pixels constituting a rectangular neighborhood set determined for a pixel having a coordinate corresponding to the coordinate of the pixel to be processed on the target image T. In addition, in Equations 4 and 5, n q is an average pixel value of pixels constituting the rectangular neighbor set determined for each candidate pixel constituting the candidate pixel set Q. Thus, equations (4) and (5) derive 24 color factor values corresponding to each candidate pixel.

다음으로 결과 영상(R) 상에서 결정된 사각형 이웃 집합에 속하는 픽셀들 중에서 처리 대상 픽셀을 기준으로 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합(즉, 5×5 픽셀 크기의 사각형 이웃 집합에 속하는 픽셀들 중에서 처리 대상 픽셀의 좌측에 위치하는 2개의 픽셀과 상측 두 행에 위치하는 10개의 픽셀로 이루어진 집합)을 결정한다. 그리고 결과 영상(R) 각각에 대해 결정된 L형 이웃 집합에 속하는 픽셀들의 표준 편차값을 한 후 다음의 수학식으로 정의되는 각각의 L형 이웃 집합에 속하는 픽셀들의 표준 편차의 차이인 DL(r,q)를 산출한다. Next, among the pixels belonging to the rectangular neighbor set determined on the resultant image R, an L-shaped neighbor set consisting of pixels located in the upper left direction with respect to the pixel to be processed (that is, belonging to a rectangular neighbor set having a size of 5 × 5 pixels) Among the pixels, a set consisting of two pixels located on the left side of the pixel to be processed and ten pixels located on two upper rows) is determined. The standard deviation value of the pixels belonging to the L-type neighboring set determined for each resultant image R is calculated, and then D L (r, which is the difference between the standard deviations of the pixels belonging to each L-type neighboring set defined by the following equation: , q) is calculated.

Figure 112011004530435-pat00008
Figure 112011004530435-pat00008

여기서, ???2

Figure 112011004530435-pat00009
놈을 의미하고, |?|는 집합 크기를 의미하고, Hr과 Hq는 다음의 수학식으로 정의된다.here, ??? 2 is
Figure 112011004530435-pat00009
The norm, |? | Means the set size, H r and H q is defined by the following equation.

Figure 112011004530435-pat00010
Figure 112011004530435-pat00010

만약 사각형 이웃 집합을 결정하기 위한 사각형의 크기를 5×5 픽셀 크기로 설정하면, 소스 영상(S) 상에서 결정된 이웃 집합에 속하는 픽셀들에 해당하는 개수인 24개의 질감 인자 값이 결정된다. 이와 관련하여 수학식 6과 7을 구체적으로 살펴보면, L(q)에 속하는 원소들은 소스 영상(S) 상에서 결정된 후보 픽셀 집합(Q)의 원소들이다. 따라서 Hq는 각각의 후보 픽셀을 기준으로 소스 영상(S) 상에서 설정된 L형 이웃 집합들에 속하는 12개의 픽셀들의 평균 픽셀값과 해당 후보 픽셀의 픽셀값의 차이이다. 결과적으로 수학식 6과 7에 의해 각각의 후보 픽셀들에 대응하는 24개의 질감 인자 값이 도출된다. If the size of the rectangle for determining the rectangle neighbor set is set to 5 × 5 pixel size, 24 texture factor values corresponding to the pixels belonging to the neighbor set determined on the source image S are determined. In this regard, Equations 6 and 7 will be described in detail. Elements belonging to L (q) are elements of the candidate pixel set Q determined on the source image S. FIG. Accordingly, Hq is a difference between an average pixel value of twelve pixels belonging to L-type neighbor sets set on the source image S based on each candidate pixel, and a pixel value of the corresponding candidate pixel. As a result, equations (6) and (7) yield 24 texture factor values corresponding to the respective candidate pixels.

마지막으로 결과 영상 R의 각각의 픽셀에 대해 좌상부터 우하 방향으로 순차적으로 스캔하면서 다음의 수학식으로 정의되는 거리 함수 D(r,q)를 최소화하는 소스 영상(S) 상의 픽셀로 결과 영상(R) 상의 처리 대상 픽셀을 대체한다.Finally, for each pixel of the resultant image R, the resultant image R is a pixel on the source image S that minimizes the distance function D (r, q) defined by the following equation while sequentially scanning from left to right. ) To replace the processing target pixel.

Figure 112011004530435-pat00011
Figure 112011004530435-pat00011

여기서, wL은 0~1 사이의 값을 갖는 가중계수로서 일반적으로 1로 설정된다. Here, w L is a weighting coefficient having a value between 0 and 1, and is generally set to 1.

본 발명에 따른 영상 변환 장치에 구비된 거리 함수 계산부(220)는 상술한 바와 같은 고속 질감 전이 기법의 거리 함수를 변형한 새로운 거리 함수에 의해 값을 계산한다. 기존의 고속 질감 전이 알고리즘은 일관성있는 질감 결과를 표현하기에 유용하다. 그러나 이러한 기법은 평균값과 분산의 거리만을 고려하며, 목표 영상(T)에서 나타나는 방향 정보를 명확하게 표현할 수 없다.The distance function calculation unit 220 included in the image conversion apparatus according to the present invention calculates a value by using a new distance function modified from the distance function of the fast texture transfer method as described above. Existing fast texture transfer algorithms are useful for expressing consistent texture results. However, this technique considers only the distance between the mean value and the variance, and cannot express the direction information appearing in the target image T clearly.

본 발명은 이러한 고속 질감 전이 알고리즘의 문제점을 해결하기 위해 목표 영상(T)의 방향을 고려한다. I형 이웃 집합은 L형 이웃 집합에 속해 있는 보간된 경사 방향에 수직한 방향으로 놓여 있는 픽셀들로 구성된다. 이때 각각의 픽셀에 대응하는 I형 이웃 집합을 찾기 위해 영상 흐름 정보를 계산한다. 그리고 목표 영상(T)의 일관성있는 경사 정보를 추출하기 위해 공지된 에지 탄젠트 플로우(Edge Tangent Flow : ETF) 알고리즘을 적용한다. 이러한 기법은 중요한 특징 주변의 에지를 부드럽게 유지하면서 에지 방향을 제대로 보존할 수 있는 이점이 있다. ETF 알고리즘은 반지름(radius)과 반복횟수(iteration)이라는 두 개의 파라미터를 사용하며, 이에 의해 방향 필드의 연화정도(smoothness)를 조절할 수 있다. 바람직한 실시예에서 반지름과 반복횟수는 각각 6과 3으로 설정된다. 도 7에는 벡터 가시화 기수인 선형 정수 콘볼루션(Line Integral Convolution : LIC)을 이용한 ETF 보간 결과가 도시되어 있다. 도 7의 좌측 영상은 원래의 그래디언트 영상이고, 가운데 영상은 반지름과 반복횟수가 각각 6과 3으로 설정된 보간된 그래디언트 영상이며, 우측 영상은 반지름과 반복횟수가 각각 16과 3으로 설정된 보간된 그래디언트 영상이다.The present invention considers the direction of the target image (T) to solve the problem of this fast texture transfer algorithm. The I-type neighbor set is composed of pixels lying in a direction perpendicular to the interpolated oblique direction belonging to the L-type neighbor set. In this case, image flow information is calculated to find an I-type neighbor set corresponding to each pixel. In order to extract consistent gradient information of the target image T, a known edge tangent flow (ETF) algorithm is applied. This technique has the advantage of preserving the edge orientation properly while keeping the edges around important features smooth. The ETF algorithm uses two parameters, radius and iteration, to adjust the smoothness of the direction field. In a preferred embodiment the radius and the number of repetitions are set to 6 and 3, respectively. 7 shows ETF interpolation results using Line Integral Convolution (LIC), which is a vector visualization radix. The left image of FIG. 7 is an original gradient image, and the middle image is an interpolated gradient image with radius and repetition frequency set to 6 and 3, respectively. The right image is interpolated gradient image with radius and repetition frequency set to 16 and 3, respectively. to be.

스트로크 기반의 렌더링에서 결과적인 ETF는 브러쉬 스트로크의 위치를 결정하기 위해 사용된다. 본 발명은 I형 이웃 집합을 고려함으로써 질감 스트로크를 목표 영상(T)의 보간된 경사 방향으로 표현할 수 있다. 이때 방향 인자 DI(r.q)는 다음의 수학식으로 정의된다.In stroke-based rendering, the resulting ETF is used to determine the position of the brush stroke. According to the present invention, the texture stroke may be expressed in the interpolated oblique direction of the target image T by considering the I-type neighbor set. At this time, the direction factor D I (rq) is defined by the following equation.

Figure 112011004530435-pat00012
Figure 112011004530435-pat00012

한편 보간된 경사값에 기초하여 결과 영상에서 정의된 I형 이웃 집합에 존재하는 픽셀들의 평균 밝기값을 산출할 수 있으며, 산출된 평균 밝기값과 예제 소스 영상(S)에 위치하는 각각의 픽셀 q 사이의 거리를 산출할 수 있다. 만약 평균 밝기값과 각 픽셀 q 사이의 거리가 작으면, 이는 픽셀 q가 I형 이웃 집합에 포함된 픽셀들과 유사한 색상을 가짐을 의미한다. 이와 달리 평균 밝기값과 각 픽셀 q 사이의 거리가 크면, 이는 픽셀 q가 I형 이웃 집합에 포함된 픽셀들과 색상의 측면에서 크게 변함을 의미한다. 따라서 경사 정보의 일관성을 유지하기 위해서는 최소의 거리를 갖는 픽셀을 찾아야 한다. 방향 인자 DI(r.q)의 범위는 0과 1 사이로 정의된다. 도 8에는 I형 이웃 집합의 예가 도시되어 있다. 도 8을 참조하면, I형 이웃 집합을 구성하는 픽셀들은 결과 영상 R에 존재하는 픽셀 r을 중심으로 L형 이웃 집합에 속하는 픽셀들에 대해 N×N 크기의 소벨 마스크(예를 들면, 5×5 픽셀 크기의 소벨 마스크)를 이용하여 산출된 g(x)와 g(y)를 기초로 얻어진 색상 방향(즉, θ=tan-1(g(x)/g(y))로 정의되는 색상 방향) 상에 존재하는 픽셀들이다. Meanwhile, the average brightness value of the pixels existing in the I-type neighbor set defined in the result image may be calculated based on the interpolated slope value, and the calculated average brightness value and each pixel q located in the example source image S may be calculated. The distance between them can be calculated. If the distance between the average brightness value and each pixel q is small, this means that pixel q has a color similar to the pixels included in the type I neighbor set. In contrast, if the distance between the average brightness value and each pixel q is large, this means that the pixel q varies greatly in terms of color and pixels included in the type I neighbor set. Therefore, in order to maintain the consistency of the gradient information, the pixel having the minimum distance must be found. The range of the direction factor D I (rq) is defined between 0 and 1. 8 shows an example of a type I neighbor set. Referring to FIG. 8, the pixels constituting the I-type neighbor set are N × N Sobel masks (for example, 5 × N) for pixels belonging to the L-type neighbor set around the pixel r present in the resultant image R. A color defined by the color direction (ie, θ = tan −1 (g (x) / g (y)) obtained based on g (x) and g (y) calculated using a 5-pixel Sobel mask) Direction).

도 9에는 방향 인자 DI(r.q)를 산출하는 구체적인 과정이 도시되어 있다. 도 9를 참조하면, 먼저 결과 영상(R) 상의 처리 대상 픽셀 r을 중심으로 5×5 픽셀 크기의 소벨 마스크를 적용하여 얻어진 경사 방향에 존재하는 픽셀(도 9에서 처리 대상 픽셀 r의 상측 방향으로 굵은 사각형 내에 위치하는 두 개의 픽셀)들을 원소로 하는 I형 이웃 집합을 결정한다. 다음으로 결과 영상(R) 상의 I형 이웃 집합에 속하는 두 개의 픽셀의 평균 밝기값을 계산한다. 다음으로 결과 영상(R) 상의 I형 이웃 집합에 속하는 두 개의 픽셀의 평균 밝기값과 소스 영상(S) 상에서 결정된 이웃 집합에 속하는 픽셀들의 밝기값의 유클리디안 거리를 계산한다. 따라서 수학식 9에 의해 각각의 후보 픽셀들에 대응하는 24개의 방향 인자 값이 도출된다.9 shows a specific process for calculating the direction factor D I (rq). Referring to FIG. 9, first, a pixel existing in an oblique direction obtained by applying a 5 × 5 pixel Sobel mask centering on the processing target pixel r on the resultant image R (in the upper direction of the processing target pixel r in FIG. 9). Determines the set of type I neighbors whose elements are the two pixels located in the thick rectangle. Next, an average brightness value of two pixels belonging to the I-type neighbor set on the resultant image R is calculated. Next, the Euclidean distance of the average brightness value of two pixels belonging to the I-type neighbor set on the resultant image R and the brightness value of the pixels belonging to the neighbor set determined on the source image S are calculated. Accordingly, the equation 24 yields 24 direction factor values corresponding to the candidate pixels.

이와 같이 산출된 방향 인자는 결과 영상(R)의 처리 대상 픽셀의 값을 결정하기 위한 거리 함수의 요소로서 도입된다. 따라서 기존의 고속 질감 전이 기법에서 정의된 거리 함수인 수학식 8은 본 발명에서는 수학식 3과 같은 형태로 수정된다. 수학식 3에서 거리 함수의 인자들 중 특정한 인자의 영향이 압도적이게 되는 상황을 방지하기 위해 각각의 인자들은 정규화될 필요가 있다. 그리고 거리 함수 계산부(220)는 수학식 3으로 정의되는 새로운 거리 함수의 값을 산출한다. 이때 산출된 거리 함수의 값은 소스 영상(S) 상에서 결정된 후보 픽셀들 각각에 대응하는 값들이다. 다음의 표 1에 기재된 값들 중에서 q4가 계산된 픽셀들 중에서 최적의 픽셀이다.The direction factor thus calculated is introduced as an element of the distance function for determining the value of the pixel to be processed of the resultant image R. Therefore, Equation 8, which is a distance function defined in the existing fast texture transfer method, is modified in the form of Equation 3 in the present invention. In Equation 3, each of the factors needs to be normalized in order to prevent a situation in which the influence of a certain factor among the factors of the distance function becomes overwhelming. The distance function calculator 220 calculates a value of the new distance function defined by Equation 3 below. The values of the calculated distance function are values corresponding to each of the candidate pixels determined on the source image S. FIG. Of the values listed in Table 1 below, q4 is the optimal pixel among the calculated pixels.

후보 픽셀Candidate pixels DN D N DL D L DI D I D(r,q) D (r, q) q1q1 0.420.42 0.30.3 0.60.6 1.321.32 q2q2 0.40.4 0.30.3 0.530.53 1.231.23 q3q3 0.90.9 0.650.65 0.10.1 1.651.65 q4q4 0.20.2 0.270.27 0.40.4 0.870.87

결과 영상 생성부(230)는 목표 영상과 소스 영상을 기초로 거리 함수 계산부(220)로부터 입력되는 거리 함수의 계산 결과를 최소화하는 값으로 결과 영상의 각 픽셀을 결정하여 결과 영상을 생성한다. 이때 결과 영상 생성부(230)는 앞서 설명한 바와 같이 소스 영상으로부터 무작위로 선택된 픽셀들로 채워 결과 영상을 초기화한 후 각각의 픽셀을 좌상부터 우하방향으로 순차적으로 스캔하면서 픽셀값을 결정한다. 이 과정에서 결과 영상 생성부(230)는 소스 영상 상에서 결정된 후보 픽셀들 중에서 거리 함수 계산부(220)에 의해 계산된 거리 함수 값을 최소화하는 픽셀을 처리 대상 픽셀의 픽셀값으로 결정한다.The result image generator 230 generates a result image by determining each pixel of the result image to a value that minimizes a result of the calculation of the distance function input from the distance function calculator 220 based on the target image and the source image. At this time, the result image generator 230 initializes the result image by filling the pixels randomly selected from the source image as described above, and then determines the pixel values by sequentially scanning each pixel from the upper left to the lower right. In this process, the result image generator 230 determines, as a pixel value of the processing target pixel, a pixel that minimizes the distance function value calculated by the distance function calculator 220 among candidate pixels determined on the source image.

윤곽선 효과부(240)는 보다 자연스러운 시각적 효과를 표현하기 위해 소스 영상(S)의 에지 효과에 대한 분석을 기초로 결과 영상(R)에 윤곽선 향상 효과를 부여한다. 이를 위해 윤곽선 효과부(240)는 먼저 소스 영상(S)으로부터 에지 정보를 추출한다. 이 과정에서 일관된 선 묘사 기법을 사용한다. 한편 참조 영상으로 사용되는 소스 영상(S)으로부터 정확한 경계 정보를 검출하기 어려운 경우에는 수동으로 에지 영상을 보정한다. 그리고 윤곽선 효과부(240)는 검출된 에지 영상으로부터 에지 거리 맵을 산출하고, 에지 근처에 위치한 픽셀들을 이용한다. 이를 위해 윤곽선 효과부(140)는 소스 영상(S)을 구성하는 픽셀들과 에지 영상을 구성하는 각각의 에지 픽셀들 사이의 거리에 따른 명도 값의 차이를 평균하여 에지 맵을 산출한다.The contour effect unit 240 provides a contour enhancement effect to the resultant image R based on the analysis of the edge effect of the source image S in order to express a more natural visual effect. To this end, the contour effect unit 240 first extracts the edge information from the source image (S). In this process, consistent line description techniques are used. On the other hand, when it is difficult to detect accurate boundary information from the source image S used as the reference image, the edge image is manually corrected. The contour effect unit 240 calculates an edge distance map from the detected edge image and uses pixels located near the edge. To this end, the contour effect unit 140 calculates an edge map by averaging the difference in brightness values according to the distance between the pixels constituting the source image S and each edge pixel constituting the edge image.

다음으로 윤곽선 효과부(240)는 에지에 가장 가까운 픽셀로부터 각각의 픽셀의 거리에 따른 명도 변화를 분석한다. 이와 같이 얻어진 명도 변화 정보는 소스 영상(S)을 구성하는 픽셀들과 에지 영상을 구성하는 각각의 에지 픽셀들 사이의 거리에 따른 명도 값의 차이를 평균한 값으로, 소스 영상(S)을 구성하는 픽셀들 각각에 대한 평균 명도 변화율이다. 도 10a는 각각의 거리에서 변화율을 평균하여 얻어진 평균 명도 변화를 도시한 그래프이다. 이와 같이 각각의 거리에서 평균 명도 값을 획득하고, 각 점을 연결하면 도 10b에 도시된 바와 같은 각 픽셀 영역에서 선형 감소 또는 증가를 가진 그림을 얻을 수 있다. 도 10b의 좌측 영상은 소스 영상(S)이고, 가운데 영상은 좌측 영상의 박스 영역을 확대한 영상이며, 우측 영상은 가운데 영상의 박스 영역을 확대한 영상이다. 윤곽선 효과부(240)는 도 10a 및 도 10b에 도시된 바와 같은 소스 영상(S)으로부터 도출된 그래프에 기초하여 결과 영상(R)의 각각의 에지 픽셀에 대해 에지 거리 정보에 따라 명도를 조절한다. 즉, 윤곽선 효과부(240)는 소스 영상(S)을 구성하는 각 픽셀에 대해 얻어진 평균 명도 변화율에 기초하여 결과 영상(R)을 구성하는 각각의 픽셀들의 명도 값을 변경하여 결과 영상(R)의 윤곽선을 두드러지게 표현함으로써 결과 영상(R)에 윤곽선 효과를 부여한다. 도 11에 도시된 바와 같이 이러한 그래프는 재료에 따라 다양한 형태를 가질 수 있다.Next, the contour effect unit 240 analyzes the brightness change according to the distance of each pixel from the pixel closest to the edge. The brightness change information thus obtained is a value obtained by averaging the difference between the brightness values according to the distance between the pixels constituting the source image S and each edge pixel constituting the edge image, constituting the source image S. The average brightness change rate for each of the pixels. 10A is a graph showing the average brightness change obtained by averaging the rate of change at each distance. In this way, by obtaining the average brightness value at each distance and connecting each point, it is possible to obtain a picture with a linear decrease or increase in each pixel region as shown in FIG. 10B. In FIG. 10B, the left image is the source image S, the center image is an enlarged image of the box region of the left image, and the right image is an enlarged image of the box region of the center image. The contour effect unit 240 adjusts the brightness according to the edge distance information for each edge pixel of the resultant image R based on the graph derived from the source image S as shown in FIGS. 10A and 10B. . That is, the contour effect unit 240 changes the brightness value of each pixel constituting the resultant image R based on the average brightness change rate obtained for each pixel constituting the source image S, resulting in the resultant image R. The contour effect of the resulting image R is imparted by expressing the outline of. As shown in FIG. 11, the graph may have various forms depending on the material.

한편 수학식 3에 정의된 방향 인자에 대한 가중계수 wI는 소스 영상(S)에 기반하여 자동으로 결정될 수 있다. 이를 위해 본 발명에 따른 영상 변환 장치는 가중계수 결정부(140)를 추가로 구비할 수 있다. 가중계수 결정부(250)는 소스 영상(S)의 특성에 대응하여 실험적으로 설정된 가중계수 결정함수에 의해 방향 인자에 대한 가중계수를 결정한다. Meanwhile, the weighting factor w I for the direction factor defined in Equation 3 may be automatically determined based on the source image S. To this end, the image conversion apparatus according to the present invention may further include a weighting factor determiner 140. The weighting factor determination unit 250 determines a weighting factor for the direction factor by using a weighting factor determination function that is experimentally set corresponding to the characteristics of the source image S. FIG.

페인팅 도구에 따라 일정 정도의 차이가 존재하지만 소스 영상(S)은 하나의 스트로크 흐름을 가진다. 예를 스케치나 반 고호의 그림들에서 스트로크는 객체의 형상에 기반하는 일관성을 유지한다. 그러나 점묘화나 수채화 같은 페인팅 도구는 방향성을 찾기 어렵다. 소스 영상(S)의 스트로크 흐름과 유사하게 스트로크 흐름을 표현하기 위해 본 발명에서는 방향 인자에 대한 가중계수 wI를 사용한다. 이러한 방향 인자에 대한 가중계수 wI의 값에 따라 결과 영상(R)에서의 방향 효과의 정도를 조절할 수 있다. 만약 방향 인자에 대한 가중계수 wI의 값을 크게 설정하면, 방향 성분은 결과 영상(R)에 보다 큰 영향을 주게 되며, 따라서 소스 영상(S)의 경사에 기초한 보다 일관성있는 방향을 가진 스트로크 질감이 표현된 결과 영상(R)을 얻을 수 있다. Although there are some differences depending on the painting tools, the source image S has one stroke flow. For example, in sketches or paintings of Van Gogh, strokes are consistent based on the shape of the object. However, painting tools such as dot painting and watercolors are difficult to find. In order to express the stroke flow similarly to the stroke flow of the source image S, the present invention uses a weighting factor w I for the direction factor. The degree of the direction effect in the resultant image R can be adjusted according to the value of the weighting factor w I for this direction factor. If the value of the weighting factor w I for the directional factor is set large, the directional component has a greater influence on the resultant image R, and thus the stroke texture with a more consistent direction based on the slope of the source image S. This expressed result image R can be obtained.

이러한 방향 인자에 대한 가중계수 wI의 값은 소스 영상(S)을 기초로 자동으로 설정될 수 있다. 만약 방향 인자에 대한 가중계수 wI의 값을 추정할 수 있다면, 사용자는 소스 영상(S)의 흐름을 가진 결과 영상(R)을 얻기 위해 최적의 가중계수를 찾기 위한 노력을 줄일 수 있다. 소스 영상(S)으로부터 방향 인자에 대한 가중계수 wI의 값을 자동으로 추정하기 위해 다음의 수학식으로 표현되는 방향 차이(Difference of Direction : DOD)를 정의한다.The value of the weighting factor w I for this direction factor may be automatically set based on the source image S. If the value of the weighting factor w I for the direction factor can be estimated, the user can reduce the effort to find the optimal weighting factor to obtain the resultant image R with the flow of the source image S. In order to automatically estimate the value of the weighting factor w I for the direction factor from the source image S, a difference of direction (DOD) expressed by the following equation is defined.

Figure 112011004530435-pat00013
Figure 112011004530435-pat00013

여기서, x는 소스 영상(S)에서의 픽셀의 좌표이고,

Figure 112011004530435-pat00014
는 소스 영상(S)의 원 경사 정보이며,
Figure 112011004530435-pat00015
는 소스 영상(S)의 보간된 경사 정보이다. Here, x is the coordinate of the pixel in the source image (S),
Figure 112011004530435-pat00014
Is the original tilt information of the source image (S),
Figure 112011004530435-pat00015
Is interpolated slope information of the source image S. FIG.

본 발명에서 원 경사 정보는 소벨 필터를 사용하여 계산된다. 보간된 방향에 대해 반경이 6이고 반복횟수가 3인 ETF 보간 기법을 사용한다. 방향의 범위는 0°~360°이다. 0°는 360°와 동일하므로, 평균 방향은 순환적으로 계산된다. 도 12에는 두 개의 서로 다른 소스 영상들의 원 흐름과 보간된 흐름이 도시되어 있다. 선묘화에서 원 영상 경사의 흐름은 이미 일관성을 가지고 있으므로, DoD 값은 크지 않다. 이와 달리 수채화에서 DoD는 큰 값을 가진다. 따라서 낮은 DOS 값은 선묘화로부터 도출되고, 높은 DoD 값은 수채화에서 도출된다. 이때 DoD는 0과 180 사이의 값을 가진다. 도 13에는 DoD 값을 산출하기 위한 예가 도시되어 있다. In the present invention, the original tilt information is calculated using the Sobel filter. We use the ETF interpolation technique with a radius of 6 and an iteration of 3 for the interpolated direction. The range of directions is from 0 ° to 360 °. Since 0 ° is equal to 360 °, the average direction is calculated circularly. 12 illustrates a circular flow and interpolated flow of two different source images. In line drawing, the DoD value is not large because the flow of the original image slope is already consistent. In contrast, DoD has a large value in watercolors. Thus low DOS values are derived from line drawing and high DoD values are derived from watercolor. DoD has a value between 0 and 180. 13 shows an example for calculating a DoD value.

도 14는 다양한 영상으로부터 계산된 DoD 값들이 도시되어 있는 그래프이다. 도 14를 참조하면, 강한 선묘화에서는 DoD 값이 30 이하이고, 스트로크 방향의 흐름이 거의 없는 셀 애니메이션 영상에서는 DoD 값이 60 이상이다. 유화, 수채화 및 파스텔화 같은 경우에 DoD 값은 일반적으로 30 ~ 40 사이이다. 도 14에 도시된 결과로부터 DoD 값이 30 이하일 경우에 방향 인자에 대한 가중계수 wI의 값을 1로 할당하고, DoD 값이 40 이상일 경우에 방향 인자에 대한 가중계수 wI의 값을 0으로 할당하며, DoD 값이 30과 40 사이인 경우에는 1로부터 0까지 선형적으로 감소시키면서 할당한다. 따라서 가중계수 결정부(250)는 소스 영상(S)의 종류에 따라 다음의 수학식에 의해 방향 인자에 의한 가중계수 wI의 값을 할당할 수 있다.14 is a graph illustrating DoD values calculated from various images. Referring to FIG. 14, the DoD value is 30 or less in the strong line drawing, and the DoD value is 60 or more in the cell animation image with little flow in the stroke direction. In the case of oil paintings, watercolors and pastels, the DoD value is generally between 30 and 40. From the results shown in FIG. 14, when the DoD value is 30 or less, the weighting factor w I for the direction factor is assigned to 1, and when the DoD value is 40 or more, the weighting factor w I for the direction factor is 0. If the DoD value is between 30 and 40, it is allocated while decreasing linearly from 1 to 0. Therefore, the weighting factor determiner 250 may allocate the weighting factor w I according to the direction factor according to the type of the source image S according to the following equation.

Figure 112011004530435-pat00016
Figure 112011004530435-pat00016

여기서, a는 상기 방향 인자에 대해 사전에 설정된 범위의 상한값에서 하한값을 감한 값을 상기 방향 차이값의 상한값에서 하한값을 감한 값으로 나눈 값이고, b는 상기 방향 차이값의 상한값을 상기 방향 차이값의 상한값에서 하한값을 감한 값으로 나눈 값이다.Here, a is a value obtained by subtracting a lower limit from an upper limit of a range preset for the direction factor by a value obtained by subtracting a lower limit from an upper limit of the direction difference value, and b is an upper limit value of the direction difference value by the direction difference value The upper limit of is divided by the lower limit of the lower limit.

이러한 결과로부터 목표 영상(T)의 방향 인자에 의한 가중계수 wI를 추정할 수 있으며, 만약 계산된 방향 인자에 의한 가중계수 wI보다 높은 값을 사용하면 소스 영상(S)의 흐름보다 큰 방향 효과를 표현할 수 있다. From these results, the weighting factor w I can be estimated by the direction factor of the target image T. If a value higher than the calculated weighting factor w I is used, the direction larger than the flow of the source image S is obtained. Can express the effect.

도 15는 본 발명에 따른 영상 변환 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.15 is a flowchart illustrating a process of performing a preferred embodiment of the image conversion method according to the present invention.

도 15를 참조하면, 영상 입력부(210)를 통해 목표 영상(T)과 소스 영상(S0이 입력되면, 결과 영상 생성부(230)는 소스 영상(S)의 픽셀들을 랜덤하게 선택하여 결과 영상(R)의 픽셀들을 채운다(S1500). 다음으로 결과 영상 생성부(230)는 결과 영상(R)의 좌상 픽셀로부터 우하 픽셀까지 순차적으로 픽셀값을 결정한다(S1510). 이때 결과 영상 생성부(230)는 픽셀값을 결정할 처리 대상 픽셀의 좌표와 해당 픽셀을 중심으로 사전에 설정된 크기의 사각형(예를 들면, 5×5 픽셀 크기)에 포함되는 픽셀에 대한 정보(즉, 픽셀좌표와 픽셀값)를 포함하는 처리 대상 픽셀 정보를 거리 함수 계산부(220)에 제공한다. 물론 결과 영상 생성부(230)가 결과 영상 생성 과정을 수행하면서 생성한 결과 영상(R)을 구성하는 각각의 픽셀의 좌표와 픽셀값을 별도의 저장부(미도시)에 저장하고, 거리 함수 계산부(220)가 저장부로부터 필요한 정보를 독출하여 사용하도록 할 수도 있다. Referring to FIG. 15, when the target image T and the source image S0 are input through the image input unit 210, the result image generator 230 randomly selects pixels of the source image S to generate a result image ( The resultant image generator 230 sequentially determines pixel values from the upper left pixel to the lower right pixel of the resultant image R in operation S1510. In this case, the resultant image generator 230 ) Indicates the coordinates of the pixel to be processed for which the pixel value is to be determined and information about the pixels included in a rectangle (for example, 5 × 5 pixel size) of a predetermined size centered on the pixel (ie, pixel coordinates and pixel values). Provides the processing target pixel information including the distance to the distance function calculator 220. Of course, the result image generator 230 performs coordinates of each pixel constituting the result image R generated while performing the result image generation process. And pixel values in a separate storage (not shown) A function calculating unit 220 may be used to read out necessary information from the storage unit.

다음으로 거리 함수 계산부(220)는 결과 영상 생성부(230)로부터 제공된 처리 대상 픽셀 정보, 영상 입력부(210)로부터 제공되는 목표 영상과 소스 영상을 기초로 처리 대상 픽셀에 대응하는 수학식 3과 같이 정의되는 새로운 거리 함수의 값을 산출한다(S1520). 이 과정에서 거리 함수 계산부(220)는 수학식 3의 구성 인자 중에서 색상 인자에 해당하는 DN, 질감 인자에 해당하는 D 및 방향 인자에 해당하는 DI를 계산하여 거리 함수의 값을 계산한다. 다음으로 결과 영상 생성부(230)는 소스 영상(S)을 구성하는 픽셀값들 중에서 처리 대상 픽셀에 대해 거리 함수 계산부(220)에 의해 계산된 거리 함수 값을 최소화하는 픽셀을 처리 대상 픽셀의 픽셀값으로 결정한다(S1530). 다음으로 결과 영상 생성부(230)는 결과 영상(S)의 마지막 픽셀에 대한 픽셀값의 결정이 완료되었는지 확인한다(S1540). 만약 결과 영상(S)의 마지막 픽셀에 대한 픽셀값의 결정이 완료되었으면 결과 영상 생성부(230)는 최종적인 결과 영상(S)을 출력한다(S1550).Next, the distance function calculator 220 may use Equation 3 corresponding to the processing target pixel based on the processing target pixel information provided from the result image generator 230 and the target image and the source image provided from the image input unit 210. The value of the new distance function defined as is calculated (S1520). In this process, the distance function calculation unit 220 calculates the value of the distance function by calculating D N corresponding to the color factor, D corresponding to the texture factor, and D I corresponding to the direction factor among the components of Equation 3 do. Next, the result image generator 230 may select a pixel that minimizes the distance function value calculated by the distance function calculator 220 with respect to the pixel to be processed among the pixel values constituting the source image S. It is determined by the pixel value (S1530). Next, the result image generator 230 checks whether the determination of the pixel value for the last pixel of the result image S is completed (S1540). If the determination of the pixel value for the last pixel of the resultant image S is completed, the resultant image generator 230 outputs the final resultant image S (S1550).

다음으로 윤곽선 효과부(240)는 목표 영상(T)과 소스 영상(S)으로부터 에지 정보를 추출한다(S1560). 이때 소스 영상(S)으로부터 정확한 경계 정보를 검출하기 어려운 경우에는 수동으로 에지 영상을 보정한다. 그리고 윤곽선 효과부(240)는 검출된 에지 정보를 기초로 에지 거리 맵을 산출하고, 에지에 가장 가까운 픽셀로부터 각각의 픽셀의 거리에 따른 명도 변화를 분석한다(S1570). 다음으로 윤곽선 효과부(240)는 소스 영상(S)으로부터 도출된 명도 변화 정보에 기초하여 결과 영상 생성부(230)에 의해 출력된 최종적인 결과 영상(R)의 각각의 에지 픽셀에 대해 에지 거리 정보에 따라 명도를 조절한다(S1580). Next, the contour effect unit 240 extracts edge information from the target image T and the source image S (S1560). At this time, if it is difficult to detect accurate boundary information from the source image S, the edge image is manually corrected. The contour effect unit 240 calculates an edge distance map based on the detected edge information, and analyzes the change in brightness according to the distance of each pixel from the pixel closest to the edge (S1570). Next, the contour effect unit 240 has an edge distance with respect to each edge pixel of the final resultant image R output by the resultant image generator 230 based on the brightness change information derived from the source image S. FIG. The brightness is adjusted according to the information (S1580).

다음의 표 2에는 본 발명에서 사용되는 파라미터들에 대한 설명이 기재되어 있고, 표 3에는 영상의 크기와 파라미터에 따른 렌더링 시간이 기재되어 있다.Table 2 below describes the parameters used in the present invention, and Table 3 lists the size of the image and the rendering time according to the parameters.

파라미터parameter 설명Explanation 이웃 크기
p
반복횟수
wL
wI
Neighbor size
p
Repeat count
w L
w I
고려되는 영역 내 픽셀들의 크기
추가되는 부가 후보의 확률
반복 횟수
질감 인자 DL의 가중계수
방향 인자 DI의 가중계수
The size of the pixels in the considered area
The probability of an additional candidate being added
Number of iterations
Weighting Factor of Texture Factor D L
Weighting Factor of Direction Factor D I

목표 영상(T)의 크기The size of the target image (T) 이웃 크기Neighbor size 처리 시간 (ms)Processing time (ms) 640×480
640×480
1024×768
1024×768
640 × 480
640 × 480
1024 × 768
1024 × 768
5
7
5
7
5
7
5
7
43
73
76
132
43
73
76
132

전처리 시간을 포함하면 이웃 크기가 5이고 반복횟수가 1로 설정된 VGA 영상 크기에 대해 4 GB의 메모리를 가진 펜티엄 2.8 GHz 쿼드 코어 PC를 이용하여 본 발명에 따른 영상 변환을 수행하면 약 4초의 처리 시간이 소요된다.Including the preprocessing time, when the image conversion according to the present invention is performed using a Pentium 2.8 GHz quad-core PC having 4 GB of memory for a VGA image size of which the neighbor size is 5 and the repetition frequency is set to 1, the processing time is about 4 seconds. This takes

도 16에는 다양한 형태의 소스 영상들이 도시되어 있다. 도 16의 (a)영상은 반 고호의 유화 "자화상", (b)영상은 에밀 놀데의 "가을 바다", (c)영상은 구스타프 도라의 "돈키호테"에 대한 일러스트레이션에서 얻어진 선묘화, (d)영상은 선묘화, (e)영상은 수채화, (f)영상은 목탄화, (g)영상은 수채화, (h)영상은 선묘화, (i)영상은 Sumi-e 페인팅, 그리고 (j)영상은 파스텔화이다.16 illustrates various types of source images. Figure 16 (a) the image of Van Gogh's oil painting "self-portrait", (b) the image of Emil Nolde's "Autumn Sea", (c) image of Gustav Dora's "Don Quixote" line drawing, (d) The image is line drawing, (e) the image is watercolor, (f) the image is charcoal, (g) the image is watercolor, (h) the image is line drawing, (i) the image is Sumi-e painting, and (j) the image. Is pastel.

도 17a는 에펠탑 사진과 도 16의 (a)영상인 반 고호의 인물화를 각각 목표 영상과 소스 영상으로 하여 본 발명에 따른 영상 변환 장치 및 방법에 의해 생성한 결과 영상을 도시한 도면이다. 이때 사용된 방향 인자의 가중값은 0.6이다. 도 17a를 참조하면, 본 발명에 따른 영상 변환 장치 및 방법에 의해 얻어진 결과 영상은 소스 영상의 질감을 유지하면서도 목표 영상의 방향이 제대로 반영되었음을 알 수 있다. 도 17a에서 목표 영상의 하단에 배치된 영상은 목표 영상의 방향맵으로, 목표 영상의 방향 성분을 시각적으로 나타내기 위해 각각의 픽셀에 대해 소벨 마스킹을 수행하여 얻어진 방향값을 라인 인테그럴 콘볼루션(Line Integral Convolution : LIC) 기법으로 표현한 것이다. 또한 도 17b은 에펠탑 사진과 도 16의 (c), (j) 및 (e)영상을 소스 영상으로 사용하고, 방향 인자의 가중계수를 변화시키면서 얻어진 결과 영상들을 도시한 도면이다. 도 17b의 (a)영상은 소스 영상으로 도 16의 (c)영상에 대해 방향 인자의 가중계수를 0.7로, (b)영상은 도 16의 (j)영상에 대해 방향 인자의 가중계수를 0.8로, 그리고 (c)영상은 도 16의 (e)영상에 대해 방향 인자의 가중계수를 0.8로 하여 본 발명에 따른 영상 변환 장치 및 방법에 의해 생성한 결과 영상을 도시한 도면이다. 도 17a와 도 17b에서 스트로크의 질감은 구름의 흐름과 에펠탑을 추종함을 알 수 있다. FIG. 17A is a view showing a result image generated by the image converting apparatus and method according to the present invention, using the Eiffel Tower photo and the portrait of Van Gogh as the image of FIG. 16 as the target image and the source image, respectively. The weighting value of the fragrance factor used at this time is 0.6. Referring to FIG. 17A, it can be seen that the resultant image obtained by the image converting apparatus and method according to the present invention properly reflects the direction of the target image while maintaining the texture of the source image. In FIG. 17A, an image disposed at a lower portion of the target image is a direction map of the target image, and the direction value obtained by performing Sobel masking on each pixel to visually indicate the direction component of the target image is line integral convolution ( Line Integral Convolution (LIC). FIG. 17B is a diagram showing the resultant images obtained by using the Eiffel Tower photo and the images (c), (j) and (e) of FIG. 16 as source images, and changing the weighting factors of the direction factors. The image (a) of FIG. 17B is a source image, and the weighting coefficient of the direction factor is 0.7 with respect to the image (c) of FIG. 16, and the image (b) is 0.8. And (c) the image showing the resultant image generated by the image conversion apparatus and method according to the present invention with the weighting factor of the direction factor of 0.8 for the (e) image of FIG. 17A and 17B, the texture of the stroke follows the flow of clouds and the Eiffel Tower.

도 18a에는 종래의 고속 질감 전이 기법에 의해 에펠탑 사진에 대해 도 16의 (a)영상, (c)영상, (j)영상 및 (e)영상을 소스 영상으로 사용하여 얻어진 결과 영상들이 도시되어 있다. 도 18a를 참조하면, 종래의 고속 질감 전이 기법에 의해 생성된 결과 영상들은 소스 영상들의 질감을 일정 정도 반영하고는 있지만 목표 영상의 방향 성분이 제대로 표현되지 않았음을 알 수 있다. 또한 도 18b에는 본 발명에 따른 영상 변환 장치 및 방법에 의해 에펠탑 사진에 대해 도 16의 (a)영상, (c)영상, (j)영상 및 (e)영상을 소스 영상으로 사용하여 얻어진 결과 영상들이 도시되어 있다. 도 18b을 참조하면, 본 발명에 의해 생성된 결과 영상들은 방향 성분이 불명확한 도 16의 (j)영상을 제외하고 나머지 소스 영상들의 경우에 소스 영상의 질감을 정확히 반영하면서도 목표 영상의 방향 성분이 제대로 표현되어 있음을 확인할 수 있다. FIG. 18A shows the result images obtained by using the (a) image, (c) image, (j) image, and (e) image of FIG. 16 as a source image for the Eiffel Tower photograph by a conventional high speed texture transfer technique. have. Referring to FIG. 18A, it can be seen that the result images generated by the conventional fast texture transfer technique reflect the texture of the source images to some extent, but the direction components of the target image are not properly represented. In addition, Figure 18b is a result obtained by using the image (a), (c), (j) and (e) of Figure 16 as a source image for the Eiffel Tower photo by the image conversion apparatus and method according to the present invention The images are shown. Referring to FIG. 18B, except for the image of FIG. 16 (j), the resultant images generated by the present invention accurately reflect the texture of the source image while the direction component of the target image is accurately reflected. You can see that it is properly represented.

도 19에는 본 발명에 따른 영상 변환 장치 및 방법에 의해 에펠탑 사진에 대해 방향 인자에 대한 가중계수 wI를 변화시키면서 도 16의 (a)영상을 소스 영상으로 사용하여 얻어진 결과 영상들이 도시되어 있다. 도 19를 참조하면, 본 발명에 의해 생성된 결과 영상들은 방향 인자에 대한 가중계수 wI의 값이 증가함에 따라 목표 영상의 방향 성분이 보다 강하게 결과 영상에 반영됨을 알 수 있다.FIG. 19 illustrates the resultant images obtained by using the image (a) of FIG. 16 as a source image while varying the weighting factor w I for the direction factor with respect to the Eiffel Tower photograph by the image converting apparatus and method according to the present invention. . Referring to FIG. 19, it can be seen that the resultant images generated by the present invention more strongly reflect the direction component of the target image as the value of the weighting factor w I for the direction factor increases.

도 20은 풍경화를 목표 영상으로 하고 소스 영상을 도 16의 (g)영상, (f)영상 및 (b)영상으로 하여 반복횟수, 방향 인자의 가중계수 및 추가되는 부가 후보의 확률을 0으로 설정한 후 본 발명에 따른 영상 변환 장치 및 방법에 의해 생성한 결과 영상을 도시한 도면이다. 도 20을 참조하면 각각의 영상에 소스 영상의 특징이 나타남을 확인할 수 있다. 특히, 도 20의 (c)영상에서 하늘은 흰색 픽셀로 표현되어 있고, (d)영상에서 하늘은 규칙적인 패턴으로 표현되어 있다. 이러한 결함은 작은 흰색 영역을 가지는 소스 영상으로부터 연유하며, 따라서 작은 수의 후보들로 목표 영상의 넓은 흰색 영역을 채우게 된다.20 shows that the landscape image is the target image and the source image is the image (g), (f) and (b) of FIG. After that, the resultant image generated by the image conversion apparatus and method according to the present invention is illustrated. Referring to FIG. 20, it can be seen that the characteristics of the source image appear in each image. In particular, in the image (c) of FIG. 20, the sky is represented by white pixels, and in the image (d), the sky is represented by a regular pattern. This defect is derived from a source image having a small white area, thus filling a large white area of the target image with a small number of candidates.

도 21에는 다양한 기법에 의한 영상 변환 결과가 도시되어 있다. 도 21의 (a)영상은 방향 인자에 대한 가중계수를 0으로 설정한 후 종래의 애쉬크민의 기법을 사용하여 얻어진 결과 영상이며, 후보 집합을 얻기 위해 무작위 선택 기법을 사용하였기 때문에 일정한 결함이 존재한다. 또한 도 21의 (b)영상은 방향 인자에 대한 가중계수를 0.4로 설정한 후 본 발명에 따른 방향 질감 전이 기법을 사용하여 얻어진 결과 영상이다. 또한 도 21의 (c)영상은 방향 인자에 대한 가중계수를 0.7로 설정한 후 비에지 영역으로부터 후보 집합을 선택하여 본 발명에 따른 방향 질감 전이 기법에 의해 얻어진 결과 영상이며, 도 21의 (d)영상은 도 21의 (c)영상에 대해 윤곽선 효과를 부가하여 얻어진 결과 영상이다.21 illustrates image conversion results by various techniques. (A) of FIG. 21 is a resultant image obtained by using the conventional ashkmin technique after setting the weighting factor for the direction factor to 0, and a certain defect exists because a random selection technique is used to obtain a candidate set. do. In addition, the image (b) of FIG. 21 is a result image obtained by using the direction texture transition method according to the present invention after setting the weighting factor for the direction factor to 0.4. In addition, the image (c) of FIG. 21 is a resultant image obtained by the direction texture transition technique according to the present invention by selecting a candidate set from the non-edge region after setting the weighting factor for the direction factor to 0.7. ) Is a resultant image obtained by adding a contour effect to image (c) of FIG. 21.

도 22a는 도 16의 (g)영상을 소스 영상으로 하여 얻어진 결과 영상으로, 도 22a의 (a)영상은 윤곽선 효과를 주지 않고 얻어진 결과 영상이고, (b)영상은 윤곽선 효과를 부여한 결과 영상이다. 또한 도 22b는 도 16의 (i)영상을 소스 영상으로 하여 얻어진 결과 영상으로, 도 22b의 (a)영상은 윤곽선 효과를 주지 않고 얻어진 결과 영상이고, (b)영상은 윤곽선 효과를 적용한 결과 영상이다. 도 22a 및 도 22b를 참조하면, 소스 영상의 에지 효과에 대한 분석에 기초하여 결과 영상에 윤곽선 효과를 적용함으로써 보다 양호한 품질의 영상을 얻을 수 있음을 알 수 있다. FIG. 22A is a resultant image obtained by using the image (g) of FIG. 16 as a source image. FIG. 22A (a) is a resultant image obtained without the contour effect. . In addition, FIG. 22B is a resultant image obtained by using the image of (i) of FIG. 16 as a source image, (a) of FIG. 22B is a resultant image obtained without the contour effect, and (b) the resultant image of applying the contour effect. to be. Referring to FIGS. 22A and 22B, it can be seen that a better quality image can be obtained by applying the contour effect to the resultant image based on the analysis of the edge effect of the source image.

도 23은 본 발명에 따른 방향 질감 전이 기법과 종래의 픽셀 기반 질감 전이 기법에 대해 소스 영상으로 도 16의 (c)영상을 사용하여 얻어진 결과 영상들을 도시한 도면이다. 도 23을 참조하면, 도 23의 (b)영상과 (c)영상은 각각 허쯔만(Herzmann)의 기법, 아쉬크민(Ashikhmin)의 기법을 사용하여 얻어진 결과 영상으로서, 본 발명을 사용하여 얻어진 결과 영상인 (c)영상이 이들 종래 기술에 의해 얻어진 결과 영상들보다 효과적으로 소스 영상의 질감이 결과 영상으로 전이되었음을 확인할 수 있다. 또한 도 24는 본 발명에 따른 방향 질감 전이 기법과 왕(Wang)에 의해 제안된 패치 기반의 기법에 대해 소스 영상으로 도 16의 (b)영상을 사용하여 얻어진 결과 영상들을 도시한 도면이다. 도 24를 참조하면, 왕의 기법에 의해 얻어진 결과 영상인 (a)영상보다 본 발명을 사용하여 얻어진 결과 영상인 (b)영상이 질감 효과가 우수함을 알 수 있다. 나아가 왕의 기법은 결과 영상을 생성하기까지 약 55초의 처리 시간이 소요된 반면에 본 발명은 약 6초의 처리 시간만으로도 결과 영상을 생성할 수 있고, 본 발명이 구현하기 용이하다는 이점이 있다.FIG. 23 is a diagram illustrating result images obtained by using the image (c) of FIG. 16 as a source image for the direction texture transition technique and the conventional pixel-based texture transition technique according to the present invention. Referring to FIG. 23, the images (b) and (c) of FIG. 23 are the resulting images obtained using the method of Herzmann and the method of Ashkhmin, respectively, and are obtained by using the present invention. It can be confirmed that the texture of the source image is transferred to the result image more effectively than the result images obtained by these conventional techniques. FIG. 24 is a diagram illustrating result images obtained by using the image (b) of FIG. 16 as a source image for the direction texture transition technique and the patch-based technique proposed by Wang according to the present invention. Referring to FIG. 24, it can be seen that the resultant image (b) obtained by using the present invention has better texture effect than the resultant image obtained by the royal technique (a). Furthermore, while Wang's technique takes about 55 seconds to generate the result image, the present invention has the advantage that the result image can be generated with only about 6 seconds of processing time, and the present invention is easy to implement.

도 25는 본 발명에 따른 질감 전이 기법을 텍스쳐 합성에 적용한 결과를 도시한 도면이다. 질감 전이 연구에서는 하나의 채널(명도)만을 사용하였으며, 최종적인 결과는 목표 영상의 색상과 갱신된 명도 채널을 합성하여 생성된다. 이와 달리 텍스쳐 합성 연구에서는 소스 영상의 모든 채널(즉, YIQ 색공간)을 사용하였으며, 결과 영상을 갱신하였다. 본 발명에 있어서 패치 텍스쳐가 꽃잎의 형태인 경우에는 방향 인자가 패치의 형태를 왜곡시켜 양호한 결과를 얻기 어렵다. 그러나 도 25에 도시된 바와 같이 패치가 특정한 형태를 가지지 않은 경우에는 본 발명 역시 양호한 결과를 얻을 수 있다. 또한 결과 영상의 품질은 관찰자에 따라 달라지며, 본 발명에 의해 얻어진 결과인 도 25의 (b)영상에는 경사 흐름이 나타나 있다.FIG. 25 is a diagram illustrating the results of applying the texture transfer technique to texture synthesis according to the present invention. In the texture transition study, only one channel (brightness) was used, and the final result is generated by combining the color of the target image and the updated brightness channel. In contrast, the texture synthesis study used all channels of the source image (ie, YIQ color space) and updated the result image. In the present invention, when the patch texture is in the form of petals, the orientation factor distorts the shape of the patch, and thus it is difficult to obtain good results. However, as shown in FIG. 25, when the patch does not have a specific shape, the present invention may also obtain good results. In addition, the quality of the resultant image varies depending on the observer, and the oblique flow is shown in the image (b) of FIG. 25 which is the result obtained by the present invention.

도 26은 본 발명에 따른 질감 전이 기법을 다양한 영상에 대해 적용한 결과를 도시한 도면이다. 도 26의 (a)와 (d)영상은 도 16의 (d)영상을 소스 영상으로 사용하여 얻어진 결과 영상이고, 도 26의 (b)와 (c)영상은 도 16의 (a)영상으로 사용하여 얻어진 결과 영상이다. 도 26을 참조하면, 목표 영상 각각에 존재하는 방향 성분이 결과 영상에 반영되어 있으며, 결과 영상에 소스 영상의 질감이 적절하게 나타나 있음을 알 수 있다. 또한 도 27은 본 발명에 따른 질감 전이 기법에서 제안하고 있는 윤곽선 효과를 첨성대 영상에 대해 적용한 결과를 도시한 도면이다. 도 27의 (a), (b) 및 (c)영상은 각각 도 16의 (h), (i) 및 (g)영상을 소스 영상으로 사용하여 얻어진 결과 영상이다. 도 27을 참조하면, 각각의 결과 영상들은 소스 영상의 질감을 적절히 반영하고 있으며, 윤곽선 효과에 의해 새로운 영상 효과가 존재함을 확인할 수 있다. FIG. 26 is a diagram illustrating a result of applying a texture transfer technique to various images according to the present invention. FIG. (A) and (d) of FIG. 26 are result images obtained by using (d) of FIG. 16 as a source image, and (b) and (c) of FIG. 26 are images of (a) of FIG. The resulting image is obtained using. Referring to FIG. 26, it can be seen that the direction component existing in each target image is reflected in the result image, and the texture of the source image is appropriately displayed in the result image. 27 is a diagram showing the result of applying the contour effect proposed in the texture transfer technique according to the present invention to the kurtosis band image. (A), (b) and (c) of FIG. 27 are result images obtained by using (h), (i) and (g) images of FIG. 16, respectively, as source images. Referring to FIG. 27, each of the resulting images properly reflects the texture of the source image, and it can be confirmed that a new image effect exists due to the contour effect.

도 28은 본 발명에 따른 질감 전이 기법을 세종 대왕 영상에 적용한 결과를 도시한 도면이다. 도 28의 (a)영상은 목표 영상, (b)영상은 소스 영상, (c)영상은 윤곽선 효과를 적용하지 않은 영상, 그리고 (d)영상은 윤곽선 효과를 적용한 영상이다. 도 28로부터 알 수 있듯이, 본 발명에 따른 질감 전이 기법은 목표 영상의 방향 성분과 소스 영상의 질감 성분이 결과 영상에 적절히 반영되어 있으며, 나아가 윤곽선 효과를 부여한 경우에 또 다른 시각적 효과를 얻을 수 있다.28 is a diagram illustrating the results of applying the texture transfer technique according to the present invention to the King Sejong image. In FIG. 28, (a) image is the target image, (b) image is the source image, (c) the image is not applied the contour effect, and (d) the image is applied the contour effect. As can be seen from FIG. 28, in the texture transfer technique according to the present invention, the direction component of the target image and the texture component of the source image are properly reflected in the resultant image, and further, another visual effect may be obtained when the contour effect is applied. .

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the above-described specific preferred embodiments, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

Claims (14)

형태와 색상에 있어서 결과 영상의 기본이 되는 영상인 목표 영상과 상기 결과 영상의 질감을 결정하기 위해 사용되는 참조 영상인 소스 영상을 입력받는 영상 입력부;
상기 결과 영상을 구성하는 각각의 픽셀의 값을 결정하기 위해 상기 결과 영상을 구성하는 픽셀들 중에서 순차적으로 선택된 처리 대상 픽셀에 대해 다음의 수학식 A로 정의되는 거리 함수의 값을 계산하는 거리 함수 계산부; 및
상기 소스 영상 상에서 결정된 후보 픽셀들 중에서 상기 거리 함수의 계산 결과를 최소화하는 픽셀의 픽셀값을 상기 처리 대상 픽셀의 픽셀값으로 결정하여 상기 결과 영상을 생성하는 결과 영상 생성부;를 포함하는 것을 특징으로 하는 영상 변환 장치.
[수학식 A]
Figure 112012034258289-pat00017

여기서, r은 상기 결과 영상을 구성하는 픽셀들 중에서 순차적으로 선택된 처리 대상 픽셀, q는 소스 영상 상에서 결정된 후보 픽셀, DN(r,q)는 색상 인자로서 상기 목표 영상 상에서 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합에 속하는 픽셀들의 평균 픽셀값과 상기 소스 영상 상에서 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합에 속하는 픽셀들인 후보 픽셀들 각각에 대해 결정된 사각형 이웃 집합을 구성하는 픽셀들의 평균 픽셀값 사이의 유클리디안 거리, DL(r,q)는 질감 인자로서 상기 결과 영상 상에서 상기 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 속하는 픽셀들 중에서 상기 처리 대상 픽셀을 기준으로 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합 각각에 속하는 픽셀들의 표준 편차와 상기 후보 픽셀들 각각의 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합에 속하는 픽셀들의 표준 편차의 차이, DI(r,q)는 방향 인자로서 상기 결과 영상 상에서 결정된 L형 이웃 집합에 속해 있는 보간된 경사 방향에 수직한 방향으로 놓여 있는 픽셀들로 구성되는 I형 이웃 집합에 속해 있는 픽셀들의 밝기 평균값과 상기 후보 픽셀들 각각의 밝기값의 차이, wL은 상기 질감 인자에 대한 가중계수, 그리고 wI는 상기 방향 인자에 대한 가중계수이다.
An image input unit configured to receive a target image, which is a basic image of a result image, and a source image, which is a reference image, used to determine a texture of the result image in shape and color;
Distance function calculation for calculating a value of a distance function defined by Equation A below for a target pixel sequentially selected among pixels constituting the resultant image to determine a value of each pixel constituting the resultant image. part; And
And a result image generator configured to generate a result image by determining a pixel value of a pixel that minimizes a result of the distance function among the candidate pixels determined on the source image as a pixel value of the pixel to be processed. Video conversion device.
Equation A
Figure 112012034258289-pat00017

Here, r is a processing target pixel sequentially selected from the pixels constituting the resultant image, q is a candidate pixel determined on the source image, and D N (r, q) is a color factor corresponding to the processing target pixel on the target image. A rectangle of a preset size centered on an average pixel value of pixels belonging to a neighboring set of pixels included in a rectangle of a preset size centered on a coordinate and a coordinate corresponding to a pixel to be processed on the source image The Euclidean distance, D L (r, q), between the average pixel values of the pixels constituting the rectangular neighborhood set determined for each of the candidate pixels that are pixels belonging to the rectangular neighborhood set of pixels included in the pixel is a texture factor. Preset based on the coordinates corresponding to the processing target pixel on the result image Standard pixels of pixels belonging to each of the L-shaped neighbor sets including pixels located in an upper left direction with respect to the processing target pixel among pixels belonging to a rectangle of a size, and pixels located in an upper left direction of each of the candidate pixels. The difference in the standard deviation of the pixels belonging to the formed L-shaped neighbor set, D I (r, q), is a direction factor and the pixels lying in the direction perpendicular to the interpolated oblique direction belonging to the L-shaped neighbor set determined on the resultant image. The difference between the brightness average values of the pixels belonging to the I-type neighbor set, and the brightness values of each of the candidate pixels, w L is a weighting factor for the texture factor, and w I is a weighting factor for the direction factor.
제 1항에 있어서,
상기 거리 함수 계산부는 상기 결과 영상 상에서 결정되는 L형 이웃 집합을 구성하는 픽셀들 각각에 대해 사전에 설정된 크기의 소벨 마스크를 적용하여 얻어진 경사 방향 상에 존재하는 픽셀들을 상기 결과 영상 상에서 결정되는 I형 이웃 집합의 구성원소로 결정하는 것을 특징으로 하는 영상 변환 장치.
The method of claim 1,
The distance function calculator is configured to determine, on the resultant image, pixels existing in an oblique direction obtained by applying a Sobel mask having a preset size to each of the pixels constituting the L-type neighbor set determined on the resultant image. And an element of a neighbor set.
제 1항 또는 제 2항에 있어서,
상기 소스 영상에 대해 다음의 수학식 B로 정의되는 방향 차이값에 따라 사전에 설정된 범위 내에서 상기 방향 인자에 대한 가중계수의 값을 결정하는 가중계수 결정부를 더 포함하는 것을 특징으로 하는 영상 변환 장치:
[수학식 B]
Figure 112011004530435-pat00018

여기서, x는 소스 영상 S에서의 픽셀의 좌표이고,
Figure 112011004530435-pat00019
는 소스 영상 S의 원 경사 정보이며,
Figure 112011004530435-pat00020
는 소스 영상 S의 보간된 경사 정보이다.
3. The method according to claim 1 or 2,
And a weighting coefficient determiner configured to determine a value of a weighting factor for the direction factor within a preset range according to a direction difference value defined by Equation B below with respect to the source image. :
Equation B
Figure 112011004530435-pat00018

Where x is the coordinate of the pixel in the source image S,
Figure 112011004530435-pat00019
Is the circle tilt information of the source image S,
Figure 112011004530435-pat00020
Is the interpolated slope information of the source image S.
제 3항에 있어서,
상기 가중계수 결정부는 다음의 수학식 C에 의해 상기 방향 인자에 대한 가중계수의 값을 결정하는 것을 특징으로 하는 영상 변환 장치:
[수학식 C]
Figure 112011004530435-pat00021

여기서, a는 상기 방향 인자에 대해 사전에 설정된 범위의 상한값에서 하한값을 감한 값을 상기 방향 차이값의 상한값에서 하한값을 감한 값으로 나눈 값이고, b는 상기 방향 차이값의 상한값을 상기 방향 차이값의 상한값에서 하한값을 감한 값으로 나눈 값이다.
The method of claim 3, wherein
And the weighting coefficient determining unit determines a value of the weighting coefficient with respect to the direction factor by Equation C below:
Equation C
Figure 112011004530435-pat00021

Here, a is a value obtained by subtracting a lower limit from an upper limit of a range preset for the direction factor by a value obtained by subtracting a lower limit from an upper limit of the direction difference value, and b is an upper limit value of the direction difference value by the direction difference value The upper limit of is divided by the lower limit of the lower limit.
제 1항 또는 제 2항에 있어서,
상기 소스 영상으로부터 에지 정보를 추출하여 에지 영상을 생성하고, 상기 소스 영상을 구성하는 픽셀들과 상기 에지 영상을 구성하는 각각의 에지 픽셀 사이의 명도 변화 정보를 기초로 상기 결과 영상을 구성하는 각각의 픽셀들의 명도 값을 보정하여 상기 결과 영상에 윤곽선 효과를 부여하는 윤곽선 효과부를 더 포함하는 것을 특징으로 하는 영상 변환 장치.
3. The method according to claim 1 or 2,
An edge image is generated by extracting edge information from the source image, and each of the results image is configured based on brightness change information between pixels constituting the source image and edge pixels constituting the edge image. And a contour effect unit for correcting brightness values of the pixels to give a contour effect to the resultant image.
제 5항에 있어서,
상기 명도 변화 정보는 상기 소스 영상을 구성하는 픽셀들과 상기 에지 영상을 구성하는 각각의 에지 픽셀들 사이의 거리에 따른 명도 값의 차이를 평균하여 상기 소스 영상을 구성하는 픽셀들 각각에 대한 평균 명도 변화율인 것을 특징으로 하는 영상 변환 장치.
6. The method of claim 5,
The brightness change information is obtained by averaging the difference in brightness values according to the distance between the pixels constituting the source image and each edge pixel constituting the edge image to average brightness for each pixel constituting the source image. The image conversion device, characterized in that the rate of change.
제 6항에 있어서,
상기 윤곽선 효과부는 상기 평균 명도 변화율에 기초하여 상기 결과 영상을 구성하는 각각의 픽셀들의 명도 값을 변경하여 상기 결과 영상에 윤곽선 효과를 부여하는 것을 특징으로 하는 특징으로 하는 영상 변환 장치.
The method according to claim 6,
And the contour effect unit changes the brightness value of each pixel constituting the resultant image based on the average change rate of brightness to give an outline effect to the resultant image.
(a) 형태와 색상에 있어서 결과 영상의 기본이 되는 영상인 목표 영상과 상기 결과 영상의 질감을 결정하기 위해 사용되는 참조 영상인 소스 영상을 입력받는 단계;
(b) 상기 소스 영상의 픽셀들을 무작위로 선택하여 상기 결과 영상의 픽셀들을 채워 상기 결과 영상을 초기화하는 단계;
(c) 상기 결과 영상의 좌상 픽셀로부터 우하 픽셀까지 순차적으로 처리 대상 픽셀을 선택하고, 상기 선택된 처리 대상의 픽셀의 값을 결정하기 위해 다음의 수학식 A로 정의되는 거리 함수의 값을 계산하는 단계; 및
(d) 상기 소스 영상 상에서 결정된 후보 픽셀들 중에서 상기 거리 함수의 계산 결과를 최소화하는 후보 픽셀의 픽셀값을 상기 처리 대상 픽셀의 픽셀값으로 결정하는 단계;를 포함하며,
상기 (c)단계 및 상기 (d)단계는 상기 결과 영상의 모든 픽셀에 대해 픽셀값을 결정할 때까지 반복적으로 수행되는 것을 특징으로 하는 영상 변환 방법.
[수학식 A]
Figure 112012034258289-pat00022

여기서, r은 상기 결과 영상을 구성하는 픽셀들 중에서 순차적으로 선택된 처리 대상 픽셀, q는 소스 영상 상에서 결정된 후보 픽셀, DN(r,q)는 색상 인자로서 상기 목표 영상 상에서 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합에 속하는 픽셀들의 평균 픽셀값과 상기 소스 영상 상에서 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 포함되는 픽셀들로 이루어진 사각형 이웃 집합에 속하는 픽셀들인 후보 픽셀들 각각에 대해 결정된 사각형 이웃 집합을 구성하는 픽셀들의 평균 픽셀값 사이의 유클리디안 거리, DL(r,q)는 질감 인자로서 상기 결과 영상 상에서 상기 처리 대상 픽셀에 해당하는 좌표를 중심으로 하는 사전에 설정된 크기의 사각형 내에 속하는 픽셀들 중에서 상기 처리 대상 픽셀을 기준으로 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합 각각에 속하는 픽셀들의 표준 편차와 상기 후보 픽셀들 각각의 좌상 방향에 위치하는 픽셀들로 이루어진 L형 이웃 집합에 속하는 픽셀들의 표준 편차의 차이, DI(r,q)는 방향 인자로서 상기 결과 영상 상에서 결정된 L형 이웃 집합에 속해 있는 보간된 경사 방향에 수직한 방향으로 놓여 있는 픽셀들로 구성되는 I형 이웃 집합에 속해 있는 픽셀들의 밝기 평균값과 상기 후보 픽셀들 각각의 밝기값의 차이, wL은 상기 질감 인자에 대한 가중계수, 그리고 wI는 상기 방향 인자에 대한 가중계수이다.
(a) receiving a target image, which is a basic image of a result image, and a source image, which is a reference image used to determine a texture of the result image, in shape and color;
(b) randomly selecting pixels of the source image to fill the pixels of the result image to initialize the result image;
(c) sequentially selecting pixels to be processed from the upper left pixel to the lower right pixel of the resultant image, and calculating a value of a distance function defined by Equation A to determine a value of the selected pixel to be processed. ; And
(d) determining a pixel value of a candidate pixel that minimizes a calculation result of the distance function among candidate pixels determined on the source image as the pixel value of the processing target pixel;
The steps (c) and (d) are repeatedly performed until a pixel value is determined for all pixels of the resultant image.
Equation A
Figure 112012034258289-pat00022

Here, r is a processing target pixel sequentially selected from the pixels constituting the resultant image, q is a candidate pixel determined on the source image, and D N (r, q) is a color factor corresponding to the processing target pixel on the target image. A rectangle of a preset size centered on an average pixel value of pixels belonging to a neighboring set of pixels included in a rectangle of a preset size centered on a coordinate and a coordinate corresponding to a pixel to be processed on the source image The Euclidean distance, D L (r, q), between the average pixel values of the pixels constituting the rectangular neighborhood set determined for each of the candidate pixels that are pixels belonging to the rectangular neighborhood set of pixels included in the pixel is a texture factor. Preset based on the coordinates corresponding to the processing target pixel on the result image Standard pixels of pixels belonging to each of the L-shaped neighbor sets including pixels located in an upper left direction with respect to the processing target pixel among pixels belonging to a rectangle of a size, and pixels located in an upper left direction of each of the candidate pixels. The difference in the standard deviation of the pixels belonging to the formed L-shaped neighbor set, D I (r, q), is a direction factor and the pixels lying in the direction perpendicular to the interpolated oblique direction belonging to the L-shaped neighbor set determined on the resultant image. The difference between the brightness average values of the pixels belonging to the I-type neighbor set, and the brightness values of each of the candidate pixels, w L is a weighting factor for the texture factor, and w I is a weighting factor for the direction factor.
제 8항에 있어서,
상기 (c)단계에서, 상기 결과 영상 상에서 결정되는 L형 이웃 집합을 구성하는 픽셀들 각각에 대해 사전에 설정된 크기의 소벨 마스크를 적용하여 얻어진 경사 방향 상에 존재하는 픽셀들을 상기 결과 영상 상에서 결정되는 I형 이웃 집합의 구성원소로 결정하는 것을 특징으로 하는 영상 변환 방법.
The method of claim 8,
In the step (c), the pixels existing in the oblique direction obtained by applying a Sobel mask having a preset size to each of the pixels constituting the L-type neighbor set determined on the resultant image are determined on the resultant image. The image conversion method, characterized in that determined as a member of the type I neighbor set.
제 8항 또는 제 9항에 있어서,
(e) 상기 소스 영상에 대해 다음의 수학식 B로 정의되는 방향 차이값에 따라 사전에 설정된 범위 내에서 상기 방향 인자에 대한 가중계수의 값을 결정하는 단계를 더 포함하는 것을 특징으로 하는 영상 변환 방법:
[수학식 B]
Figure 112011004530435-pat00023

여기서, x는 소스 영상 S에서의 픽셀의 좌표이고,
Figure 112011004530435-pat00024
는 소스 영상 S의 원 경사 정보이며,
Figure 112011004530435-pat00025
는 소스 영상 S의 보간된 경사 정보이다.
The method according to claim 8 or 9,
and (e) determining a value of a weighting factor for the direction factor within a preset range according to a direction difference value defined by Equation B for the source image. Way:
Equation B
Figure 112011004530435-pat00023

Where x is the coordinate of the pixel in the source image S,
Figure 112011004530435-pat00024
Is the circle tilt information of the source image S,
Figure 112011004530435-pat00025
Is the interpolated slope information of the source image S.
제 8항 또는 제 9항에 있어서,
(f) 상기 소스 영상으로부터 에지 정보를 추출하여 에지 영상을 생성하고, 상기 소스 영상을 구성하는 픽셀들과 상기 에지 영상을 구성하는 각각의 에지 픽셀 사이의 명도 변화 정보를 기초로 상기 결과 영상을 구성하는 각각의 픽셀들의 명도 값을 보정하여 상기 결과 영상에 윤곽선 효과를 부여하는 단계를 더 포함하는 것을 특징으로 하는 영상 변환 방법.
The method according to claim 8 or 9,
(f) extracting edge information from the source image to generate an edge image, and constructing the resultant image based on brightness change information between pixels constituting the source image and each edge pixel constituting the edge image; And correcting the brightness values of the respective pixels to give a contour effect to the resultant image.
제 11항에 있어서,
상기 명도 변화 정보는 상기 소스 영상을 구성하는 픽셀들과 상기 에지 영상을 구성하는 각각의 에지 픽셀들 사이의 거리에 따른 명도 값의 차이를 평균하여 상기 소스 영상을 구성하는 픽셀들 각각에 대한 평균 명도 변화율인 것을 특징으로 하는 영상 변환 방법.
12. The method of claim 11,
The brightness change information is obtained by averaging the difference in brightness values according to the distance between the pixels constituting the source image and each edge pixel constituting the edge image to average brightness for each pixel constituting the source image. The image conversion method, characterized in that the rate of change.
제 12항에 있어서,
상기 (f)단계에서, 상기 평균 명도 변화율에 기초하여 상기 결과 영상을 구성하는 각각의 픽셀들의 명도 값을 변경하여 상기 결과 영상에 윤곽선 효과를 부여하는 것을 특징으로 하는 특징으로 하는 영상 변환 방법.
13. The method of claim 12,
In the step (f), the image conversion method, characterized in that to give the contour effect to the result image by changing the brightness value of each pixel constituting the result image based on the average brightness change rate.
제 8항 또는 제 9항에 기재된 영상 변환 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the image conversion method according to claim 8 or 9.
KR1020110005519A 2010-06-04 2011-01-19 Apparatus and method for converting image reflecting directional texture information of original image Expired - Fee Related KR101155227B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100052934 2010-06-04
KR1020100052934 2010-06-04

Publications (2)

Publication Number Publication Date
KR20110133411A KR20110133411A (en) 2011-12-12
KR101155227B1 true KR101155227B1 (en) 2012-06-13

Family

ID=45501119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110005519A Expired - Fee Related KR101155227B1 (en) 2010-06-04 2011-01-19 Apparatus and method for converting image reflecting directional texture information of original image

Country Status (1)

Country Link
KR (1) KR101155227B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116095398B (en) * 2022-11-11 2024-09-06 格兰菲智能科技股份有限公司 Sub-pixel rendering method and system of RGBG display panel

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060023869A (en) * 2004-09-10 2006-03-15 삼성전자주식회사 Image processing apparatus and method
KR20080108489A (en) * 2006-02-27 2008-12-15 코닌클리케 필립스 일렉트로닉스 엔.브이. Output image rendering
KR20090107650A (en) * 2008-04-10 2009-10-14 안종훈 Method and apparatus for processing video or audio

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060023869A (en) * 2004-09-10 2006-03-15 삼성전자주식회사 Image processing apparatus and method
KR20080108489A (en) * 2006-02-27 2008-12-15 코닌클리케 필립스 일렉트로닉스 엔.브이. Output image rendering
KR20090107650A (en) * 2008-04-10 2009-10-14 안종훈 Method and apparatus for processing video or audio

Also Published As

Publication number Publication date
KR20110133411A (en) 2011-12-12

Similar Documents

Publication Publication Date Title
RU2680765C1 (en) Automated determination and cutting of non-singular contour of a picture on an image
CA2658727C (en) Interactive segmentation of images with single scribbles
US8422776B2 (en) Transparency and/or color processing
US9922443B2 (en) Texturing a three-dimensional scanned model with localized patch colors
CN109697688A (en) A kind of method and apparatus for image procossing
US20030197806A1 (en) Single lens 3D camera
US20030197698A1 (en) Enhancing textured range images using a 2D editor
Price et al. Object-based vectorization for interactive image editing
US10019848B2 (en) Edge preserving color smoothing of 3D models
US20030198404A1 (en) Method for determining distances to a surface from a range image
KR101112142B1 (en) Apparatus and method for cartoon rendering using reference image
US10503997B2 (en) Method and subsystem for identifying document subimages within digital images
US7948489B1 (en) Minimizing tessellation of surfaces
JP5362130B2 (en) Image processing method and apparatus therefor
WO2007145654A1 (en) Automatic compositing of 3d objects in a still frame or series of frames and detection and manipulation of shadows in an image or series of images
US11107257B1 (en) Systems and methods of generating playful palettes from images
US6792205B2 (en) Method for generating a textured range image
Ramanarayanan et al. Constrained texture synthesis via energy minimization
KR101028699B1 (en) Painterly rendering device and method
KR101191319B1 (en) Apparatus and method for painterly rendering based on objective motion information
JP2014106713A (en) Program, method, and information processor
Xu et al. A general texture mapping framework for image-based 3D modeling
KR101155227B1 (en) Apparatus and method for converting image reflecting directional texture information of original image
US9508162B2 (en) Method and system for rapidly vectorizing image by gradient meshes based on parameterization
RU2626661C1 (en) Method and subsystem of determining digital images of fragments containing documents

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R11-asn-PN2301

St.27 status event code: A-3-3-R10-R13-asn-PN2301

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

Fee payment year number: 1

St.27 status event code: A-2-2-U10-U11-oth-PR1002

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 4

PR1001 Payment of annual fee

Fee payment year number: 4

St.27 status event code: A-4-4-U10-U11-oth-PR1001

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 5

PR1001 Payment of annual fee

Fee payment year number: 5

St.27 status event code: A-4-4-U10-U11-oth-PR1001

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 6

PR1001 Payment of annual fee

Fee payment year number: 6

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PC1903 Unpaid annual fee

Not in force date: 20180605

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

St.27 status event code: A-4-4-U10-U13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

FPAY Annual fee payment

Payment date: 20190213

Year of fee payment: 7

K11-X000 Ip right revival requested

St.27 status event code: A-6-4-K10-K11-oth-X000

PC1903 Unpaid annual fee

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20180605

St.27 status event code: N-4-6-H10-H13-oth-PC1903

PR0401 Registration of restoration

St.27 status event code: A-6-4-K10-K13-oth-PR0401

PR1001 Payment of annual fee

Fee payment year number: 7

St.27 status event code: A-4-4-U10-U11-oth-PR1001

R401 Registration of restoration
PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R14-asn-PN2301

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

FPAY Annual fee payment

Payment date: 20191204

Year of fee payment: 8

PR1001 Payment of annual fee

Fee payment year number: 8

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PC1903 Unpaid annual fee

Not in force date: 20200605

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

St.27 status event code: A-4-4-U10-U13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

K11-X000 Ip right revival requested

St.27 status event code: A-6-4-K10-K11-oth-X000

PC1903 Unpaid annual fee

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20200605

St.27 status event code: N-4-6-H10-H13-oth-PC1903

PR0401 Registration of restoration

St.27 status event code: A-6-4-K10-K13-oth-PR0401

PR1001 Payment of annual fee

Fee payment year number: 9

St.27 status event code: A-4-4-U10-U11-oth-PR1001

R401 Registration of restoration
PC1903 Unpaid annual fee

Not in force date: 20210605

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

St.27 status event code: A-4-4-U10-U13-oth-PC1903

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

K11-X000 Ip right revival requested

St.27 status event code: A-6-4-K10-K11-oth-X000

PC1903 Unpaid annual fee

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20210605

St.27 status event code: N-4-6-H10-H13-oth-PC1903

PR0401 Registration of restoration

St.27 status event code: A-6-4-K10-K13-oth-PR0401

R401 Registration of restoration
PR1001 Payment of annual fee

Fee payment year number: 10

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 11

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 12

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 13

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000