KR102794217B1 - High-quality conversion method and apparatus for low-resolution media based on video characteristics - Google Patents
High-quality conversion method and apparatus for low-resolution media based on video characteristics Download PDFInfo
- Publication number
- KR102794217B1 KR102794217B1 KR1020210183530A KR20210183530A KR102794217B1 KR 102794217 B1 KR102794217 B1 KR 102794217B1 KR 1020210183530 A KR1020210183530 A KR 1020210183530A KR 20210183530 A KR20210183530 A KR 20210183530A KR 102794217 B1 KR102794217 B1 KR 102794217B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- processing
- quality
- image
- complexity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0127—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Systems (AREA)
Abstract
본 개시는 영상 특성 기반 저화질 미디어의 고화질 변환 방법 및 장치에 관한 것으로, 영상 콘텐츠를 외부 장치로부터 수신하고, 수신된 상기 영상 콘텐츠를 장르 카테고리에 따라 분류하고, 분류된 상기 영상 콘텐츠를 시간 복잡도 및 공간 복잡도 및 적어도 하나를 기초로 분류하고, 분류된 상기 영상 콘텐츠를 해상도, 프레임 수, 선명도 및 색 영역 중 적어도 하나를 기초로 프로세싱하고, 프로세싱된 상기 영상 콘텐츠의 화질을 개선하는 것을 요지로 한다. The present disclosure relates to a method and device for converting low-quality media into high-quality media based on image characteristics, the method comprising: receiving image content from an external device, classifying the received image content according to a genre category, classifying the classified image content based on at least one of time complexity and space complexity, processing the classified image content based on at least one of resolution, number of frames, sharpness, and color gamut, and improving image quality of the processed image content.
Description
본 개시는 저화질 미디어의 고화질 변환 방법 및 장치에 대한 것으로서, 구체적으로, 영상 특성 기반 저화질 미디어의 고화질 변환 방법 및 장치에 대한 기술이다.The present disclosure relates to a method and device for converting low-quality media into high-quality media, and more particularly, to a technology for a method and device for converting low-quality media into high-quality media based on image characteristics.
K-POP이나 K-드라마로 대표되던 한류 콘텐츠가 이제는 K-영화까지 다양한 형태로 확장되어 글로벌 콘텐츠 시장을 점유해 나가고 있다. 이러한 한류 콘텐츠의 확산으로 과거에 방송사에서 제작된 저화질의 구작 콘텐츠에 대한 국내외 수요 또한 폭발적으로 증가하고 있는 추세이다. 초기에는 동남아 시장 위주로 구작 콘텐츠에 대한 수요가 증가하였으나, 중남미 및 유럽 시장 등에서도 이러한 수요가 폭발적으로 증가하고 있다.Korean Wave content, represented by K-POP and K-Drama, is now expanding into various forms including K-Movies and taking over the global content market. With the spread of this Korean Wave content, the demand for old, low-quality content produced by broadcasters in the past is also increasing explosively both domestically and internationally. Initially, the demand for old content increased mainly in the Southeast Asian market, but this demand is also increasing explosively in Central and South American and European markets.
이러한 수요 증가 및 시장 변화에 따라 기존 콘텐츠 활용 제고를 위한 고화질 변환 요소 기술의 개발 및 고도화가 필요하다. With this increase in demand and market changes, there is a need to develop and advance high-definition conversion element technology to improve the utilization of existing content.
그런데, 콘텐츠의 고화질 변환을 위한 요소 기술의 성능 고도화를 위한 연구는 다양하게 수행되고 있지만, 특정 공인 데이터셋을 사용한 변환요소 단위 별 연구에 편중되어 성능향상에 한계를 보이며 이들 요소 기술을 통합하여 적용한 사업화 모델 기반의 변환 솔루션 개발은 미비하여 상용화 수준의 사업화까지 진행되는데 많은 어려움이 있다However, although various studies are being conducted to improve the performance of element technologies for high-definition conversion of content, they are biased towards studies by conversion element unit using specific public datasets, showing limitations in improving performance, and the development of conversion solutions based on a commercialization model that integrates and applies these element technologies is insufficient, making it difficult to proceed to commercialization at the commercialization level.
본 개시의 목적은 저화질 영상 콘텐츠를 고화질 콘텐츠로 변환하기 위하여, 원본 콘텐츠의 시간 및 공간 복잡도를 단계별로 분류하고 분류된 영상에 따라 최적의 화질 개선 방법을 적용함으로써 고화질 영상 콘텐츠로 변환할 수 있는 저화질 미디어의 고화질 변환 방법 및 장치를 제안하는 것을 그 목적으로 한다. The purpose of the present disclosure is to propose a method and device for converting low-quality media into high-quality video content by classifying the time and space complexity of original content into steps and applying an optimal video quality improvement method according to the classified video.
본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 개시의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 개시의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present disclosure can be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. In addition, it will be readily apparent that the objects and advantages of the present disclosure can be realized by the means and combinations thereof indicated in the claims.
본 개시의 일 실시예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 방법은, 영상 콘텐츠를 외부 장치로부터 수신하는 단계; 수신된 상기 영상 콘텐츠를 장르 카테고리에 따라 분류하는 단계; 분류된 상기 영상 콘텐츠를 시간 복잡도 및 공간 복잡도 및 적어도 하나를 기초로 분류하는 단계; 분류된 상기 영상 콘텐츠를 해상도, 프레임 수, 선명도 및 색 영역 중 적어도 하나를 기초로 프로세싱하는 단계; 및 프로세싱된 상기 영상 콘텐츠의 화질을 개선하는 단계를 포함한다. According to one embodiment of the present disclosure, a method for converting low-quality media into high-quality media based on image characteristics includes the steps of: receiving image content from an external device; classifying the received image content according to a genre category; classifying the classified image content based on at least one of temporal complexity and spatial complexity; processing the classified image content based on at least one of resolution, frame count, sharpness, and color gamut; and improving image quality of the processed image content.
본 개시의 일 실시예에 따르면, 저화질 영상의 특성 분석을 통하여 장면 단위로 최적의 알고리즘을 적용하고 장면 단위로 화질 개선에 필요한 요소 기술이 적용되어 사용자가 원하는 최적의 품질로 변환된 영상을 획득할 수 있으므로 사용자 편의성을 향상시킬 수 있다. According to one embodiment of the present disclosure, by analyzing the characteristics of a low-quality image, an optimal algorithm is applied to each scene, and element technologies necessary for image quality improvement are applied to each scene, so that an image converted to the optimal quality desired by the user can be obtained, thereby improving user convenience.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by a person skilled in the art to which the present disclosure belongs from the description below.
도 1은 본 개시의 일 실시예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 장치의 구성을 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른, 시간 복잡도 및 공간 복잡도에 따른 시나리오 구분을 도시한 도면이다.
도 3은 본 개시의 일 실시 예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 방법의 순서도를 도시한 도면이다.
도 4는 본 개시의 일 실시 예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 장치의 구성을 도시한 도면이다. FIG. 1 is a diagram illustrating a configuration of a device for converting low-quality media to high-quality media based on image characteristics according to one embodiment of the present disclosure.
FIG. 2 is a diagram illustrating a scenario classification according to time complexity and space complexity according to one embodiment of the present disclosure.
FIG. 3 is a diagram illustrating a flowchart of a method for converting low-quality media into high-quality media based on image characteristics according to an embodiment of the present disclosure.
FIG. 4 is a diagram illustrating a configuration of a device for converting low-quality media to high-quality media based on image characteristics according to an embodiment of the present disclosure.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing embodiments of the present disclosure, if it is determined that a specific description of a known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. In addition, parts in the drawings that are not related to the description of the present disclosure have been omitted, and similar parts have been given similar drawing reference numerals.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly explain the characteristics of each, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form a single hardware or software unit, or a single component may be distributed to form a plurality of hardware or software units. Accordingly, even if not mentioned separately, such integrated or distributed embodiments are also included in the scope of the present disclosure.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment that consists of a subset of the components described in one embodiment is also included in the scope of the present disclosure. In addition, an embodiment that includes other components in addition to the components described in various embodiments is also included in the scope of the present disclosure.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다.In this disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one component from another component, and do not limit the order or importance between the components unless specifically stated. Accordingly, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment.
본 개시의 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 “직접 연결되어” 있다거나, “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When it is stated that a component of the present disclosure is “connected” or “connected” to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, when it is stated that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.
또한, 본 개시에 있어서 본 개시의 실시예를 도시한 일 도면이 다른 도면과 양자 택일의 실시예에 해당하지 않는 한 각 도면에 대한 설명은 서로 다른 도면에 적용될 수 있다. Additionally, in the present disclosure, unless one drawing illustrating an embodiment of the present disclosure corresponds to an alternative embodiment with another drawing, the description for each drawing may be applied to different drawings.
이하, 도면을 참조하여 본 개시에 대하여 더욱 상세하게 설명할 것이다.Hereinafter, the present disclosure will be described in more detail with reference to the drawings.
도 1은 본 개시의 일 실시예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 장치의 구성을 도시한 도면이다. FIG. 1 is a diagram illustrating a configuration of a device for converting low-quality media to high-quality media based on image characteristics according to one embodiment of the present disclosure.
도 1을 참조하면, 고화질 변환 장치(100)는 영상 특성 분석부(110), 고화질화부(120)를 포함한다. Referring to Fig. 1, the high definition conversion device (100) includes an image characteristic analysis unit (110) and a high definition conversion unit (120).
고화질 변환 장치(100)는 저화질 영상(10)을 입력으로 받아서, 고화질 영상(20)을 출력한다. A high-definition conversion device (100) receives a low-definition image (10) as input and outputs a high-definition image (20).
영상 특성 분석부(110)는 저화질 영상(10)을 입력으로 받는다. The image characteristic analysis unit (110) receives a low-quality image (10) as input.
영상 특성 분석부(110)는 저화질 영상인 오리지널 영상의 특성을 분석한다. The image characteristic analysis unit (110) analyzes the characteristics of the original image, which is a low-quality image.
고화질화부(12)는 분석된 특성에 따라 영상에 변환 요소 기술을 적용하여 화질을 개선한다. 도 1에 도시된 고화질화부(120)는 하나의 실시 예에 불과하며, 도 1에 도시된 구성 요소들을 기초로 여러 가지 변형이 가능하다.The high definition unit (12) improves the image quality by applying a conversion element technology to the image according to the analyzed characteristics. The high definition unit (120) illustrated in Fig. 1 is only one embodiment, and various modifications are possible based on the components illustrated in Fig. 1.
영상 특성 분석부(110)는 장르 분석부(111), 시공간 복잡도 분석부(112)를 포함한다. The image characteristic analysis unit (110) includes a genre analysis unit (111) and a spatiotemporal complexity analysis unit (112).
장르 분석부(111)는 영상 콘텐츠의 콘텐츠 장르를 분석하여 구분하고, 영화, 드라마, 스포츠, 뉴스 등의 카테고리에 따라 장르를 분류한다. The genre analysis department (111) analyzes and categorizes the content genre of video content and classifies the genre according to categories such as movies, dramas, sports, and news.
시공간 복잡도 분석부(112)는 영상 콘텐츠를 장면 단위로 분할하고, 분할 장면에 따라 시간 및 공간해상도 기반 복잡도를 계산하여 설정된 임계값을 기준으로 구분한다.The spatiotemporal complexity analysis unit (112) divides video content into scenes, calculates temporal and spatial resolution-based complexity according to each divided scene, and distinguishes them based on a set threshold value.
고화질화부(120)는 고해상화부(121), HFR부(High-Frame Rate, 122), HDR부(High-Dynamic Range, 123), WCG부(Wide-Color Gamut, 124) 및 화질개선 부(125)를 포함한다. The high definition unit (120) includes a high resolution unit (121), an HFR unit (High-Frame Rate, 122), an HDR unit (High-Dynamic Range, 123), a WCG unit (Wide-Color Gamut, 124), and an image quality improvement unit (125).
고화질부(120)는 영상 특성 분석부(110)의 결과물을 입력으로 받아서, 고화질 영상(20)을 출력한다. The high definition unit (120) receives the results of the image characteristic analysis unit (110) as input and outputs a high definition image (20).
고해상화부(121)는 SD(480p)의 경우 최대 4K(2160p) 해상도로 변환하며, HD(1080p)의 경우 최대 8K(4320p) 해상도로 변환하여 영상 콘텐츠의 해상도를 증가시킨다. The high-resolution unit (121) increases the resolution of video content by converting SD (480p) to a maximum 4K (2160p) resolution and HD (1080p) to a maximum 8K (4320p) resolution.
HFR부(122)는 60i(인터레이스 방식)를 60p(프로그레시브 방식)로 변환하거나 60p를 최대 240p로 변환하여 시간당 처리하는 프레임의 수를 늘려 더욱 자연스러운 화면을 생성한다. The HFR section (122) converts 60i (interlace method) to 60p (progressive method) or converts 60p to a maximum of 240p to increase the number of frames processed per hour and create a more natural screen.
HDR부(123)는 SDR(Standard Dynamic Range) 영상을 HDR(High Dynamic Range) 영상이나 HLG(High Log Gamma) 영상으로 변환하여 더욱 선명한 영상을 생성한다. The HDR section (123) converts SDR (Standard Dynamic Range) images into HDR (High Dynamic Range) images or HLG (High Log Gamma) images to create clearer images.
WCG부(124)는 BT.601을 최대 BT.2020으로 변환을 통해 색영역을 확장하여 최대한 자연색에 가까운 화면을 생성한다. The WCG department (124) expands the color gamut by converting BT.601 to a maximum of BT.2020 to create a screen that is as close to natural colors as possible.
화질 개선부(125)는 압축 왜곡 기능, 디블러 기능, 디노이즈 기능 중 적어도 하나를 실행한다. The image quality improvement unit (125) executes at least one of a compression distortion function, a deblur function, and a denoise function.
압축 왜곡 개선 기능은 영상의 부호화 과정을 통해 발생하는 왜곡을 개선하는 기능을 의미한다. 디블러 기능은 영상의 색번짐을 줄이는 기능을 의미한다. 디노이즈 기능은 통해 영상의 잡음 성분을 제거하는 기능을 한다.The compression distortion improvement function refers to the function that improves the distortion that occurs during the image encoding process. The deblur function refers to the function that reduces the color bleeding of the image. The denoise function removes the noise component of the image.
구체적으로, 영상 특성 분석부(110)는 저화질 형태의 컨텐츠 영상을 컨텐츠 영상의 장르 및 시간 복잡도 및 공간 복잡도 중 적어도 하나에 대한 분석을 수행하여 영상을 분류한다. Specifically, the image characteristic analysis unit (110) classifies the image by analyzing the low-quality content image for at least one of the genre, time complexity, and space complexity of the content image.
시간 복잡도 및 공간 복잡도 중 적어도 하나는 각각 영상의 밝기 정보를 이용하여 계산할 수 있으며, 계산된 값의 분포에 따라 임의의 구분값을 설정하여 단계를 구분한다. At least one of the time complexity and the space complexity can be calculated using the brightness information of the image, and the steps are distinguished by setting an arbitrary cutoff value according to the distribution of the calculated value.
시간 복잡도()는 다음의 수학식 1을 이용하여 구할 수 있다.Time complexity( ) can be obtained using the following mathematical formula 1.
수학식 1은 영상의 프레임 변화에 따른 시간 복잡도를 계산하기 위한 연산이다.Mathematical expression 1 is an operation for calculating time complexity according to frame changes in an image.
시간 복잡도는 영상의 밝기를 의미하는 휘도 성분을 이용하여 현재 프레임과 다음 프레임 사이의 평균 절대값 차이(Mean Absolute Difference, 이하 MAD)를 계산한 값을 의미하며, 계산된 값을 사전에 정의한 단계 구분값에 따라 상, 중, 하로 복잡도를 구분할 수 있다. Time complexity refers to the value calculated by using the luminance component representing the brightness of the image to calculate the mean absolute difference (MAD) between the current frame and the next frame, and the complexity can be classified as high, medium, or low based on the calculated value and a predefined step cutoff value.
수학식 1에서 Yt(i, j)는 전체 화면 중 (i, j)지점에서의 휘도값을 의미한다. In mathematical expression 1, Yt(i, j) represents the luminance value at point (i, j) of the entire screen.
M과 N은 각각 전체 화면의 가로 길이 및 세로 길이를 의미한다. M and N represent the width and height of the entire screen, respectively.
가로 길이 및 세로 길이는 해상도에 따라 바뀔 수 있다. The width and height may vary depending on the resolution.
예를 들어, FHD 영상의 경우, 가로 길이는 1920 픽셀, 세로 길이는 1080 픽셀로 계산할 수 있다. 앞서 언급한 값을 기준으로 매시간 단위마다 연산을 수행하여 시간 복잡도를 구할 수 있다. 여기서, 시간 단위는 초(sec)가 될 수 있다. For example, in the case of FHD video, the width can be calculated as 1920 pixels and the height as 1080 pixels. Based on the values mentioned above, the time complexity can be obtained by performing calculations for each time unit. Here, the time unit can be seconds (sec).
다음으로, 수학식 2 ~ 4에 대하여 설명한다. Next, mathematical expressions 2 to 4 are explained.
수학식 2~4는 영상의 프레임 내에서 공간 복잡도, var(t)를 계산하기 위한 연산이다. Mathematical equations 2 to 4 are operations for calculating spatial complexity, var(t), within a frame of a video.
공간 복잡도는 영상의 밝기를 의미하는 휘도 성분을 이용하여 영상 전체 영역에 대한 평균 분산값을 의미한다. 계산 값을 사전에 정의한 단계 구분값에 따라 상, 중, 하로 복잡도를 구분할 수 있습니다.Spatial complexity refers to the average variance value for the entire image area using the luminance component, which represents the brightness of the image. The complexity can be classified into high, medium, and low according to the step cutoff value defined in advance for the calculated value.
공간 복잡도 측정을 위해 16x16 블록의 휘도 성분 분산값을 기본 측정 단위로 사용한다. To measure spatial complexity, the luminance component variance of a 16x16 block is used as the basic measurement unit.
수학식 2, 수학식 3은 16x16 블록에 대한 휘도 성분 분산값을 얻기 위한 연산이다. Mathematical expressions 2 and 3 are operations for obtaining luminance component variance values for a 16x16 block.
수학식 4는 수학식 2~3을 통해 얻어진 16x16 블록의 휘도 성분 분산값, 수학식 2를 이용하여 영상 전체 영역에 대한 평균 분산값을 얻기 위한 연산이다. Mathematical expression 4 is an operation to obtain the average variance value for the entire image area using the luminance component variance value of the 16x16 block obtained through Mathematical expressions 2 and 3 and Mathematical expression 2.
공간 복잡도를 구하기 위하여 우선 수학식 2와 같이 16x16 블록 단위로 밝기 정보를 이용한 분산값을 구한다. 공간 복잡도는 수학식 2를 이용하여 계산된 값으로 수학식 4와 같이 전체 프레임에 대한 분산 평균을 구하여 얻을 수 있다.In order to obtain spatial complexity, first, the variance value using brightness information is obtained in units of 16x16 blocks as in Equation 2. The spatial complexity can be obtained by calculating the variance average for the entire frame as in Equation 4 using the value calculated using Equation 2.
공간 복잡도는 시간 복잡도와 마찬가지로 앞서 언급한 기준으로 매시간 단위마다 연산을 수행하여 구할 수 있다. 여기서, 시간 단위는 초(sec) 단위가 될 수 있다. Space complexity, like time complexity, can be obtained by performing operations for each time unit based on the criteria mentioned above. Here, the time unit can be seconds.
수학식 1과 수학식 4를 통해 도출된 시간 복잡도 및 공간 복잡도 중 적어도 하나에 대하여 각각에 대한 단계, 예를 들어, 상, 중, 하를 구분하여 컨텐츠 영상을 분류한다. Classify the content image by distinguishing between steps, for example, upper, middle, and lower, for at least one of the time complexity and space complexity derived through mathematical expressions 1 and 4.
도 2는 본 개시의 일 실시예에 따른, 시간 복잡도 및 공간 복잡도에 따른 시나리오 구분을 도시한 도면이다.FIG. 2 is a diagram illustrating a scenario classification according to time complexity and space complexity according to one embodiment of the present disclosure.
도 2에 도시한 바와 같이 시간 복잡도 및 공간 복잡도를 상, 중, 하의 3 단계로 분류하는 경우 총 9가지의 시나리오가 필요하다. 각각의 시나리오에 따라 고화질화부(120)의 동작을 위한 유닛간 순서 및 알고리즘을 자동으로 추천하게 된다.As shown in Fig. 2, when time complexity and space complexity are classified into three levels of high, medium, and low, a total of nine scenarios are required. The unit order and algorithm for the operation of the high definition unit (120) are automatically recommended according to each scenario.
예를 들어, 시간 복잡도와 공간 복잡도가 모두 상으로 분류되는 경우, 고화질화부(120)는 시나리오 1을 선택한다. For example, if both time complexity and space complexity are classified as high, the high definition unit (120) selects scenario 1.
작용 알고리즘의 순서를 고해상화부(121) -> HFR부(122) -> HDR부(123) -> WCG부(124) -> 화질개선부(125) 순으로 처리하고 각 유닛 내에서도 분류된 시간 복잡도와 공간 복잡도에 따른 방식이 적용된다. The order of the operation algorithm is high-resolution unit (121) -> HFR unit (122) -> HDR unit (123) -> WCG unit (124) -> image quality improvement unit (125), and a method according to the classified time complexity and space complexity is applied within each unit.
시간 복잡도와 공간 복잡도가 모두 하로 분류되는 경우, 고화질화부(120)는 시나리오 9를 선택한다. If both time complexity and space complexity are classified as low, the high definition unit (120) selects scenario 9.
HDR부(123) -> WCG부(124) -> HFR부(122) -> 화질개선부(125) -> 고해상화 부(121) 순으로 처리하고 마찬가지로 각 유닛 내에서도 분류된 시간 복잡도와 공간 복잡도에 따른 방식이 적용된다. The processing is done in the order of HDR section (123) -> WCG section (124) -> HFR section (122) -> image quality improvement section (125) -> high-resolution section (121), and similarly, a method according to the classified time complexity and space complexity is applied within each unit.
본 발명에 따르면, 시나리오가 실행될 때마다 고화질화부(120) 내의 모든 유닛이 동작해야 하는 것은 아니며, 필요한 유닛만 동작하여 화질 개선을 수행한다. According to the present invention, not all units within the high definition unit (120) need to operate every time a scenario is executed, and only the necessary units operate to perform image quality improvement.
도 3은 본 개시의 일 실시 예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 방법의 순서도를 도시한 도면이다. 본 발명은 영상 특성 기반 저화질 미디어의 고화질 변환 장치(100)에 의하여 수행된다. FIG. 3 is a flowchart illustrating a method for converting low-quality media into high-quality media based on image characteristics according to an embodiment of the present disclosure. The present invention is performed by a device (100) for converting low-quality media into high-quality media based on image characteristics.
도 3을 참조하면, 영상 콘텐츠를 외부 장치로부터 수신한다(S310). Referring to FIG. 3, video content is received from an external device (S310).
수신된 상기 영상 콘텐츠를 장르 카테고리에 따라 분류한다(S320).The received video content is classified according to genre category (S320).
분류된 상기 영상 콘텐츠를 시간 복잡도 및 공간 복잡도 및 적어도 하나를 기초로 분류한다(S330).The classified video content is classified based on at least one of time complexity and space complexity (S330).
분류된 상기 영상 콘텐츠를 해상도, 프레임 수, 선명도 및 색 영역 중 적어도 하나를 기초로 프로세싱한다(S340).The classified video content is processed based on at least one of resolution, frame rate, sharpness, and color range (S340).
프로세싱된 상기 영상 콘텐츠의 화질을 개선한다(S350).Improves the image quality of the processed video content (S350).
도 4는 본 개시의 일 실시 예에 따른, 영상 특성 기반 저화질 미디어의 고화질 변환 장치의 구성을 도시한 도면이다. FIG. 4 is a diagram illustrating a configuration of a device for converting low-quality media to high-quality media based on image characteristics according to an embodiment of the present disclosure.
도 4를 참조하면, 저화질 미디어의 고화질 변환 장치는 디바이스(1600)를 포함한다. 디바이스(1600)는 메모리(1602), 프로세서(1603), 송수신부(1604) 및 주변 장치(1601)를 포함할 수 있다. 또한, 일 예로, 디바이스(1600)는 다른 구성을 더 포함할 수 있으며, 상술한 실시 예로 한정되지 않는다. 이때, 일 예로, 디바이스(1600)는 상술한 저화질 미디어의 고화질 변환 방법에 기초하여 동작하는 장치일 수 있다. Referring to FIG. 4, a device for converting low-quality media into high-quality media includes a device (1600). The device (1600) may include a memory (1602), a processor (1603), a transceiver (1604), and a peripheral device (1601). In addition, as an example, the device (1600) may further include other configurations and is not limited to the above-described embodiment. At this time, as an example, the device (1600) may be a device that operates based on the above-described low-quality media into high-quality media conversion method.
보다 상세하게는, 도 4의 디바이스(1600)는 저화질 미디어의 고화질 변환 장치, 화질 향상 장치 등과 같은 예시적인 하드웨어/소프트웨어 아키텍처일 수 있다. 이때, 일 예로, 메모리(1602)는 비이동식 메모리 또는 이동식 메모리일 수 있다. 또한, 일 예로, 주변 장치(1601)는 디스플레이, GPS 또는 다른 주변기기들을 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. More specifically, the device (1600) of FIG. 4 may be an exemplary hardware/software architecture such as a low-quality media to high-quality media conversion device, a picture quality enhancement device, etc. In this case, as an example, the memory (1602) may be a non-removable memory or a removable memory. In addition, as an example, the peripheral device (1601) may include a display, GPS, or other peripheral devices, and is not limited to the above-described embodiment.
또한, 일 예로, 상술한 디바이스(1600)는 상기 송수신부(1604)와 같이 통신 회로를 포함할 수 있으며, 이에 기초하여 외부 디바이스와 통신을 수행할 수 있다.In addition, as an example, the above-described device (1600) may include a communication circuit such as the transceiver (1604), and may perform communication with an external device based thereon.
또한, 일 예로, 프로세서(1603)는 범용 프로세서, DSP(digital signal processor), DSP 코어, 제어기, 마이크로제어기, ASIC들(Application Specific Integrated Circuits), FPGA(Field Programmable Gate Array) 회로들, 임의의 다른 유형의 IC(integrated circuit) 및 상태 머신과 관련되는 하나 이상의 마이크로프로세서 중 적어도 하나 이상일 수 있다. 즉, 상술한 디바이스(1600)를 제어하기 위한 제어 역할을 수행하는 하드웨어적/소프트웨어적 구성일 수 있다. Also, as an example, the processor (1603) may be at least one of a general-purpose processor, a digital signal processor (DSP), a DSP core, a controller, a microcontroller, ASICs (Application Specific Integrated Circuits), FPGA (Field Programmable Gate Array) circuits, any other type of integrated circuit (IC), and one or more microprocessors associated with a state machine. That is, it may be a hardware/software configuration that performs a control role for controlling the above-described device (1600).
이때, 프로세서(1603)는 노드의 다양한 필수 기능들을 수행하기 위해 메모리(1602)에 저장된 컴퓨터 실행가능한 명령어들을 실행할 수 있다. 일 예로, 프로세서(1603)는 신호 코딩, 데이터 처리, 전력 제어, 입출력 처리 및 통신 동작 중 적어도 어느 하나를 제어할 수 있다. 또한, 프로세서(1603)는 물리 계층, MAC 계층, 어플리케이션 계층들을 제어할 수 있다. 또한, 일 예로, 프로세서(1603)는 액세스 계층 및/또는 어플리케이션 계층 등에서 인증 및 보안 절차를 수행할 수 있으며, 상술한 실시예로 한정되지 않는다.At this time, the processor (1603) may execute computer executable instructions stored in the memory (1602) to perform various essential functions of the node. For example, the processor (1603) may control at least one of signal coding, data processing, power control, input/output processing, and communication operations. In addition, the processor (1603) may control physical layers, MAC layers, and application layers. In addition, for example, the processor (1603) may perform authentication and security procedures in the access layer and/or the application layer, and is not limited to the above-described embodiment.
일 예로, 프로세서(1603)는 송수신부(1604)를 통해 다른 장치들과 통신을 수행할 수 있다. 일 예로, 프로세서(1603)는 컴퓨터 실행가능한 명령어들의 실행을 통해 노드가 네트워크를 통해 다른 노드들과 통신을 수행하게 제어할 수 있다. 즉, 본 발명에서 수행되는 통신이 제어될 수 있다. 일 예로, 다른 노드들은 NDN 서버, 콘텐츠 라우터 및 그 밖의 다른 디바이스들일 수 있다. 일 예로, 송수신부(1604)는 안테나를 통해 RF 신호를 전송할 수 있으며, 다양한 통신망에 기초하여 신호를 전송할 수 있다. For example, the processor (1603) can communicate with other devices through the transceiver (1604). For example, the processor (1603) can control the node to communicate with other nodes through the network through the execution of computer-executable instructions. That is, the communication performed in the present invention can be controlled. For example, the other nodes can be NDN servers, content routers, and other devices. For example, the transceiver (1604) can transmit RF signals through the antenna and transmit signals based on various communication networks.
또한, 일 예로, 안테나 기술로서 MIMO 기술, 빔포밍 등이 적용될 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 송수신부(1604)를 통해 송수신한 신호는 변조 및 복조되어 프로세서(1603)에 의해 제어될 수 있으며, 상술한 실시 예로 한정되지 않는다.In addition, as an example, MIMO technology, beamforming, etc. can be applied as antenna technology, and are not limited to the above-described embodiment. In addition, a signal transmitted and received through the transceiver (1604) can be modulated and demodulated and controlled by the processor (1603), and are not limited to the above-described embodiment.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. The various embodiments of the present disclosure are not intended to list all possible combinations but rather to illustrate representative aspects of the present disclosure, and the matters described in the various embodiments may be applied independently or in combinations of two or more.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. 예를 들어, 종단 혹은 에지에서 사용될 수 있는 비 일시적 컴퓨터 판독가능한 매체에 저장된 프로그램의 형식이나, 에지 혹은 클라우드에서 사용될 수 있는 비 일시적 컴퓨터 판독 가능한 매체에 저장된 프로그램의 형식으로도 구현될 수 있음은 자명하다. 또한, 다양한 하드웨어 및 소프트웨어의 결합으로도 구현될 수 있다. In addition, various embodiments of the present disclosure can be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, it can be implemented by one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general processors, controllers, microcontrollers, microprocessors, etc. For example, it is obvious that it can be implemented in the form of a program stored on a non-transitory computer-readable medium that can be used at the end or edge, or in the form of a program stored on a non-transitory computer-readable medium that can be used at the edge or in the cloud. In addition, it can be implemented by a combination of various hardware and software.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행 가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure includes software or machine-executable instructions (e.g., an operating system, an application, firmware, a program, etc.) that cause operations according to the methods of various embodiments to be executed on a device or a computer, and a non-transitory computer-readable medium having such software or instructions stored thereon and being executable on the device or the computer.
이상에서 설명한 본 개시는, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 개시의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로, 본 개시의 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present disclosure described above is capable of various substitutions, modifications, and changes within a scope that does not depart from the technical spirit of the present disclosure for those with ordinary skill in the art to which the present disclosure pertains, and therefore the scope of the present disclosure is not limited by the above-described embodiments and the attached drawings.
Claims (2)
영상 특성 분석부에서, 저화질의 영상 콘텐츠를 외부 장치로부터 수신하는 단계;
상기 영상 특성 분석부에서, 수신된 상기 영상 콘텐츠를 장르 카테고리에 따라 분류하는 단계;
상기 영상 특성 분석부에서, 분류된 상기 영상 콘텐츠를 시간 복잡도 및 공간 복잡도를 기초로 분류하는 단계; 및
고품질화부에서, 분류된 상기 영상 콘텐츠를 해상도, 프레임 수, 선명도 및 색 영역 중 적어도 하나를 기초로 프로세싱하여 고화질의 영상 콘텐츠를 출력하는 단계를 포함하고,
상기 공간 복잡도는 휘도 성분을 이용하여 영상 전체 영역에 대한 평균 분산값을 나타내고, 상기 평균 분산값은 사전에 정의한 단계 구분값에 따라 상, 중, 하로 구분되고,
상기 시간 복잡도는 상기 휘도 성분을 이용하여 현재 프레임과 다음 프레임 사이의 평균 절대값 차이값을 나타내고, 상기 평균 절대값 차이값은 사전에 정의한 단계 구분값에 따라 상, 중, 하로 구분되고,
상기 고화질의 영상 콘텐츠를 출력하는 단계는,
상기 시간 복잡도 및 상기 공간 복잡도가 모두 “상”으로 분류되는 경우, 상기 영상 콘텐츠를 상기 해상도를 처리하는 유닛, 상기 프레임 수를 처리하는 유닛, 상기 선명도를 처리하는 유닛, 상기 색 영역을 처리하는 유닛 순서로 프로세싱하는 단계를 포함하고,
상기 고화질의 영상 콘텐츠를 출력하는 단계는,
상기 시간 복잡도 및 상기 공간 복잡도가 모두 “하”로 분류되는 경우, 상기 영상 콘텐츠를 상기 선명도를 처리하는 유닛, 상기 색 영역을 처리하는 유닛, 상기 프레임 수를 처리하는 유닛, 상기 해상도를 처리하는 유닛 순서로 프로세싱하는 단계를 더 포함하는,
저화질 미디어의 고화질 변환 방법.
In a method for converting low-quality media to high-quality media based on image characteristics,
In the image characteristic analysis section, a step of receiving low-quality image content from an external device;
In the above video characteristic analysis unit, a step of classifying the received video content according to genre category;
In the above image characteristic analysis section, a step of classifying the classified image content based on time complexity and space complexity; and
In the high-quality processing unit, a step of processing the classified image content based on at least one of resolution, frame rate, sharpness, and color range to output high-quality image content is included.
The above spatial complexity represents the average variance value for the entire image area using the luminance component, and the average variance value is divided into upper, middle, and lower according to the predefined step division value.
The above time complexity represents the average absolute difference between the current frame and the next frame using the luminance component, and the average absolute difference is divided into upper, middle, and lower according to a predefined step division value.
The step of outputting the above high-definition video content is:
If both the time complexity and the space complexity are classified as “high,” a step of processing the image content in the order of a unit processing the resolution, a unit processing the number of frames, a unit processing the sharpness, and a unit processing the color area is included.
The step of outputting the above high-definition video content is:
If both the time complexity and the space complexity are classified as “low,” the method further includes a step of processing the image content in the order of a unit for processing the sharpness, a unit for processing the color gamut, a unit for processing the number of frames, and a unit for processing the resolution.
How to convert low-quality media to high-quality media.
저화질의 영상 콘텐츠를 외부 장치로부터 수신하고, 수신된 상기 영상 콘텐츠를 장르 카테고리에 따라 분류하고, 및 분류된 상기 영상 콘텐츠를 시간 복잡도 및 공간 복잡도를 기초로 분류하는 영상 특성 분석부; 및
분류된 상기 영상 콘텐츠를 해상도, 프레임 수, 선명도 및 색 영역 중 적어도 하나를 기초로 프로세싱하여 고화질의 영상 콘텐츠를 출력하는 고품질화부를 포함하고,
상기 공간 복잡도는 휘도 성분을 이용하여 영상 전체 영역에 대한 평균 분산값을 나타내고, 상기 평균 분산값은 사전에 정의한 단계 구분값에 따라 상, 중, 하로 구분되고,
상기 시간 복잡도는 상기 휘도 성분을 이용하여 현재 프레임과 다음 프레임 사이의 평균 절대값 차이값을 나타내고, 상기 평균 절대값 차이값은 사전에 정의한 단계 구분값에 따라 상, 중, 하로 구분되고,
상기 고품질화부는, 상기 시간 복잡도 및 상기 공간 복잡도가 모두 “상”으로 분류되는 경우, 상기 영상 콘텐츠를 상기 해상도를 처리하는 유닛, 상기 프레임 수를 처리하는 유닛, 상기 선명도를 처리하는 유닛, 상기 색 영역을 처리하는 유닛 순서로 프로세싱하도록 구성되고,
상기 고품질화부는, 상기 시간 복잡도 및 상기 공간 복잡도가 모두 “하”로 분류되는 경우, 상기 영상 콘텐츠를 상기 선명도를 처리하는 유닛, 상기 색 영역을 처리하는 유닛, 상기 프레임 수를 처리하는 유닛, 상기 해상도를 처리하는 유닛 순서로 프로세싱하도록 더 구성되는,
저화질 미디어의 고화질 변환 장치.
In a device for converting low-quality media to high-quality media based on image characteristics,
An image characteristic analysis unit that receives low-quality image content from an external device, classifies the received image content according to genre categories, and classifies the classified image content based on time complexity and space complexity; and
Includes a high-quality processing unit that processes the classified video content based on at least one of resolution, frame rate, sharpness, and color range to output high-quality video content.
The above spatial complexity represents the average variance value for the entire image area using the luminance component, and the average variance value is divided into upper, middle, and lower according to the predefined step division value.
The above time complexity represents the average absolute difference between the current frame and the next frame using the luminance component, and the average absolute difference is divided into upper, middle, and lower according to a predefined step division value.
The above high-quality processing unit is configured to process the image content in the order of a unit processing the resolution, a unit processing the number of frames, a unit processing the sharpness, and a unit processing the color area, when both the time complexity and the space complexity are classified as “high”.
The above high-quality processing unit is further configured to process the image content in the order of a unit for processing the sharpness, a unit for processing the color gamut, a unit for processing the number of frames, and a unit for processing the resolution, when both the time complexity and the space complexity are classified as “low.”
A device that converts low-quality media into high-quality media.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210183530A KR102794217B1 (en) | 2021-12-21 | 2021-12-21 | High-quality conversion method and apparatus for low-resolution media based on video characteristics |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210183530A KR102794217B1 (en) | 2021-12-21 | 2021-12-21 | High-quality conversion method and apparatus for low-resolution media based on video characteristics |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230094385A KR20230094385A (en) | 2023-06-28 |
| KR102794217B1 true KR102794217B1 (en) | 2025-04-15 |
Family
ID=86994286
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210183530A Active KR102794217B1 (en) | 2021-12-21 | 2021-12-21 | High-quality conversion method and apparatus for low-resolution media based on video characteristics |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102794217B1 (en) |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100850705B1 (en) * | 2002-03-09 | 2008-08-06 | 삼성전자주식회사 | Method for adaptive encoding motion image based on the temperal and spatial complexity and apparatus thereof |
| KR102770525B1 (en) * | 2019-09-26 | 2025-02-19 | 엘지전자 주식회사 | Method and apparatus for enhancing video frame resolution |
-
2021
- 2021-12-21 KR KR1020210183530A patent/KR102794217B1/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| KR20230094385A (en) | 2023-06-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112106357B (en) | Method and device for encoding and decoding image data | |
| Winkler | Perceptual video quality metrics—A review | |
| KR102230776B1 (en) | Linear encoder for image/video processing | |
| US11445201B2 (en) | Video encoding and decoding method, device, and system, and storage medium | |
| US20220101123A1 (en) | Video quality assessment method and apparatus | |
| CN109688465B (en) | Video enhancement control method, device and electronic device | |
| WO2020107989A1 (en) | Video processing method and apparatus, and electronic device and storage medium | |
| US20130169834A1 (en) | Photo extraction from video | |
| US10397586B2 (en) | Chroma reshaping | |
| CN105745914A (en) | Method and system for inverse tone mapping | |
| TWI620149B (en) | Method, device, and system for pre-processing a video stream for subsequent motion detection processing | |
| WO2018231968A1 (en) | Efficient end-to-end single layer inverse display management coding | |
| CN110770787B (en) | Efficient end-to-end single-layer reverse display management coding | |
| CN110766637B (en) | Video processing method, processing device, electronic equipment and storage medium | |
| WO2020108060A1 (en) | Video processing method and apparatus, and electronic device and storage medium | |
| KR102794217B1 (en) | High-quality conversion method and apparatus for low-resolution media based on video characteristics | |
| JP2025131889A (en) | Bitstream processing method, device, terminal device and storage medium | |
| TWI586175B (en) | Method and system for managing bandwidth of video conference | |
| JP6797400B2 (en) | Color debanding process and its optimum parameter learning method | |
| KR20160025876A (en) | Method and apparatus for intensificating contrast in image | |
| KR101804702B1 (en) | Method and apparatus for determining resolution of transmitted video | |
| US12075023B2 (en) | Method and system for assessing audio and video quality of a multimedia content | |
| Babić et al. | Real-time audio and video artifacts detection tool | |
| CN114494051A (en) | Image processing method and device, electronic equipment and readable storage medium | |
| JP7627389B2 (en) | Noise removal for SDR-HDR local reconstruction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211221 |
|
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20221228 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20211221 Comment text: Patent Application |
|
| PG1501 | Laying open of application | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240701 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250113 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250407 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20250407 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |