TW202044199A - 影像處理裝置以及其影像處理方法 - Google Patents
影像處理裝置以及其影像處理方法 Download PDFInfo
- Publication number
- TW202044199A TW202044199A TW108138192A TW108138192A TW202044199A TW 202044199 A TW202044199 A TW 202044199A TW 108138192 A TW108138192 A TW 108138192A TW 108138192 A TW108138192 A TW 108138192A TW 202044199 A TW202044199 A TW 202044199A
- Authority
- TW
- Taiwan
- Prior art keywords
- texture
- pixel block
- network model
- category
- training network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本揭露提供一種影像處理裝置及方法。所述影像處理裝置包括:記憶體,被配置成儲存至少一個指令;以及處理器,電性連接至記憶體,其中處理器藉由執行所述至少一個指令而被配置成:將輸入影像應用至訓練網路模型;以及將與輸入影像中所包括的畫素區塊對應的紋理片應用至所述畫素區塊,以獲得輸出影像,其中訓練網路模型儲存與基於影像的特性進行分類的多個類別對應的多個紋理片,且被配置成基於輸入影像來訓練所述多個紋理片中的至少一個紋理片。
Description
本揭露是有關於一種影像處理裝置及其影像處理方法,且更具體而言,是有關於一種用於恢復輸入影像的紋理成分的影像處理裝置及其影像處理方法。
本揭露亦是有關於一種人工智慧(artificial intelligence,AI)系統及其應用,所述人工智慧系統使用機器學習演算法來模擬人腦的功能(例如,辨識及判斷)。
隨著電子技術的發展,已開發出並廣泛使用各種類型的電子裝置。具體而言,多年來,已開發出用於各種場所(例如,家庭、辦公室及公共場所)的顯示裝置。
另外,已廣泛推出並使用高解析度顯示面板(例如,4K超高畫質(Ultra High Definition,UHD)電視(television,TV)等)。然而,仍然缺乏高品質的高解析度內容。因此,已利用自低解析度內容產生高解析度內容的各種技術。然而,由於MPEG/H.264/HEVC等的影像壓縮,可能會發生內容的紋理丟失,且因此需要一種用於恢復丟失的紋理成分的技術。
近年來,實施人類級別的人工智慧(AI)的人工智慧系統已用於各個領域中。與先前技術中基於規則的智慧型系統不同,人工智慧系統是其中機器進行學習、判斷以及變得智慧的系統。人工智慧系統被使用得越多,辨識率越高且對使用者的偏好的理解也越佳。因此,先前技術中基於規則的智慧型系統已逐漸被基於深度學習的人工智慧系統所取代。
人工智慧技術包括機器學習(例如,深度學習)及使用機器學習的元素技術(element technology)。
機器學習是一種對輸入資料的特性進行自主分類/訓練的演算法技術。元素技術是一種使用機器學習演算法(例如,深度學習)模擬人腦的功能(例如,辨識及判斷)的技術,且包括語言理解、視覺理解、推理/預測、知識表示(knowledge representation)、運動控制等。
人工智慧技術可應用於各個領域,其實例闡述如下。語言理解是一種用於對人類語言/字符進行辨識及應用/處理的技術,包括自然語言處理、機器翻譯、對話系統、查詢回應、語音辨識/合成等。視覺理解是一種如同人類感知到一樣對對象進行辨識及處理的技術,包括對象辨識、對象跟蹤、影像搜索、人類辨識、場景理解、空間理解、影像增強等。推斷預測是一種用於對資訊進行判斷以及邏輯推斷及預測的技術,包括基於知識/概率的推理、最佳化預測、基於偏好的規劃以及推薦。知識表示是一種用於將人類經驗資訊自動化為知識資料的技術,包括知識構建(資料產生/分類)及知識管理(資料利用)。運動控制是一種用於控制設備(device)或對象的自主運動(例如,車輛的行駛及機器人的運動)的技術,包括運動控制(導航、碰撞及行駛)、操作控制(行為控制)等。
先前技術中的影像處理裝置由於應用固定紋理片來恢復丟失的紋理成分,或者應用不太適合於影像的紋理片而存在問題。因此,需要一種用於產生合適於影像的紋理的技術。
本揭露提供一種影像處理裝置及其影像處理方法,所述影像處理裝置用於藉由使用基於輸入影像的特性而被訓練的紋理片來增強輸入影像的細節。
附加態樣將在以下說明中予以部分闡述,且所述附加態樣將部分地藉由所述說明而顯而易見,或者可藉由對所提出的實施例進行實踐而得知。
根據本揭露的態樣,提供一種影像處理裝置,所述影像處理裝置包括:記憶體,被配置成儲存至少一個指令;以及至少一個處理器,電性連接至所述記憶體,其中所述至少一個處理器藉由執行所述至少一個指令而被配置成:將輸入影像應用至訓練網路模型,以及將與所述輸入影像中所包括的畫素區塊對應的紋理片應用至所述畫素區塊,以獲得輸出影像,其中所述訓練網路模型儲存與基於影像的特性進行分類的多個類別對應的多個紋理片,且被配置成基於所述輸入影像來訓練所述多個紋理片中的至少一個紋理片。
所述訓練網路模型可被配置成基於所述畫素區塊的特性來辨識所述多個類別中的類別,獲得與所辨識的所述類別對應的紋理片,將所述畫素區塊與所辨識的所述類別之間的第一相似度和所述紋理片與所辨識的所述類別之間的第二相似度進行比較,並基於所述比較來判斷是否更新所述紋理片。
所述訓練網路模型可被配置成基於所述比較而以所述畫素區塊來替換與所辨識的所述類別對應的所述紋理片,或者添加所述畫素區塊作為與所辨識的所述類別對應的另一紋理片。
基於根據所述比較得出所述第一相似度小於所述第二相似度,所述訓練網路模型可被配置成保持與所辨識的所述類別對應的所述紋理片;以及基於根據所述比較得出所述第一相似度大於所述第二相似度,所述訓練網路模型可被配置成基於所述畫素區塊更新所述紋理片。
基於與所辨識的所述類別對應的所述紋理片包括多於一個紋理片,所述訓練網路模型可被配置成基於所述畫素區塊與所述多於一個紋理片中的每一紋理片之間的關聯來辨識所述多於一個紋理片中的一者。
所述訓練網路模型可被配置成基於所述至少一個紋理片的儲存時間及所述至少一個紋理片的應用頻率中的至少一者來訓練所述至少一個紋理片。
基於根據所述畫素區塊的特性而確定出所述畫素區塊不對應於所述多個類別中的一者,所述訓練網路模型可被配置成基於所述畫素區塊的所述特性而產生新類別,並將所述畫素區塊映射及儲存至所述新類別。
所述訓練網路模型可被配置成辨識與所述輸入影像中所包括的多個畫素區塊中的每一者對應的類別,並基於所述多個類別中的每一者的辨識頻率來改變與所述多個類別中的至少一者對應的所述記憶體的儲存空間的大小。
所述訓練網路模型可被配置成基於所述辨識頻率而自所述記憶體移除與被辨識少於預定次數的類別對應的紋理片,並將作為所述移除的結果而獲得的儲存空間指配給其他類別。
所述多個類別可基於平均畫素值、畫素座標、方差、邊緣強度、邊緣方向、或顏色中的至少一者進行分類。
所述至少一個處理器可更被配置成:基於所述紋理片與所述畫素區塊之間的關聯來獲得所述紋理片的加權值,以及藉由將被應用所述加權值的所述紋理片應用至所述畫素區塊來獲得所述輸出影像。
所述輸出影像可為4K超高畫質(UHD)影像或8K超高畫質影像。
根據本揭露的態樣,提供一種影像處理裝置的影像處理方法,所述方法包括:將輸入影像應用至訓練網路模型;以及將與所述輸入影像中所包括的畫素區塊對應的紋理片應用至所述畫素區塊,以獲得輸出影像,其中所述訓練網路模型儲存與基於影像的特性進行分類的多個類別對應的多個紋理片,且基於所述輸入影像來訓練所述多個紋理片中的至少一個紋理片。
所述訓練網路模型可基於所述畫素區塊的特性來辨識所述多個類別中的類別,獲得與所辨識的所述類別對應的紋理片,將所述畫素區塊與所辨識的所述類別之間的第一相似度和所述紋理片與所辨識的所述類別之間的第二相似度進行比較,並基於所述比較來判斷是否更新所述紋理片。
所述訓練網路模型可基於所述比較而以所述畫素區塊來替換與所辨識的所述類別對應的所述紋理片,或者添加所述畫素區塊作為與所辨識的所述類別對應的另一紋理片。
基於根據所述比較得出所述第一相似度小於所述第二相似度,所述訓練網路模型可保持與所辨識的所述類別對應的所述紋理片;以及基於根據所述比較得出所述第一相似度大於所述第二相似度,所述訓練網路模型可基於所述畫素區塊更新所述紋理片。
基於與所辨識的所述類別對應的所述紋理片包括多於一個紋理片,所述訓練網路模型可基於所述畫素區塊與所述多於一個紋理片中的每一紋理片之間的關聯來辨識所述多於一個紋理片中的一者。
所述訓練網路模型可基於所述至少一個紋理片的儲存時間及所述至少一個紋理片的應用頻率中的至少一者來訓練所述至少一個紋理片。
基於根據所述畫素區塊的特性而所述畫素區塊不對應於所述多個類別中的一者,所述訓練網路模型可基於所述畫素區塊的所述特性而產生新類別,並可將所述畫素區塊映射及儲存至所述新類別。
所述多個類別可基於平均畫素值、畫素座標、方差、邊緣強度、邊緣方向、或顏色中的至少一者進行分類。
根據本揭露的態樣,提供一種非暫態電腦可讀取記錄媒體,所述非暫態電腦可讀取記錄媒體上面記錄有可由電腦執行的用於實行所述方法的程式。
根據本揭露的態樣,提供一種影像處理裝置的影像處理方法,所述方法包括:基於輸入影像來訓練訓練網路模型,所述訓練網路模型儲存與基於影像特性進行分類的多個類別對應的多個紋理片;以及藉由將儲存於所述訓練網路模型中的多個紋理片中與所述輸入影像中所包括的畫素區塊對應的紋理片應用至所述畫素區塊來獲得輸出影像。
訓練所述訓練網路模型可包括:基於所述畫素區塊的特性來辨識所述多個類別中的類別;獲得與所辨識的所述類別對應的紋理片;將所述畫素區塊與所辨識的所述類別之間的第一相似度和所述紋理片與所辨識的所述類別之間的第二相似度進行比較;以及基於所述比較來判斷是否更新所述訓練網路模型中的所述紋理片。
所述訓練所述訓練網路模型可更包括基於確定更新所述紋理片而以所述畫素區塊來替換與所辨識的所述類別對應的所述紋理片,或者添加所述畫素區塊作為與所辨識的所述類別對應的另一紋理片。
所述判斷是否更新所述紋理片可包括:基於根據所述比較得出所述第一相似度小於所述第二相似度,在所述訓練網路模型中保持與所辨識的所述類別對應的所述紋理片;以及基於根據所述比較得出所述第一相似度大於所述第二相似度,基於所述畫素區塊更新所述紋理片。
所述獲得與所辨識的所述類別對應的紋理片可包括基於與所辨識的所述類別對應的所述紋理片包括多於一個紋理片,基於所述畫素區塊與所述多於一個紋理片中的每一紋理片之間的關聯來確定所述多於一個紋理片中的一者。
所述訓練所述訓練網路模型可包括基於所述多個紋理片中的至少一個紋理片的儲存時間及所述至少一個紋理片的應用頻率中的至少一者來訓練所述訓練網路模型。
所述訓練所述訓練網路模型可包括基於根據所述畫素區塊的特性而所述畫素區塊不對應於所述多個類別中的一者,在所述訓練網路模型中基於所述畫素區塊的所述特性而產生新類別,並將所述畫素區塊映射及儲存至所述新類別。
所述多個類別可基於平均畫素值、畫素座標、方差、邊緣強度、邊緣方向、或顏色中的至少一者進行分類。
根據本揭露的態樣,提供一種非暫態電腦可讀取記錄媒體,所述非暫態電腦可讀取記錄媒體上面記錄有可由電腦執行的用於實行所述方法的程式。
包括技術用語及科學用語在內的本說明書中所使用的所有用語皆具有與熟習先前技術者通常所理解的相同的含義。然而,該些用語可根據熟習此項技術者的意圖、法律或技術闡釋以及新技術的出現而有所變化。另外,一些用語是申請人任意地選擇的。該些用語可被解釋為本文中所定義的含義,且除非另有規定,否則可基於本說明書的全部內容及此項技術中的技術共識來加以解釋。
在本說明書中,例如「包括」及「具有(have/has)」等用語應被解釋為指明存在該些特徵(例如,數目、操作、元件或組件),且不排除存在或可能添加其他特徵中的一者或多者。
在本揭露中,「A或B」、「A及B中的至少一者」、「A或B中的至少一者」、「A及/或B中的一者或多者」等表達包括所列項的所有可能的組合。
可使用例如「第一」及「第二」等用語來修飾各種元件,而不論次序及/或重要性如何。該些用語僅用於將一個組件與其他組件區分開的目的。
當稱一元件(例如,第一構成元件)為「可操作地或通訊地耦合至」或者「連接至」另一元件(例如,第二構成元件)時,應理解,每一構成元件經由另一構成元件(例如,第三構成元件)直接地連接或間接地連接。
單數表達亦包含複數含義,只要所述複數含義在對應的上下文中未傳達不同的含義即可。在本說明書中,例如「包括」及「具有(have/has)」等用語應被解釋為指明說明書中存在該些特徵、數目、操作、元件、組件或其組合,且不排除存在或可能添加其他特徵、數目、操作、元件、組件或其組合中的一者或多者。
在一個或多個實施例中,「模組」、「單元」或「部分」實行至少一個功能或操作,且可被實現為例如處理器或積體電路等硬體、由處理器執行的軟體或者所述硬體與軟體的組合。另外,多個「模組」、多個「單元」或多個「部分」可被整合至至少一個模組或晶片中且可被實現為至少一個處理器,但應被實現為特定硬體的「模組」、「單元」或「部分」除外。
在本說明書中,用語「使用者」是指使用電子裝置的人或使用電子裝置的裝置(例如,人工智慧電子裝置)。
在下文中,將參照附圖詳細闡述一個或多個實施例。
圖1是闡釋根據實施例的影像處理裝置100的示例性實施例的視圖。
參照圖1,影像處理裝置100可被實施成電視,但並非僅限於此。影像處理裝置100可被實施成包括顯示功能的任何類型的裝置,例如智慧型電話、平板電腦、膝上型電腦、頭戴式顯示器(head mounted display,HMD)、近眼顯示器(near eye display,NED)、大型顯示器(large format display,LFD)、數位標牌(digital signage)、數位資訊顯示器(digital information display,DID)、視訊牆、投影機顯示器等。
影像處理裝置100可接收各種解析度的影像或各種壓縮影像。舉例而言,影像處理裝置100可接收標準畫質(Standard Definition,SD)影像、高畫質(High Definition,HD)影像、全HD影像、超HD影像(例如,4K·UHD、8K·UHD等)等等。影像處理裝置100可接收壓縮形式(例如,MPEG(例如,MP2、MP4、MP7等)、AVC、H.264、HEVC等)的影像。
根據實施例,即使影像處理裝置100被實施成UHD TV,亦可輸入SD影像、HD影像、全HD影像等(在下文中稱為低解析度影像),此是由於例如缺少UHD內容。在此種情形中,可使用將輸入低解析度影像10擴展成UHD影像或更高解析度的影像(在下文中稱為高解析度影像)的方法。然而,在先前技術中存在問題:在擴展影像的過程中,影像的紋理模糊且細節劣化。影像的紋理是指被視為影像的相同特徵的區的獨特圖案或形狀。
此外,即使輸入高解析度影像,亦可由於影像壓縮而發生紋理丟失,從而可能無法確保細節。隨著畫素的數目增加,數位影像可使用更多的資料,且在壓縮的情形中,因壓縮而引起的紋理丟失是不可避免的。
因此,以下將針對各種情形闡述用於恢復丟失的紋理成分及增強影像的細節的各種實施例。
圖2是闡釋根據實施例的影像處理裝置100的配置的方塊圖。
參照圖2,影像處理裝置100可包括記憶體110及處理器120。
記憶體110可電性連接至處理器120,且可儲存各種實施例中所使用的資料。舉例而言,記憶體110可被實施成內部記憶體,例如唯讀記憶體(read-only memory,ROM)(例如,電性可抹除可程式化唯讀記憶體(electrically erasable programmable read-only memory,EEPROM))、隨機存取記憶體(random access memory,RAM)、或與處理器120分離的記憶體。在此種情形中,端視資料儲存的目的而定,記憶體110可被實施成以下形式:嵌置在影像處理裝置100中的記憶體、或插入影像處理裝置100中的可移動記憶體。舉例而言,用於驅動影像處理裝置100的資料可儲存於嵌置在影像處理裝置100中的記憶體中,且用於影像處理裝置100的擴展功能的資料可儲存於可附接至影像處理裝置100或可自影像處理裝置100拆離的記憶體中。嵌置在影像處理裝置100中的記憶體可用以下記憶體中的至少一者來實施:揮發性記憶體(例如,動態RAM(dynamic RAM,DRAM)、靜態RAM(static RAM,SRAM)、同步動態RAM(synchronous dynamic RAM,SDRAM)等);非揮發性記憶體(例如,一次可程式化ROM(one time programmable ROM,OTPROM)、可程式化ROM(programmable ROM,PROM)、可抹除及可程式化ROM(erasable and programmable ROM,EPROM)、電性可抹除及可程式化ROM(EEPROM)、罩幕ROM、快閃ROM、快閃記憶體(例如,與反及閃存或者反或閃存)、硬驅動機(hard drive)或固態驅動機(solid state drive,SSD))。可自影像處理裝置100移除的記憶體可由以下裝置來實施:記憶卡(例如,緊湊式快閃卡、安全數位(secure digital,SD)卡、微型SD卡、小型SD卡、極限數位(extreme digital,xD)卡等)、可連接至通用串列匯流排(universal serial bus,USB)埠的外部記憶體(例如,USB記憶體)等。
記憶體110可儲存用於獲得與輸入影像10中所包括的畫素區塊對應的紋理片的訓練網路模型。訓練網路模型可為基於多個影像的機器學習模型。舉例而言,訓練網路模型可為基於基於多個樣本影像及輸入影像10的卷積神經網路(Convolution Neural Network,CNN)訓練的模型。CNN可為具有為語音處理、影像處理等而設計的特定連接結構的多層神經網路。具體而言,CNN可藉由對畫素進行預處理而以各種方式過濾影像,且辨識影像的特性。舉例而言,CNN可辨識輸入影像10中所包括的預定大小的畫素區塊的特性。訓練網路模型並非僅限於CNN。舉例而言,影像處理裝置100可使用基於各種神經網路(例如,遞歸神經網路(Recurrent Neural Network,RNN)、深度神經網路(Deep Neural Network,DNN)等)的訓練網路模型。
同時,「紋理片」是指應用至畫素區塊以改善畫素區塊的紋理的片。為了方便起見,用語「片」可為考慮到功能而應用的用語,但在實施例中可使用除了用語「片」之外的各種用語。舉例而言,每一片可具有其中多個片值以畫素單元矩陣的形式對齊的結構,且因此可被稱為罩幕。當紋理片被應用至畫素區塊時,畫素區塊的紋理可得到改善,且畫素區塊的細節可得到改善。與不論畫素區塊的特性如何便將紋理片固定至畫素區塊相反,影像處理裝置100可使用訓練網路模型來應用經更新的紋理片。
處理器120可電性連接至記憶體110且控制影像處理裝置100的總體操作。
根據實施例,處理器120可被實施成數位訊號處理器(digital signal processor,DSP)、微處理器或時間控制器(time controller,TCON),但並非僅限於此。處理器120可包括一個或多個中央處理單元(central processing unit,CPU)、微控制器單元(microcontroller unit,MCU)、微處理單元(micro processing unit,MPU)、控制器、應用處理器(application processor,AP)、通訊處理器(communication processor,CP)、高階RISC機器(Advanced RISC Machine,ARM)處理器等,或者可由對應的用語定義。處理器120可被實施成系統晶片(system on chip,SoC)、具有內建處理演算法的大型積體(large scale integration,LSI),或以現場可程式化閘陣列(Field Programmable Gate Array,FPGA)的形式來實施。
處理器120可藉由對輸入影像進行處理來獲得輸出影像。處理器120可藉由對輸入影像執行紋理增強處理(texture enhancement process)來獲得輸出影像。輸出影像可為超高畫質(UHD)影像,具體而言,可為4K UHD影像或8K UHD影像,但並非僅限於此。
根據實施例的處理器120可獲得用於紋理增強處理的紋理片。處理器120可藉由將輸入影像10應用至訓練網路模型來獲得與輸入影像10中所包括的畫素區塊對應的紋理片。畫素區塊是指包括至少一個畫素的一組相鄰畫素。
圖3是闡釋根據實施例的畫素區塊20的視圖。
參照圖3,處理器120可以畫素區塊20為單位來劃分構成輸入影像10的影像訊框的多個畫素且將所述多個畫素輸入至訓練網路模型。根據實施例,處理器120可依序地將構成影像訊框的多個畫素區塊20輸入至訓練網路模型。訓練網路模型可輸出分別與多個畫素區塊20-1、...及20-n對應的紋理片30-1、...、及30-n(參見圖5)。
處理器120可將輸入影像10劃分或辨識為5×5畫素區塊20,但畫素區塊的大小並非僅限於此。畫素區塊的大小可被實施成N×N(例如3×3、4×4等)、或M×N的各種大小。處理器120可根據輸入影像的解析度(例如,FHD)、輸出影像的解析度(UHD及8K)等中的至少一者而將輸入影像10劃分或辨識成各種大小的畫素區塊20。在下文中,為易於闡釋,其中畫素區塊20以矩陣格式排列在構成輸入影像10的影像訊框中的預定大小的畫素組將被稱為自輸入影像10獲得的畫素區塊20。
參照圖2,處理器120可藉由將輸入影像10應用至訓練網路模型來獲得與畫素區塊20對應的紋理片。現將參照圖4對其進行詳細說明。
圖4是闡釋根據實施例的紋理片30的視圖。
圖4是將構成輸入影像10的畫素中的每一者示出為畫素值的視圖。處理器120可藉由將輸入影像10應用至訓練網路模型來獲得與畫素區塊20對應的紋理片30。所述應用是指將輸入影像10輸入至訓練網路模型,且訓練網路模型的輸出可為紋理片30。
訓練網路模型可輸出與輸入影像10中所包括的畫素區塊20對應的紋理片30,且基於畫素區塊20實行訓練。
訓練網路模型可包括基於影像的各種特性中的任何一者進行分類的多個類別,且包括與所述類別中的每一者對應的紋理片30。舉例而言,訓練網路模型可基於影像的特性中的邊緣方向儲存所分類的所述多個類別,且包括與所述多個類別中的每一者對應的紋理片30。作為另一實例,訓練網路模型可以畫素區塊20為單位而來儲存基於影像的特性中的灰度平均值所分類的多個類別,且包括與所述類別中的每一者對應的紋理片30。
影像處理裝置100可包括多個訓練網路模型。影像處理裝置100可包括多個訓練網路模型,例如用於基於邊緣方向劃分類別且對紋理片30實行訓練的第一訓練網路模型、用於基於灰度平均值劃分類別且實行訓練的第二訓練網路模型、用於基於顏色座標劃分類別且實行訓練的第三訓練網路模型等。影像處理裝置100可基於輸入影像10的特性來辨識所述多個訓練網路模型中的任何一者,且將所辨識的訓練網路模型應用至輸入影像10以獲得紋理片30。舉例而言,影像處理裝置100可包括預處理訓練網路模型以基於輸入影像10的特性來辨識所述多個訓練網路模型中的任何一者,從而獲得適合的紋理片30。舉例而言,若構成輸入影像10的所述多個畫素的顏色分佈在相似的顏色範圍內,則預處理訓練網路模型可辨識用於基於邊緣方向劃分類別且基於影像的特性輸出紋理片30的第一訓練網路模型。
訓練網路模型可基於輸入影像10實行訓練。舉例而言,訓練網路模型可辨識輸入影像10中所包括的畫素區塊20對於與所述畫素區塊20對應的類別的第一相似度、以及所獲得的與所述類別相匹配的紋理片30對於所述類別的第二相似度。在此種情形中,例如,若第一相似度大於第二相似度,則訓練網路模型可確定所獲得的紋理片30不適合於輸入影像10的紋理改善,且基於輸入影像10的畫素區塊20實行更新。當輸出構成輸入影像10的各種畫素區塊中的與包括在和畫素區塊20相同的類別中的另一畫素區塊20’對應的紋理片30時,訓練網路模型可輸出基於畫素區塊20更新的紋理片30’,所述經更新的紋理片30’與更新之前的紋理片30相反。因此,自訓練網路模型輸出的紋理片30可適合於輸入影像10的紋理增強。此外,若第二相似度大於第一相似度,則訓練網路模型可確定所獲得的紋理片30適合於輸入影像10的紋理增強且保持紋理片30。
訓練網路模型的對多個類別中與畫素區塊20對應的類別進行分類(或辨識)的操作可被稱為分類器、類別辨識器等。若輸入輸入影像10中所包括的畫素區塊20,則分類器可辨識所述多個類別中的適合於畫素區塊20的類別。舉例而言,分類器可辨識畫素區塊20的邊緣方向,且辨識所辨識的邊緣方向與用於定義所述多個類別中的每一者的邊緣方向之間的相似度。分類器可將所述多個類別中的具有最大相似度的類別辨識為與畫素區塊20對應的類別。
訓練網路模型可藉由如下定義:用於對與畫素區塊20對應的類別進行辨識的模型(例如,分類器模型)與用於對畫素區塊20與和畫素區塊20對應的紋理片30的相似度進行比較且對紋理片30實行自主學習的模型的組合。訓練網路模型可為設備上機器學習模型(On-device Machine Learning Model),其中影像處理裝置100在不依賴於外部設備的條件下進行自主訓練。然而,此僅為實例,且應理解,一個或多個其他實施例並非僅限於此。舉例而言,根據另一實施例,訓練網路模型可被實施成使得分類器模型可在設備上(即在影像處理裝置100中)操作,且用於對紋理片實行訓練的模型可基於外部設備或伺服器進行操作。
因此,訓練網路模型可儲存與基於影像的特性進行分類及訓練的所述多個類別中的每一者對應的紋理片30。在輸出與輸入影像10對應的紋理片時,訓練網路模型可基於輸入影像10中所包括的畫素值來對與所述多個類別中的每一者對應的紋理片30進行訓練。
參照圖4,訓練網路模型可基於畫素區塊20的特性來辨識多個類別中的與畫素區塊20對應的單個類別。舉例而言,訓練網路模型可儲存基於影像的各種特性中的邊緣方向(或邊緣圖案)進行分類的多個類別。邊緣是指其中畫素值(或畫素亮度)自低值變為高值,或自高值變為低值的點。因此,邊緣是指根據影像中所包括的各種對象產生的對象之間的邊界。訓練網路模型可辨識所述多個類別中的與畫素區塊20的邊緣方向(或邊界的方向)對應的單個類別。訓練網路模型可辨識所述多個類別中的與畫素區塊20的邊緣方向最相似(或最適合)的訊號類別。訓練網路模型可輸出與所辨識的類別對應的紋理片30。參照圖2,處理器120可藉由將自訓練網路模型輸出的紋理片應用至輸入影像10來實行紋理增強處理。
圖5是闡釋根據實施例的訓練網路模型的視圖。
如上所述,訓練網路模型可儲存基於影像的特性進行分類的多個類別、以及與所述多個類別的每一者對應的至少一個紋理片30-1、30-2、…、30-8。參照圖5,訓練網路模型可包括基於影像的特性中的邊緣方向進行分類的第一類別至第n類別。訓練網路模型可包括與所述第一類別至所述第n類別中的每一者對應的紋理片30-1、30-2、…、30-8。影像的特性可包括畫素區塊20中所包括的畫素值的平均值、方差、畫素座標、邊緣強度、邊緣方向、顏色等中的至少一者。根據實施例的訓練網路模型可包括基於畫素值的平均值、方差、畫素座標、邊緣強度、邊緣方向、顏色等中的至少一者進行分類的多個類別。除了上述實例之外,訓練網路模型可基於自畫素區塊20辨識的各種特性產生多個類別且辨識所述多個類別中的哪一類別與畫素區塊20對應。舉例而言,訓練網路模型可基於顏色座標分類出類別,且基於畫素區塊20中所包括的畫素的顏色座標的平均值來辨識與畫素區塊20對應的類別。
參照圖5,處理器120可以畫素區塊20為單位對構成輸入影像10的影像訊框中所包括的多個畫素進行分類,且將所述多個畫素(即,畫素區塊20-1、...及20-n)輸入至訓練網路模型中。處理器120可將構成影像訊框的所述多個畫素區塊20-1、...及20-n依序地輸入至訓練網路模型中。訓練網路模型可輸出分別與所述多個畫素區塊20-1、...及20-n對應的紋理片30-1、...及30-n。
舉例而言,訓練網路模型可基於第一畫素區塊20-1的特性來辨識所述多個類別中的與第一畫素區塊20-1對應的類別。在此種情形中,訓練網路模型可基於構成第一畫素區塊20-1的畫素來辨識第一畫素區塊20-1的邊緣方向,且辨識所述多個類別中的哪一類別與所辨識的邊緣方向對應。訓練網路模型可辨識所述多個類別與第一畫素區塊20-1之間的相似度。舉例而言,若第一畫素區塊20-1的邊緣方向是0度,則與第二類別至第八類別(Class #2至Class #8)相比,訓練網路模型可在第一類別(Class #1)中獲得高的相似度(或適應度)。第一類別(Class #1)可指基於0度的邊緣方向定義的類別。訓練網路模型可因此將第一類別(Class #1)辨識為與第一畫素區塊20-1對應的類別。處理器120可藉由訓練網路模型獲得與第一類別(Class #1)對應的第一紋理片30-1。
作為另一實例,若第二畫素區塊20-2被辨識成與所述多個類別中的第二類別(Class #2)對應,則訓練網路模型可提供與第二類別(Class #2)對應的第二紋理片30-2。
為了易於闡釋,圖5示出訓練網路模型包括基於邊緣方向的第一類別至第八類別,且所述類別中的每一者包括單個紋理片,即第一紋理片至第八紋理片30-1、...及30-8。然而,應理解,此僅為實例,且一個或多個其他實施例並非僅限於此。
同時,若畫素區塊20被辨識成不與基於畫素區塊20的特性的所述多個類別中的任何一者對應,則訓練網路模型可基於畫素區塊20的特性產生新類別,且將畫素區塊20映射及儲存於新類別中。舉例而言,若畫素區塊20與所述多個類別之間的相似度小於臨限值,則訓練網路模型可基於畫素區塊20的特性產生除了所述多個類別之外的新類別。
參照圖5,根據實施例,若第一類別至第八類別與第四畫素區塊20-4之間的相似度是臨限值或更小(或小於臨限值)(即,不存在被辨識為與第四畫素區塊20-4對應的類別),則訓練網路模型可基於第四畫素區塊20-4的特性產生第九類別。舉例而言,若基於邊緣方向對所述多個類別進行分類,則訓練網路模型可辨識構成第四畫素區塊20-4的畫素的邊緣方向且基於所辨識的邊緣方向產生第九類別。訓練網路模型可將第四畫素區塊20-4映射至第九類別且儲存第四畫素區塊20-4。舉例而言,訓練網路模型可儲存第四畫素區塊20-4作為與新產生的第九類別對應的紋理片。
若辨識出與對應於畫素區塊20的類別相匹配的紋理片30,則訓練網路模型可基於畫素區塊20與類別之間的相似度以及紋理片30與類別之間的相似度來辨識紋理片30是否已被更新。訓練網路模型可藉由將用於定義類別的參考與畫素區塊20之間的相似度(或適應度)和用於定義類別的參考與和類別相匹配的紋理片30之間的相似度進行比較來辨識是否已實行更新。參照圖5,訓練網路模型可包括如上所述基於邊緣方向進行分類的多個類別。所述多個類別中的第一類別(Class #1)可為邊緣方向被定義成0度的類別,且第五類別(Class #5)可為邊緣方向被定義成90度的類別。若輸入第一畫素區塊20-1,則訓練網路模型可基於第一畫素區塊20-1的邊緣方向來辨識所述多個類別中的具有最大相似度的第一類別(Class #1)。可藉由將第一類別(Class #1)與第一畫素區塊20-1之間的相似度和第一類別(Class #1)與第一紋理片30-1之間的相似度進行比較來辨識第一紋理片30-1是否已被更新。
現將參照圖6對更新進行詳細說明。
圖6是闡釋根據實施例的類別及紋理片30的視圖。
參照圖6,訓練網路模型可基於畫素區塊20的特性來辨識所述多個類別中的與畫素區塊20對應的類別。舉例而言,若畫素區塊20包括65度的邊緣方向,則訓練網路模型可自所述第一類別至第八類別(Class #1至Class #8)中辨識由67.5度的邊緣方向定義的第四類別(Class #4)。訓練網路模型可獲得與所辨識的第四類別(Class #4)對應的紋理片30。
訓練網路模型可基於畫素區塊20與第四類別(Class #4)之間的相似度以及紋理片30與第四類別(Class #4)之間的相似度來辨識紋理片30是否已被更新。可使用各種類型的相似度量測演算法、適應度量測演算法及機器學習演算法來量測、確定或獲得相似度。舉例而言,可藉由基於灰度值中的至少一者對直方圖進行比較、計算歐幾裡德距離(Euclidean distance)等來辨識相似度的程度。作為另一實例,可附加地或作為另一種選擇基於卷積神經網路(CNN)訓練演算法來辨識相似度的程度。
舉例而言,當紋理片30的與根據訓練網路模型的另一(例如,先前的)輸入影像、樣本影像等的第四類別(Class #4)相匹配的邊緣方向為50度時,用於定義第四類別(Class #4)的邊緣方向可為67.5度。因此,訓練網路模型可辨識出邊緣方向為65度的畫素區塊20的第一相似度可大於邊緣方向為50度的紋理片30的第二相似度,且畫素區塊20適合於第四類別(Class #4)。訓練網路模型可基於畫素區塊20來替代或更新紋理片30。若輸入輸入影像10中所包括的另一畫素區塊,且所述另一畫素區塊與第四類別(Class #4)對應,則訓練網路模型可輸出基於邊緣方向為65度的畫素區塊20更新的紋理片。處理器120可基於經更新的紋理片產生所述另一畫素區塊的紋理。
作為另一實例,當類別和與所述類別相匹配的紋理片30之間的第二相似度大於與畫素區塊對應的類別和畫素區塊20之間的第一相似度時,訓練網路模型可辨識出紋理片30適合於輸入影像10及畫素區塊20的紋理產生,且保持紋理片30不變。
訓練網路模型可在獲得與輸入影像10中所包括的畫素區塊20對應的紋理片30的過程中更新紋理片30,且產生包括適合於輸入影像10的紋理增強的紋理片30的影像處理模型。
舉例而言,當訓練網路模型被應用至包括例如森林、草坪等對象的輸入影像10時,訓練網路模型可將構成輸入影像10的畫素區塊20與類別之間的相似度和預先儲存的紋理片30與類別之間的相似度進行比較,以保持預先儲存的紋理片30或者以畫素區塊20來替換(或更新)預先儲存的紋理片30。根據實施例,當訓練網路模型被應用至輸入影像10中所包括的另一畫素區塊時,訓練網路模型可辨識在前面的過程中基於畫素區塊20更新的紋理片。在此種情形中,經更新的紋理片可自輸入影像10獲得,且與同一輸入影像10中所包括的另一個畫素區塊具有高的關聯及高的適應度。因此,處理器120可藉由將經更新的紋理片應用至另一畫素區塊來獲得具有得到改善的紋理及細節的輸出影像。
根據實施例的訓練網路模型可基於與所述多個類別中的每一者對應的紋理片30的儲存時間或應用頻率中的至少一者來訓練紋理片30。
亦即,根據實施例,訓練網路模型可基於輸入影像10來訓練紋理片30,且亦考慮何時儲存預先儲存的紋理片30。舉例而言,若辨識或確定出與輸入影像10中所包括的畫素區塊20對應的紋理片30的儲存時間經過預定時間(例如,在預定時間段之前),則訓練網路模型可以畫素區塊20來替換紋理片30。當紋理片30的儲存時間長時,與輸入影像10的適應度或合適度以及與匹配關係中的類別的相似度可能低。因此,訓練網路模型可基於輸入影像10中所包括的畫素區塊20實行訓練且更新紋理片30。訓練網路模型可將輸入影像10中所包括的畫素區塊20映射至與畫素區塊20對應的類別的紋理片30,且使用新映射的紋理片30來產生輸入影像10的紋理。
作為另一實例,若畫素區塊20與類別之間的相似度和紋理片30與類別之間的第二相似度相同,則訓練網路模型可基於紋理片30的儲存時間、應用頻率等來更新紋理片30。舉例而言,當第一相似度與第二相似度相同時,畫素區塊20可能比預先儲存的紋理片30更適合於輸入影像10的紋理產生,且可基於畫素區塊20來更新紋理片30。作為另一種選擇,基於第一相似度與第二相似度相同,訓練網路模型可添加除了紋理片30之外的畫素區塊20。
然而,該些僅為實例,且當紋理片30的儲存時間經過預定時間時,一個或多個其他實施例可不更新紋理片30。
此外,根據實施例,訓練網路模型可基於紋理片30的應用頻率來訓練紋理片30。舉例而言,當特定紋理片30被辨識為頻繁用於產生除了當前輸入影像10之外的另一輸入影像(或其他輸入影像,例如,先前的輸入影像)的紋理時,特定紋理片30可與類別具有的高適應度或合適度,且有用地適用於紋理產生。然而,若辨識出特定紋理片30不太頻繁地用於紋理產生,則訓練網路模型可辨識或確定(或者可理解)紋理片30與映射關係中的類別具有較低的適應度或合適度。在此種情形中,訓練網路模型可以輸入影像10中所包括的畫素區塊20來替換紋理片30。
如上所述,在一個或多個實施例中,若基於畫素區塊20的特性將所述多個類別中的特定類別辨識成與畫素區塊20對應的類別,且若與所辨識的類別對應的紋理片30的儲存時間經過預定時間及/或紋理片30的應用頻率小於臨限值(例如,臨限值次數),則訓練網路模型可以畫素區塊20替換紋理片30。
圖7是闡釋根據實施例的用於訓練輸入影像10的模型的視圖。
參照圖7,訓練網路模型可不儲存與所述多個類別的部分對應的一個或多個紋理片30。舉例而言,訓練網路模型可不儲存分別與第一類別至第八類別對應的第一紋理片至第八紋理片30-1、...、及30-8中的所有者,但是可僅為映射關係所述多個類別中的一些類別儲存紋理片30-1、30-2、…30-8,而所述類別中的其餘類別可不具有儲存及映射至其的對應的紋理片。在此種情形中,訓練網路模型可基於輸入影像10來獲得及儲存紋理片30。舉例而言,當訓練網路模型辨識與輸入影像10中所包括的畫素區塊20對應的類別,且不包括與所辨識的類別對應的紋理片30時,訓練網路模型可將畫素區塊20映射及儲存至所辨識的類別。
同時,以上已闡述了所述類別包括映射到其的僅單個紋理片30,然而應理解,一個或多個其他實施例並非僅限於此。舉例而言,第一類別可包括儲存及映射到其的與第一類別對應的至少兩個紋理片30。根據實施例,訓練網路模型可辨識輸入影像10中所包括的畫素區塊20的類別,且將畫素區塊20添加至所辨識的類別作為紋理片30。在此種情形中,訓練網路模型可不刪除或替換預先儲存的紋理片30,而是可將預先儲存的紋理片30設定為第一紋理片,且將畫素區塊20設定為第二紋理片,且將第一紋理片及第二紋理片映射及儲存至對應的類別。
基於被辨識成與包括多個紋理片30的畫素區塊20對應的紋理片30,訓練網路模型可基於畫素區塊20與所述多個紋理片30中的每一者之間的關聯來辨識所述多個紋理片30中的一者。舉例而言,當與畫素區塊20對應的類別是第四類別,且與第四類別成映射關係的紋理片30包括第一紋理片至第三紋理片30時,訓練網路模型可辨識或確定畫素區塊20與第一紋理片至第三紋理片30中的每一者之間的關聯,且辨識出在所辨識的關聯中具有最大關聯值的紋理片30。具有最大關聯值的紋理片30是指對於畫素區塊20的紋理產生具有最高適應度或合適度的片。訓練網路模型可藉由將所辨識的紋理片30應用至畫素區塊20來產生紋理。
圖8是闡釋根據另一實施例的類別的視圖。
參照圖8,訓練網路模型可基於影像的一個或多個特性來將畫素區塊20辨識成第一類別至第十六類別中的一者。訓練網路模型可辨識與所分類的類別成映射關係的紋理片30。可將所辨識的紋理片30應用至畫素區塊20。
訓練網路模型可基於各種參考來區分類別。類別的數目可不為固定的或有限的,但是訓練網路模型可刪除多個類別中的特定類別,或者產生除了所述多個類別之外的附加類別。
為了易於闡釋,已闡述了基於邊緣方向分類出類別,然而應理解,一個或多個其他實施例並非僅限於此。舉例而言,訓練網路模型可基於顏色座標的分佈分類出第一類別至第n類別,且基於輸入影像10中所包括的畫素區塊20的顏色座標分佈來辨識第一類別至第n類別中的對應類別。對於另一實例,訓練網路模型可基於平均灰度值、灰度值的分佈等分類出第一類別至第n類別。
圖9是闡釋根據實施例的訓練結果的視圖。
參照圖9,訓練網路模型可提供與構成輸入影像10的所述多個畫素區塊20中的每一者對應的紋理片30,且處理器120可藉由將紋理片30應用至畫素區塊20來獲得具有得到改善的細節的輸出影像。
當訓練網路模型基於輸入影像10中所包括的畫素區塊20實行訓練時,在影像10的輸入之前與之後,訓練網路模型中所包括的所述多個類別及紋理片30可不同。舉例而言,輸入影像之前的訓練網路模型可包括基於先前輸入的另一影像或樣本影像訓練的紋理片30。訓練網路模型可辨識或確定輸入影像10中所包括的畫素區塊20與和畫素區塊20對應的類別之間的相似度,以及與類別映射的紋理片30與所述類別之間的相似度,且基於辨識結果更新紋理片30。舉例而言,訓練網路模型可以畫素區塊20來替換紋理片30,或者保持紋理片30。
參照圖9,與訓練網路模型中所包括的所述多個類別中的部分或一些類別對應的紋理片30可被輸入影像10中所包括的且與那些類別對應的畫素區塊20替換。同時,所述多個類別的中其餘類別可保持映射關係中的紋理片30。
圖5、圖6及圖7示出與由箭頭指示的畫素區塊20對應的類別,且圖9示出根據由箭頭指示的訓練網路模型的訓練結果,紋理片30被畫素區塊20替換。舉例而言,參照圖9,與類別2、類別4及類別6中的每一者對應的紋理片30可被輸入影像10中所包括的畫素區塊20替換。
根據實施例,處理器120可基於紋理片30與畫素區塊20之間的關係來獲得紋理片30的加權值。處理器120可藉由將被應用加權值的紋理片30應用至畫素區塊20來獲得輸出影像。
可將輸入影像10中所包括的畫素區塊20與自訓練網路模型獲得的紋理片30之間的關聯(或相關性)計算出一個值(例如,預定值)。關聯的程度可由被稱為關聯係數的值來表示。舉例而言,相關係數可由-1.0與+1.0之間的值來表示,且不論符號如何,數的絕對值越大,關聯越大。舉例而言,負值可指示負關聯,且正值可指示正關聯。
舉例而言,值C[n]可獲得為E [I * R [n]] = ii * ri,其中畫素值I = [i0, i1, ..., in-1]包括在畫素區塊20中,且值R[n] = [r0, r1, ..., rn-1]包括在紋理片R[n]中。
關聯值可基於以下方程式1獲得,其中目標畫素區塊中所包括的畫素值的平均值是m(I),且紋理片中所包括的值R[n]的平均值是m(R[n])。
[方程式1]
根據另一實施例,紋理片30的平均值可為0。當平均值為0時,儘管應用了紋理片30,但是可保持整個輸入影像10的亮度。根據實施例,當紋理片30的平均值為0時,方程式2基於方程式1表達如下。
[方程式2]
基於畫素區塊20與和畫素區塊20對應的紋理片30之間的關聯是臨限值或更大(或大於臨限值),訓練網路模型可保持與畫素區塊20的類別對應的紋理片30。此外,基於畫素區塊20與和畫素區塊20對應的紋理片30之間的關聯是臨限值或更小(或小於臨限值),訓練網路模型可基於畫素區塊20更新紋理片30。處理器120可獲得藉由將所獲得的關聯值乘以預定比例常數獲得的值作為與紋理片30對應的加權值。舉例而言,處理器120可基於關聯值獲得0與1之間的加權值。當根據關聯將加權值0應用至紋理片30時,紋理片30可不被添加至目標畫素區塊20。舉例而言,在平坦區域或銳邊區域中,所有類別與所有紋理片之間的關聯可能為低的,且因此可能不會出現紋理。在此種情形中,可防止邊緣區域中可能出現的振鈴現象(ringing phenomenon),且可防止將不必要的紋理添加至平坦區域。
根據另一實施例,可藉由除了上述關聯之外的各種成本函數來獲得畫素區塊20與紋理片30之間的相似度資訊。舉例而言,可將均方誤差(Mean Square Error,MSE)、絕對差之和(Sum of Absolute Difference,SAD)、中位數絕對偏差(Median Absolute Deviation,MAD)及關聯用作確定相似度的成本函數。舉例而言,當應用MSE時,可計算目標畫素區塊的均方誤差且可自MSE視點獲得目標畫素區塊20與紋理片30之間的相似度。在此種情形中,可基於MSE差來確定相似度權重。
處理器120可將所獲得的權重分別應用至紋理片30,且藉由將被應用權重的紋理片30應用至畫素區塊20來獲得輸出影像。應用可指使與被應用權重的紋理片對應的區域中所包括的值加目標畫素區塊20中所包括的每一畫素區塊值的方法。然而,應理解,一個或多個其他實施例並非僅限於此,且可實行除了添加之外的附加處理或其他處理。
根據另一實施例,當獲得紋理片30時,處理器120可對紋理片30應用頻率濾波,或者將被應用頻率濾波的紋理片30應用至目標畫素區塊。處理器120可在將紋理片30添加至輸入影像之前應用頻率濾波,且改變紋理片30的頻率範圍。舉例而言,處理器120可藉由使用高通濾波器產生高頻紋理,或者使用低通濾波器產生低頻紋理。方程式3表示藉由使經濾波的紋理(Filter (T))加輸入影像I來獲得輸出影像(O)的過程。
[方程式3]
舉例而言,處理器120可對紋理片30應用低通濾波器,例如高斯模糊(Gaussian blurring)(或高斯濾波)。高斯模糊可為使用基於高斯可能性分佈的高斯濾波器進行模糊的方法,且若將高斯濾波器應用至紋理片30,則可阻擋高頻分量(high-frequency component)且可實行模糊。處理器120可對紋理片30中所包括的所有畫素值實行高斯濾波,且獲得模糊紋理片30’。處理器120可藉由將模糊紋理片30’應用至畫素區塊20來獲得輸出影像。
同時,上述影像處理(即紋理增強處理)可在影像縮放之前或之後實行。舉例而言,可在縮放之後實行影像處理以將低解析度影像放大至高解析度影像,或者可在對輸入影像進行解碼的過程中在實行影像處理之後實行縮放。
根據另一實施例的訓練網路模型可獲得與類別對應且被應用不同加權值的多個紋理片。
舉例而言,訓練網路模型可辨識與畫素區塊20對應的類別,且獲得與所述類別對應的第一紋理片至第n紋理片。訓練網路模型可辨識畫素區塊20與第一紋理片至第n紋理片中的每一者之間的關聯。舉例而言,訓練網路模型可基於畫素區塊20與第一紋理片之間的關聯來獲得第一加權值,且基於畫素區塊20與第二紋理片之間的關聯來獲得第二加權值。訓練網路模型可將第一加權值乘以第一紋理片,且將第二加權值乘以第二紋理片,且將第一加權值所乘的第一紋理片及第二加權值所乘的第二紋理片應用至畫素區塊20,從而獲得輸出影像。
根據實施例,可根據關聯將加權值確定在預定範圍中(例如,在0與1之間)。舉例而言,當畫素區塊20與所獲得的紋理片30之間的關聯最小時,訓練網路模型可將加權值確定為0,當關聯最大時,可將加權值確定為1,且可確定使得關聯可在最小值與最大值之間線性增加的加權值。
圖10是闡釋根據另一實施例的類別的視圖。
參照圖10,訓練網路模型可在實行訓練的過程中為每一類別添加或移除紋理片30。
根據實施例,訓練網路模型可移除(例如,自記憶體實體地移除或邏輯地移除)特定類別中所包括的紋理,或者在特定類別中儲存多個紋理片以基於輸入影像10中所包括的多個畫素區塊來實行訓練。因此,訓練網路模型可為多個類別的每一者指配相同的儲存空間來儲存紋理片,或者為特定類別指配與其他類別的儲存空間相比更大的儲存空間。
根據實施例,訓練網路模型可辨識輸入影像10中所包括的所述多個畫素區塊中的每一者的類別,且基於所述多個類別中的每一者的辨識頻率來改變與所述多個類別中的至少一者對應的記憶體110的儲存空間的大小。舉例而言,訓練網路模型可將用於儲存紋理片的附加儲存空間指配給根據辨識頻率而被辨識多於預定頻率的類別以增加記憶體110的儲存空間的大小。預定頻率,作為實例,可為20%,指示特定類別被辨識為多於畫素區塊的總數目的20%。然而,應理解,此僅為實例,且一個或多個其他實施例並非僅限於此。舉例而言,預定頻率可根據一個或多個其他實施例而變化,例如10%、15%、30%、50%等。作為另一實例,訓練網路模型可基於辨識頻率而增加與最頻繁辨識的類別(或者預定數目的最頻繁辨識的類別,例如最頻繁辨識的類別、第二最頻繁辨識的類別及第三最頻繁辨識的類別)對應的儲存空間的大小。
舉例而言,基於輸入影像10中所包括的所述多個畫素區塊中的與第四類別對應的多個畫素區塊,訓練網路模型可增加記憶體10上的與第四類別對應的儲存空間的大小。
根據實施例,基於被辨識為與第四類別對應的畫素區塊,訓練網路模型可辨識畫素區塊與第四類別之間的第一相似度,以及預先儲存在第四類別中的紋理片與第四類別之間的第二相似度。在此種情形中,訓練網路模型可基於第一相似度小於第二相似度而保持預先儲存的紋理片,且可另外地將畫素區塊儲存於第四類別中。在此種情形中,預先儲存的紋理片可在畫素區塊之前(或優先於畫素區塊)。
作為另一實例,訓練網路模型可基於第一相似度大於第二相似度而另外地將畫素區塊儲存於第四類別中。預先儲存的紋理片的優先級可被改變至較低的位置,且畫素區塊可具有較預先儲存的紋理片高的優先級。
作為又一實例,訓練網路模型可改變記憶體110的儲存空間的大小,使得可基於所述多個類別中的每一者的辨識頻率而將預定數目的紋理片儲存於最頻繁辨識的類別中,且可將小於預定數目的另一預定數目的紋理片儲存於第二最頻繁類別中。舉例而言,訓練網路模型可改變儲存空間的大小,使得最多可將10個紋理片儲存於最頻繁辨識的第四類別中,且最多可將6個紋理片儲存於第二最頻繁辨識的第二類別中。特定數目僅為實例,且應理解,可儲存的紋理片的數目可變化。
應理解,訓練網路模型可不總是添加畫素區塊作為與所辨識的類別對應的紋理片,且若畫素區塊與所辨識的類別之間的相似度小於預定值,則可不添加畫素區塊。舉例而言,若畫素區塊與所辨識的類別之間的相似度小於50%,則訓練網路模型可不添加畫素區塊作為所辨識的類別的紋理片。
根據實施例,在辨識輸入影像10中所包括的所述多個畫素區塊中的每一者的類別時,訓練網路模型可自記憶體110移除與被辨識少於預定次數(或少於預定頻率)的類別對應的紋理片。訓練網路模型可將記憶體110的儲存空間重新指配給一個或多個其他類別。
舉例而言,作為辨識所述多個畫素區塊中的每一者的類別的結果,當與第三類別對應的畫素區塊的數目小於預定數目時,訓練網路模型可移除預先儲存於第三類別中的一個或多個紋理片,且將用於儲存紋理片的儲存空間指配於其他類別中。因此,訓練網路模型可增加另一類別的儲存空間的大小,進而使得所述多個紋理片可被儲存於最頻繁辨識的類別中。
作為另一實例,訓練網路模型可基於辨識頻率移除最不頻繁辨識的類別,且將預先指配給該類別的儲存空間重新指配給一個或多個其他類別。
圖11是闡釋根據實施例的影像處理裝置100’的詳細配置的方塊圖。
參照圖11,影像處理裝置100’可包括記憶體110、處理器120、輸入器130、顯示器140、輸出器150及使用者介面160。以下可省略對圖2的配置的冗餘說明。
根據實施例,記憶體110可被實施成用於儲存各種操作中所產生的資料的單個記憶體。
根據另一實施例,記憶體110可被實施成包括多個記憶體,例如第一記憶體至第三記憶體。
第一記憶體可儲存藉由輸入器130輸入的影像(例如,影像訊框)的至少部分。第一記憶體可儲存輸入影像訊框的至少局部區域。所述至少局部區域可為實行影像處理所必需或使用的區域。根據實施例,第一記憶體可被實施成N行記憶體。舉例而言,N行記憶體可為在垂直方向上具有17行容量的記憶體,但本揭露並非僅限於此。在此種情形中,當輸入1080畫素(解析度為1,920×1,080)的全HD影像時,可於第一記憶體中僅儲存全HD影像的17行中的影像區域。由於第一記憶體的記憶體容量可能因硬體限制而受到限制,因此可儲存輸入影像訊框的局部區域以用於影像處理。第二記憶體可為用於儲存至少一個所獲得的紋理片30的記憶體,且根據各種實施例實施成各種大小的記憶體。舉例而言,根據實施例,當記憶體被實施成獲得及儲存待應用至輸入影像10的與輸入影像10的各個畫素值對應的所有紋理成分時,第二記憶體可被實施成等於或大於輸入影像10的大小。根據另一實施例,在以與第一記憶體的大小對應的影像單位應用紋理成分的情形中,或者在以畫素行為基礎應用以畫素行為單位獲得的紋理成分的情形中,記憶體可被實施成適合於影像處理的大小。第二記憶體是指指配給記憶體110的整個區域的訓練網路模型的記憶體區域。
第三記憶體可為用於儲存輸出影像的記憶體,所述輸出影像是藉由應用所獲得的紋理成分而被處理且被實施成根據各種實施例的各種大小的記憶體的影像。舉例而言,當第三記憶體被實施成藉由應用與輸入影像10的畫素值對應的紋理成分來獲得及顯示輸出影像時,第三記憶體可被實施成等於或大於輸入影像10的大小的大小。根據另一實施例,當第三記憶體以與第一記憶體的大小對應的影像位單位或者以與片大小對應的行單位輸出影像時,第三記憶體可被實施成適合於儲存影像的大小。
然而,當輸出影像在第一記憶體或第二記憶體中被重寫時,或者當輸出影像在未被儲存的條件下被直接顯示或輸出(例如,傳輸或提供至外部顯示設備)時,可能不需要或使用第三記憶體。
輸入器130可接收各種類型的內容,例如影像訊號。舉例而言,輸入器140可藉由例如以下通信方法自外部伺服器(例如,源設備)、外部儲存媒體(例如,USB)、外部伺服器(例如,網路或雲端儲存)等以流式方法或下載方法接收影像訊號:基於存取點的Wi-Fi(AP-based Wi-Fi)(WiFi、無線局部區域網路)、藍芽、紫峰(Zigbee)、有線/無線局部區域網路(wired/wireless Local Area Network,LAN)、廣域網(Wide Area Network,WAN)、乙太網、IEEE-1394、高畫質多媒體介面(High Definition Multimedia Interface,HDMI)、行動高畫質鏈路(Mobile High-Definition Link,MHL)、通用串列匯流排(USB)、顯示埠(Display Port,DP)、霹靂、視訊圖形陣列(Video Graphic Array,VGA)埠、紅綠藍(RGB)埠、D-超小型(D-subminiature,D-SUB)、數位可視介面(Digital Visual Interface,DVI)等。影像訊號可為數位訊號,但本揭露並非僅限於此。
顯示器140可被實施成例如以下等各種形式:液晶顯示器(liquid crystal display,LCD)、有機發光二極體(organic light-emitting diode,OLED)、發光二極體(light-emitting diode,LED)、微型LED、矽上液晶(liquid crystal on silicon,LCoS)、數位光處理(Digital Light Processing,DLP)、量子點(quantum dot,QD)顯示面板等。
輸出器150可輸出聲音訊號。
舉例而言,輸出器150可將由處理器120處理的數位聲音訊號轉換成類比聲音訊號,且放大並輸出類比聲音訊號。在此種情形中,輸出器150可包括至少一個揚聲器單元、數位至類比(digital-to-analog,D/A)轉換器、音訊放大器等,輸出器150輸出至少一個通道。舉例而言,輸出器150可包括分別再現左通道及右通道的左通道揚聲器及/或右通道揚聲器。然而,本揭露並非僅限於此。輸出器150可被實施成各種形式。對於另一個實例,輸出器150可被實施成再現左通道、右通道及中間通道的聲條的形式。
使用者介面160可被實施成按鈕、觸控板、軌跡板(trackpad)、可旋轉撥號盤、滑鼠、鍵盤等中的至少一者,及/或被實施成觸控螢幕、能夠實行上述顯示功能及操作輸入功能的遙控接收單元等。按鈕可包括形成於影像處理裝置100’的主體外部的一個或多個區域(例如前部、側部、後部等)中的各種類型的輸入構件,例如機械按鈕、觸控板、撥號盤等。
此外,可另外應用用於在影像處理之前去除輸入影像的噪聲的濾波。舉例而言,可藉由應用根據預定的指導過濾輸入影像的平滑濾波器(例如高斯濾波器、引導濾波器等)來去除不同的噪聲。
圖12是闡釋根據實施例的用於訓練及使用訓練網路模型的影像處理裝置的處理器1200的配置的方塊圖。
參照圖12,處理器1200可包括訓練單元1210(例如,訓練器)及辨識單元1220(例如,辨識器)中的至少一者。圖11的處理器120可與影像處理裝置100的處理器1200或資料訓練伺服器對應。
訓練單元1210可產生或訓練具有用於辨識畫素區塊20的類別的參考的辨識模型,以及具有用於根據類別獲得與畫素區塊20對應的紋理片30的參考的辨識模型。訓練單元1210可使用收集的訓練資料產生具有確定參考的辨識模型。
舉例而言,訓練單元1210可藉由使用影像中所包括的畫素區塊20作為訓練資料來產生、訓練或重新開始(例如,更新)用於確定與畫素區塊20對應的類別的辨識模型。
作為另一實例,訓練單元1210可將畫素區塊20與類別之間的相似度和紋理片30與類別之間的相似度進行比較,且產生、訓練或重新開始辨識模型以用於判斷紋理片30是否已被更新。
辨識單元1220可使用預定資料或預定類型的資料(例如,輸入影像10)作為訓練辨識模式的輸入資料,且估測預定資料中所包括的辨識目標或情況。
舉例而言,辨識單元1220可使用輸入影像10的畫素區塊20作為訓練的辨識模型的輸入資料且辨識畫素區塊20的類別及紋理片30。
訓練單元1210的至少部分及辨識單元1220的至少部分可被實施成軟體模組及/或被製造成一個或多個硬體晶片形式以安裝於電子裝置(例如影像處理裝置100)上。舉例而言,可將訓練單元1210及辨識單元1220中的至少一者製造成硬體晶片形式以僅用於人工智慧(AI),或者製造成待安裝於各種類型的電子裝置上的現有的通用處理器(例如,CPU或應用處理器)或圖形處理器(例如,GPU)的一部分。用於(例如專用於)人工智慧(AI)的硬體晶片可為專用於概率計算的處理器,所述專用於概率計算的處理器具有較先前技術中的通用處理器高的並行處理效能,從而在例如機器訓練等人工智慧領域中快速實行算術運算。當訓練單元1210及辨識單元1220被實施成軟體模組(或者包含指令的程式模組)時,軟體模組可為或者可儲存於非暫態電腦可讀取媒體(transitory computer readable media)中。在此種情形中,可由作業系統(operating system,OS)、預定應用及/或一個或多個指令來提供軟體模組。作為另外一種選擇,軟體模組中的一些軟體模組可由作業系統(OS)來提供,且軟體模組中的一些軟體模組可由預定應用提供。
在此種情形中,可將訓練單元1210及辨識單元1220安裝於單個影像處理裝置100上,或者單獨安裝於每一或多個處理裝置(例如,多個影像處理裝置)上。舉例而言,訓練單元1210及辨識單元1220中的一者可被包括於影像處理裝置100中,且另一者可被包括於外部伺服器中。另外,可將由訓練單元1210建立的模型資訊以有線方式或無線方式提供至辨識單元1220,且可將輸入至訓練單元1210中的資料提供至訓練單元1210作為附加訓練資料。
圖13是闡釋根據實施例的影像處理方法的流程圖。
根據圖13的影像處理方法,在操作S1310處,可藉由將輸入影像應用至訓練網路模型來獲得與輸入影像中所包括的畫素區塊對應的紋理片。
在操作S1320處,可藉由將所獲得的紋理片應用至畫素區塊來獲得輸出影像。
訓練網路模型可儲存與基於所述影像的一個或多個特性進行分類的多個類別中的每一者對應的紋理片,且基於所述輸入影像來訓練與所述多個類別中的每一者對應的所述紋理片。
訓練網路模型可基於畫素區塊的特性來辨識所述多個類別中的一者,輸出與所辨識的所述類別對應的紋理片,且將所述畫素區塊與所辨識的所述類別之間的第一相似度和所述紋理片與所辨識的所述類別之間的第二相似度進行比較以辨識是否更新所述紋理片。
訓練網路模型可基於第一相似度及第二相似度而以所述畫素區塊來替換與所辨識的類別對應的紋理片,或者添加所述畫素區塊作為與所辨識的所述類別對應的紋理片。
若基於所述比較結果得出所述第一相似度小於所述第二相似度,則所述訓練網路模型可保持與所辨識的所述類別對應的所述紋理片。此外,若所述第一相似度大於所述第二相似度,則所述訓練網路模型可基於所述畫素區塊更新所述紋理片。
當(例如,基於)與所辨識的所述類別對應的所述紋理片包括多個紋理片時,所述訓練網路模型可基於所述畫素區塊與所述多個紋理片中的每一紋理片之間的關聯來辨識所述多個紋理片中的一者。
所述訓練網路模型可基於與所述類別中的每一者對應的紋理片的儲存時間及所述紋理片的應用頻率中的至少一者來訓練所述紋理片。
此外,當(例如,基於)基於所述畫素區塊的所述特性而確定出所述畫素區塊不對應於所述多個類別中的一者時,所述訓練網路模型可基於所述畫素區塊的所述特性而產生新類別,將所述畫素區塊映射至所述新類別。
所述多個類別可為基於畫素值的平均值、方差、畫素座標、邊緣強度、邊緣方向、或顏色中的至少一者進行分類。
操作S1320處的獲得輸出影像可包括基於所獲得的紋理片與畫素區塊之間的關聯來獲得紋理片的加權值,且藉由將被應用所述加權值的所述紋理片應用至所述畫素區塊來輸出所述輸出影像。
所述輸出影像可為4K超高畫質(UHD)影像或8K超高畫質影像,但應理解,一個或多個其他實施例並非僅限於此。事實上,應理解,本概念可被應用至任何解析度的影像(包括小於4K的影像及大於8K的影像)的放大或輸出。
可將各種實施例應用至所有類型的電子裝置,包括影像接收裝置(例如機上盒、及音訊/視訊接收器、媒體流設備等)、或任何類型的影像處理裝置。
可以能夠使用軟體、硬體或其組合的由電腦或類似設備讀取的記錄媒體來實施上述各種實施例。在一些情形中,可由處理器120、1200本身來實施本文中所闡述的實施例。根據軟體實施方案,可以單獨的軟體模組來實施例如本文中所述的程序及功能等的實施例。所述軟體模組中的每一者可實行本文中所述的功能及操作中的一者或多者。
可將用於實行根據上述各種實施例的設備的處理操作的電腦指令儲存於非暫態電腦可讀取媒體中。當由特定設備的處理器執行時,儲存於非暫態電腦可讀取媒體中的電腦指令使得特定設備對根據上述各種實施例的設備實行處理操作。
所述非暫態電腦可讀取媒體是指半永久地儲存資料而非在極短的時間內儲存資料的媒體(例如,暫存器、高速緩衝記憶體及記憶體),且可由裝置讀取。具體而言,上述各種應用或程式可儲存於例如以下非暫態電腦可讀取媒體中:光碟(compact disc,CD)、數位多功能磁碟(digital versatile disk,DVD)、硬碟、藍光碟、通用串列匯流排(USB)記憶條、記憶卡及唯讀記憶體(ROM),且可提供上述各種應用或程式。
儘管已示出且闡述了一些實施例,但熟習此項技術者應明白可在不背離本揭露的原理及精神的條件下對該些實施例做出改變。因此,本發明概念的範圍不應被解釋為受以上實施例限制,而是由至少隨附申請專利範圍及其等效內容界定。
10:輸入影像/輸入低解析度影像
20:畫素區塊
20-1:第一畫素區塊/畫素區塊
20-2:第二畫素區塊/畫素區塊
20-3:畫素區塊
30:紋理片
30-1:第一紋理片/紋理片
30-2:第二紋理片/紋理片
30-8:第八紋理片/紋理片
100、100’:影像處理裝置
110:記憶體
120、1200:處理器
130:輸入器
140:顯示器
150:輸出器
160:使用者介面
1210:訓練單元
1220:辨識單元
S1310、S1320:操作
Class #1:第一類別
Class #2:第二類別
Class #3:第三類別
Class #4:第四類別
Class #5:第五類別
Class #6:第六類別
Class #7:第七類別
Class #8:第八類別
結合附圖閱讀以下說明,本揭露的特定實施例的以上及其他態樣、特徵及優點將更顯而易見,在附圖中:
圖1是闡釋根據實施例的影像處理裝置的示例性實施例的視圖。
圖2是闡釋根據實施例的影像處理裝置的配置的方塊圖。
圖3是闡釋根據實施例的畫素區塊的視圖。
圖4是闡釋根據實施例的紋理片的視圖。
圖5是闡釋根據實施例的訓練網路模型的視圖。
圖6是闡釋根據實施例的類別及紋理片的視圖。
圖7是闡釋根據實施例的用於訓練輸入影像的模型的視圖。
圖8是闡釋根據另一實施例的類別的視圖。
圖9是闡釋根據實施例的訓練結果的視圖。
圖10是闡釋根據另一實施例的類別的視圖。
圖11是示出根據實施例的影像處理裝置的詳細配置的方塊圖。
圖12是闡釋根據實施例的用於訓練及使用訓練網路模型的處理器的配置的方塊圖。
圖13是闡釋根據實施例的影像處理方法的流程圖。
100:影像處理裝置
110:記憶體
120:處理器
Claims (15)
- 一種影像處理裝置,包括: 記憶體,被配置成儲存至少一個指令;以及 處理器,電性連接至所述記憶體, 其中所述處理器藉由執行所述至少一個指令而被配置成: 將輸入影像應用至訓練網路模型,以及 將與所述輸入影像中所包括的畫素區塊對應的紋理片應用至所述畫素區塊,以獲得輸出影像, 其中所述訓練網路模型儲存與基於影像的特性進行分類的多個類別對應的多個紋理片,且被配置成基於所述輸入影像來訓練所述多個紋理片中的至少一個紋理片。
- 如請求項1所述的裝置,其中所述訓練網路模型被配置成基於所述畫素區塊的特性來辨識所述多個類別中的類別,獲得與所辨識的所述類別對應的紋理片,將所述畫素區塊與所辨識的所述類別之間的第一相似度和所述紋理片與所辨識的所述類別之間的第二相似度進行比較,並基於所述比較來判斷是否更新所述紋理片。
- 如請求項2所述的裝置,其中所述訓練網路模型被配置成基於所述比較而以所述畫素區塊來替換與所辨識的所述類別對應的所述紋理片,或者添加所述畫素區塊作為與所辨識的所述類別對應的另一紋理片。
- 如請求項2所述的裝置,其中: 基於根據所述比較得出所述第一相似度小於所述第二相似度,所述訓練網路模型被配置成保持與所辨識的所述類別對應的所述紋理片;以及 基於根據所述比較得出所述第一相似度大於所述第二相似度,所述訓練網路模型被配置成基於所述畫素區塊更新所述紋理片。
- 如請求項2所述的裝置,其中,基於與所辨識的所述類別對應的所述紋理片包括多於一個紋理片,所述訓練網路模型被配置成基於所述畫素區塊與所述多於一個紋理片中的每一紋理片之間的關聯來辨識所述多於一個紋理片中的一者。
- 如請求項1所述的裝置,其中所述訓練網路模型被配置成基於所述至少一個紋理片的儲存時間及所述至少一個紋理片的應用頻率中的至少一者來訓練所述至少一個紋理片。
- 如請求項1所述的裝置,其中,基於根據所述畫素區塊的特性而確定出所述畫素區塊不對應於所述多個類別中的一者,所述訓練網路模型被配置成基於所述畫素區塊的所述特性而產生新類別,並將所述畫素區塊映射及儲存至所述新類別。
- 如請求項1所述的裝置,其中所述訓練網路模型被配置成辨識與所述輸入影像中所包括的多個畫素區塊中的每一者對應的類別,並基於所述多個類別中的每一者的辨識頻率來改變與所述多個類別中的至少一者對應的所述記憶體的儲存空間的大小。
- 如請求項8所述的裝置,其中所述訓練網路模型被配置成基於所述辨識頻率而自所述記憶體移除與被辨識少於預定次數的類別對應的紋理片,並將作為所述移除的結果而將所獲得的儲存空間指配給其他類別。
- 如請求項1所述的裝置,其中所述多個類別是基於平均畫素值、畫素座標、方差、邊緣強度、邊緣方向、或顏色中的至少一者進行分類。
- 如請求項1所述的裝置,其中所述處理器更被配置成: 基於所述紋理片與所述畫素區塊之間的關聯來獲得所述紋理片的加權值,以及 藉由將被應用所述加權值的所述紋理片應用至所述畫素區塊來獲得所述輸出影像。
- 如請求項1所述的裝置,其中所述輸出影像是4K超高畫質(UHD)影像或8K超高畫質影像。
- 一種影像處理裝置的影像處理方法,所述方法包括: 將輸入影像應用至訓練網路模型;以及 將與所述輸入影像中所包括的畫素區塊對應的紋理片應用至所述畫素區塊,以獲得輸出影像, 其中所述訓練網路模型儲存與基於影像的特性進行分類的多個類別對應的多個紋理片,且基於所述輸入影像來訓練所述多個紋理片中的至少一個紋理片。
- 如請求項11所述的方法,其中所述訓練網路模型基於所述畫素區塊的特性來辨識所述多個類別中的類別,獲得與所辨識的所述類別對應的紋理片,將所述畫素區塊與所辨識的所述類別之間的第一相似度和所述紋理片與所辨識的所述類別之間的第二相似度進行比較,並基於所述比較來判斷是否更新所述紋理片。
- 如請求項14所述的方法,其中所述訓練網路模型基於所述比較而以所述畫素區塊來替換與所辨識的所述類別對應的所述紋理片,或者添加所述畫素區塊作為與所辨識的所述類別對應的另一紋理片。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20190038439 | 2019-04-02 | ||
| KR10-2019-0038439 | 2019-04-02 | ||
| KR1020190080320A KR102246110B1 (ko) | 2019-04-02 | 2019-07-03 | 영상 처리 장치 및 그 영상 처리 방법 |
| KR10-2019-0080320 | 2019-07-03 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| TW202044199A true TW202044199A (zh) | 2020-12-01 |
Family
ID=72885041
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| TW108138192A TW202044199A (zh) | 2019-04-02 | 2019-10-23 | 影像處理裝置以及其影像處理方法 |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR102246110B1 (zh) |
| TW (1) | TW202044199A (zh) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102825504B1 (ko) * | 2020-11-17 | 2025-06-27 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
| KR20220124528A (ko) * | 2021-03-03 | 2022-09-14 | 삼성전자주식회사 | 전자 장치에서 이미지의 압축 품질에 기반한 이미지 보정 방법 및 장치 |
| KR102535687B1 (ko) * | 2022-08-18 | 2023-05-26 | 주식회사 페블러스 | 이미지에 대응되는 형상 이미지를 제공하기 위한 이미지 처리 방법 및 그러한 방법을 수행하는 전자 장치 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5113653B2 (ja) * | 2007-09-19 | 2013-01-09 | 株式会社リコー | データ処理装置、プログラムおよびデータ処理方法 |
| KR101653038B1 (ko) * | 2014-05-12 | 2016-09-12 | 주식회사 칩스앤미디어 | 이미지 패치를 이용한 해상도 스케일링 장치 및 그 방법 |
| KR101723738B1 (ko) * | 2015-08-21 | 2017-04-18 | 인하대학교 산학협력단 | 딕셔너리 학습 기반 해상도 향상 장치 및 방법 |
-
2019
- 2019-07-03 KR KR1020190080320A patent/KR102246110B1/ko not_active Expired - Fee Related
- 2019-10-23 TW TW108138192A patent/TW202044199A/zh unknown
Also Published As
| Publication number | Publication date |
|---|---|
| KR20200116836A (ko) | 2020-10-13 |
| KR102246110B1 (ko) | 2021-04-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11836890B2 (en) | Image processing apparatus and image processing method thereof | |
| US11893748B2 (en) | Apparatus and method for image region detection of object based on seed regions and region growing | |
| US11825033B2 (en) | Apparatus and method with artificial intelligence for scaling image data | |
| KR102410907B1 (ko) | 영상 처리 장치 및 그 영상 처리 방법 | |
| US11315222B2 (en) | Image processing apparatus and image processing method thereof | |
| US11409986B2 (en) | Trainable vision scaler | |
| KR20200079697A (ko) | 영상 처리 장치 및 그 영상 처리 방법 | |
| CN111814818B (zh) | 显示设备及其图像处理方法 | |
| CN111771226A (zh) | 电子设备、其图像处理方法及计算机可读记录介质 | |
| KR102210940B1 (ko) | 전자 장치 및 그 영상 처리 방법 | |
| TW202044199A (zh) | 影像處理裝置以及其影像處理方法 | |
| CN111989917B (zh) | 电子设备及其控制方法 | |
| KR20230120325A (ko) | 디스플레이 장치 및 그 제어 방법 | |
| CN116308996A (zh) | 图形显示方法、装置、设备、存储介质及程序产品 | |
| WO2021127963A1 (en) | Image content classification | |
| KR20210108027A (ko) | 전자 장치 및 그 제어 방법 | |
| US12211172B2 (en) | Display device and operating method of the same | |
| KR20250024473A (ko) | 전자 장치 및 그 제어 방법 | |
| KR20240114171A (ko) | 전자 장치 및 그 영상 처리 방법 |