[go: up one dir, main page]

BRPI1011906B1 - dispositivo de processamento de imagem, método de processamento de imagem e meio não-transitório legível por computador - Google Patents

dispositivo de processamento de imagem, método de processamento de imagem e meio não-transitório legível por computador Download PDF

Info

Publication number
BRPI1011906B1
BRPI1011906B1 BRPI1011906-0A BRPI1011906A BRPI1011906B1 BR PI1011906 B1 BRPI1011906 B1 BR PI1011906B1 BR PI1011906 A BRPI1011906 A BR PI1011906A BR PI1011906 B1 BRPI1011906 B1 BR PI1011906B1
Authority
BR
Brazil
Prior art keywords
prediction
intra
unit
image
processing
Prior art date
Application number
BRPI1011906-0A
Other languages
English (en)
Inventor
Kazushi Sato
Original Assignee
Velos Media International Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=43410941&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BRPI1011906(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Velos Media International Limited filed Critical Velos Media International Limited
Priority to BR122013014095-6A priority Critical patent/BR122013014095B1/pt
Publication of BRPI1011906A2 publication Critical patent/BRPI1011906A2/pt
Publication of BRPI1011906B1 publication Critical patent/BRPI1011906B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Picture Signal Circuits (AREA)

Abstract

dispositivo e método de processamento de imagem são divulgados um dispositivo de processamento de imagem e método para redução de ruído adaptado à imagem e taxa de bit. uma unidade de configuração de filtro passa baixa (93) configura um coeficiente de filtro correspondendo à informação de modo de intra-predição e um parâmetro de quantização selecionado a partir dos coeficientes de filtro armazenados em uma memória interna de coeficiente de filtro (94). uma unidade de configuração de pixel vizinho (81) usa o coeficiente de filtro configurado pela unidade de configuração de filtro passa baixo (93) para efetuar processamento de filtro de valores de pixel vizinho em um bloco alvo da memória de quadro (72). uma unidade de geração de imagem de predição (82) gera uma imagem de predição por intra-predição usando os valores de pixel vizinho (81). o método pode ser aplicado, por exemplo, a um dispositivo de codificação de imagem que codifica usando o padrão h.264 / avc.

Description

Campo técnico
[001] A presente invenção se refere a um dispositivo de processamento de imagem e método, e especificamente se refere a um dispositivo de processamento de imagem e método que permite eficiência de predição a ser melhorada.
Fundamentos da técnica
[002] Nos anos recentes, dispositivos têm entrado em amplo uso que submetem uma imagem para codificação de compressão empregando um formato de codificação para tratar informação de imagem como sinais digitais, e tomando vantagem de redundância peculiar para a informação de imagem com transmissão e armazenamento de informação de alta eficácia tomada como um objeto naquele momento para comprimir uma imagem através de transformada ortogonal tal como transformada de cosseno discreto ou o similar e desvio de movimento. Exemplos deste método de codificação incluem MPEG (Grupo de Peritos de Imagem em Movimento) e assim por diante.
[003] Em particular, MPEG2 (ISO / IEC 13818-2) é definido como um formato de codificação de imagem de propósito geral como um formato de codificação de imagem de propósito geral, e é um padrão englobando ambos de imagens de varredura entrelaçadas e imagens de varredura seqüencial, e imagens de resolução padrão e imagens de alta definição. Por exemplo, MPEG2 tem sido amplamente empregado agora pela ampla gama de aplicações para uso profissional e para uso do consumidor. Empregando o formato de compressão de MPEG2, uma quantidade de código (taxa de bit) de 4 à 8 Mbps é alocada no evento de uma imagem de varredura entrelaçada de resolução padrão tendo 720 x 480 pixels, por exemplo. Além disso, empregando o formato de compressão de MPEG2, uma quantidade de código (taxa de bit) de 18 à 22 Mbps é alocada no evento de uma imagem de varredura entrelaçada de alta resolução tendo 1920 x 1088 pixels, por exemplo. Assim sendo, uma taxa de compressão alta e qualidade de imagem excelente pode ser realizada.
[004] Com MPEG2, codificação de alta qualidade de imagem adaptada para uso de transmissão por difusão é principalmente considerada como um objeto, mas uma quantidade de código (taxa de bit) inferior do que a quantidade de código de MPEG1, i.e., um formato de codificação tendo uma maior taxa de compressão não é tratada. De acordo com a proliferação de assistente digitais pessoais, tem sido esperado que necessidade de tal um formato de codificação será aumentada de agora em diante, e em resposta a isto, padronização do MPEG4 formato de codificação de MPEG4 foi realizada. Com relação a um formato de codificação de imagem, a especificação do mesmo foi confirmada como padrão internacional como ISO / IEC 14496-2 em Dezembro de 1998.
[005] Adicionalmente, nos anos recentes, padronização de um padrão servindo como H.26L (ITU-T Q6 / 16 VCEG) progrediu com codificação de imagem, originalmente pretendida para uso de conferência de televisão. com H.26L, tem sido conhecido que quando comparado com um formato de codificação convencional tal como MPEG2 ou MPEG4, embora maior computação quantidade de computação seja solicitada para codificação e decodificação do mesmo, maior eficiência de codificação é realizada. Além disso, atualmente as parte de atividade de MPEG4, padronização para também tomar vantagem de uma função que não é suportada por H.26L com este H.26L tomado como uma base, para realizar maior eficiência de codificação, tem sido efetuado como Modelo de Articulação de Codificação de Vídeo de Compressão Aprimorada. Como uma programação de padronização, H.264 e MPEG-4 Parte 10 (Codificação de Vídeo Avançada, daqui em diante referido como H.264 / AVC) se torna um padrão internacional em Março, 2003.
[006] Adicionalmente, com uma extensão da mesma, padronização de FRExt (Extensão da Faixa de Fidelidade) incluindo uma ferramenta de codificação necessária para uso comercial tal como RGB, 4:2:2, ou 4:4:4, 8x8DCT e matriz de quantização estipulada por MPEG-2 foram completadas em Fevereiro de 2005. Assim sendo, H.264 / AVC tem se tornado um formato de codificação capaz de, de forma adequada, expressar mesmo ruído de filme incluído em filmes, e tem sido empregado para ampla gama de aplicações tal como Disco de Blu-Ray (marca comercial registrada) e assim por diante.
[007] Contudo, nos dias de hoje, necessidades para ainda codificação de alta compressão tem sido aumentada, tal como pretendendo comprimir uma imagem tendo em torno de 4000 x 2000 pixels, que é quádruplo de imagem de alta visão. Alternativamente, necessidades para codificação de alta compressão adicional têm sido aumentada, tal como pretendendo distribuir uma imagem de alta visão dentro de um ambiente com capacidade de transmissão limitada como a Internet. Por conseguinte, com o VCEG (= Grupo Especialista em Codificação de Vídeo) mencionado acima sob o controle de ITU-T, estudos relacionando ao melhoramento de eficiência de codificação têm continuamente sido efetuados.
[008] Agora, um fator que pode ser fornecido porque o formato de H.264 / AVC realiza alta eficiência de codificação quando comparada com o formato de MPEG2 convencional ou o similar é empregar um método de intra-predição.
[009] Com o método de intra-predição, os modos de intra-predição de nove tipos de unidades de bloco de 4 x 4 pixels e de 8 x 8 pixels, e quatro tipos de unidades de bloco macro de 16 x 16 pixels são determinados considerando os sinais de intensidade luminosa por unidade de área. Os modos de intra-predições de quatro tipos de unidades de bloco de 8 x 8 pixels são determinados considerando sinais de diferença de cor. O modos de intra- predições para sinais de diferença de cor podem ser configurados independentemente dos modos de intra-predição para sinais de intensidade luminosa por unidade de área.
[0010] Existem particulares padrões para cada modo de intra-predição considerando como resíduo seguindo tal intra-predição é manifestado.
[0011] Como um método para eliminar tal redundância e ainda aumentar eficiência de codificação, NPL 1 propõe o seguinte método.
[0012] Isto é para dizer, intra-processamento de codificação de imagem é efetuado através do formato de H.264 / AVC normal usando sinais de treinamento em processamento off-line antecipadamente, transformada ortogonal tal como transformada de Karhunen-Loéve ou o similar é efetuada para cada modo de intra-predição quanto à cada bloco, e coeficientes de transformada ótimos são calculados.
[0013] Então, no processamento de codificação efetivo, processamento usando coeficientes de transformada ortogonal otimizados para cada modo através da transformada de Karhunen-Loéve supracitada são usados em vez da transformada ortogonal estipulada pelo formato de formato de H.264 / AVC.
[0014] Além disso, NPL 2 propõe um método de combinar o intra- predição supracitado com inter-predição.
[0015] Isto é para dizer, com NPL 2, informação de diferença é gerada quanto à informação de vetor de movimento obtida no inter-predição não somente para um bloco atual mas também para valores de pixels vizinhos em torno do bloco atual. Efetuando intra-predição entre a informação de diferença relacionada ao bloco atual, e a informação de diferença relacionada aos pixels vizinhos, gerado nesta maneira, gera informação de diferença de segunda ordem. A informação de diferença de segunda ordem gerada é então submetida à transformada ortogonal e quantização, e emite fluxo de descida junto com uma imagem comprimida.
[0016] Assim sendo, eficiência de codificação é ainda melhorada.
[0017] Além disso, conforme descrito acima, o tamanho do bloco macro é 16 x 16 pixels com o formato de H.264 / AVC. Contudo, um tamanho do bloco macro de 16 x 16 pixels não é ótimo para grandes quadros de imagem tal como UHD (Ultra Alta definição; 4000 x 2000 pixels) que será tratado por métodos de codificação de próxima geração.
[0018] Consequentemente, NPL 3 e assim por diante propõe aumentar o tamanho do bloco macro para um tamanho de 32 x 32 pixels, por exemplo.
Lista de citação Literatura de Não Patente
[0019] NPL 1: “Improved Intra Coding”, VCEG-AF15, ITU- Grupo de Estudo do Setor de Padronização de Telecomunicações do ITU, Questão 6, Grupo de Especialistas de Codificação de Vídeo (VCEG), 20-21 de abril de 2007
[0020] NPL 2: “Second Order Prediction (SOP) in P Slice”, Sijia Chen, Jinpeng Wang, Shangwen Li and, Lu Yu, VCEG-AD09, Grupo de Estudo do Setor de Padronização de Telecomunicações do ITU, Questão 6, Grupo de Especialistas de Codificação de Vídeo (VCEG), 16-18 de Julho de 2008
[0021] NPL 3: “Video Coding Using Extended Block Sizes”, VCEG- AD09, Grupo de Estudo do Setor de Padronização de Telecomunicações do ITU, Questão 16 - Contribuição 123, Janeiro de 2009
Sumário da Invenção Problema técnico
[0022] Agora, com o formato de H.264 / AVC, processamento de filtro passa baixa de valores de pixels de pixels vizinhos é realizado antes de efetuar intra-predição em incrementos de blocos de 8 x 8 pixels descrito acima. Assim sendo, ruído incluído nos pixels vizinhos é removido, e correlação é aumentada, assim maior eficiência de codificação pode ser realizada.
[0023] Contudo, independente do fato que o grau de ruído incluído difere de acordo com as imagens de entrada, valores de parâmetros de quantização, modos de intra-predições, e assim por diante, o filtro passa baixa para remover o ruído foi fixado com o formato de H.264 / AVC. Isto é para dizer, este filtro passa baixa não foi ótimo de acordo com imagens de entrada, valores de parâmetros de quantização, modos de intra-predições, e assim por diante.
[0024] Além disso, com o formato de H.264 / AVC, a remoção do ruído de valores de pixels de pixels vizinhos descrita acima é somente efetuada com o modo de intra-predição em incrementos de blocos de 8 x 8 pixels, e não foi aplicada para outro modos.
[0025] A presente invenção foi feita à luz desta situação, e realiza remoção de ruído de acordo com imagens e taxa de bits, e por meio disso, melhorando eficiência de predição.
Solução para o problema
[0026] Um dispositivo de processamento de imagem de acordo com um primeiro aspecto da presente invenção inclui: meios de decodificação configurados para decodificar uma imagem de um bloco atual que é para ser o objeto de processamento de decodificação ; meios de configuração de filtro configurados para configurar, de acordo com o bloco atual, um coeficiente a ser usado para processamento de filtração ao qual pixels vizinhos do bloco atual são para serem submetidos, usados para intra-predição do bloco atual, de acordo com um parâmetro de codificação; e meios de intra-predições configurados para submeter os pixels vizinhos ao processamento de filtração usando o coeficiente configurado pelos meios de configuração de filtro, e efetuar intra-predição do bloco atual.
[0027] O parâmetro de codificação pode incluir um modo de intra- predição do bloco atual, ou um parâmetro de quantização do bloco atual; os meios de decodificação podem decodificar o modo de intra-predição do bloco atual ou o parâmetro de quantização do bloco atual; e os meios de configuração de filtro podem configurar o coeficiente de acordo com o modo de intra-predição decodificado pelos meios de decodificação, ou o parâmetro de quantização decodificado pelos meios de decodificação.
[0028] O dispositivo de processamento de imagem pode ainda incluir: meios de armazenamento de coeficientes de filtro configurados para armazenar o coeficiente; caracterizado pelo fato de que o coeficiente é calculado a fim de obter, com uma imagem de treinamento, o menor resíduo entre um bloco de treinamento que é o objeto de processamento de codificação, e uma imagem de predição obtida efetuando intra-predição para o bloco de treinamento correspondendo a um modo de intra-predição do bloco de treinamento ou um parâmetro de quantização do bloco de treinamento, e é armazenado nos meios de armazenamento de coeficientes de filtro; e caracterizado pelo fato de que os meios de configuração de filtro configurados, como o coeficiente, aquele dos coeficientes armazenados nos meios de armazenamento de coeficientes de filtro que corresponde ao modo de intra-predição do bloco atual, ou ao parâmetro de quantização do bloco atual.
[0029] Os meios de armazenamento de coeficientes de filtro podem manter o coeficiente como um valor de n bits (caracterizado pelo fato de que n é um inteiro) de acordo com um comprimento de registro de um processador.
[0030] Os meios de decodificação podem decodificar o coeficiente, que foi calculado em um lado de codificação usando os pixels vizinhos antes de serem submetidos ao processamento de filtração tal que o resíduo quanto à uma imagem de predição obtida por intra-predição sendo efetuado considerando o bloco atual é menor, e que foi configurado correspondendo ao bloco atual, e ao modo de intra-predição do bloco atual ou ao parâmetro de quantização do bloco atual; e os meios de configuração de filtro podem configurar, como o coeficiente, aquele dos coeficientes decodificados pelos meios de decodificação que correspondem ao modo de intra-predição do bloco atual, ou ao parâmetro de quantização do bloco atual.
[0031] O coeficiente pode ser configurado de um coeficiente de filtro e valor de desvio.
[0032] O coeficiente de filtro pode ser configurado de três saídas.
[0033] O coeficiente de filtro pode ter simetria centrada em um coeficiente correspondendo à fase zero.
[0034] Os meios de decodificação podem decodificar o modo de intra-predição do bloco atual; e os meios de configuração de filtro pode pegar, dos modos de intra-predição, um modo vertical ou modo horizontal como uma primeira classe, e outros modos como uma segunda classe, e, no evento que o modo de intra-predição do bloco atual pertence à primeira classe, configura o coeficiente correspondendo à primeira classe, e no evento que o modo de intra-predição do bloco atual que foi decodificado pertence à segunda classe, configura o coeficiente correspondendo à segunda classe.
[0035] O dispositivo de processamento de imagem pode ainda incluir: meios de recepção configurados para receber informação de sinalizador indicando se é ou não para efetuar o processamento de filtração quanto aos pixels vizinhos; caracterizado pelo fato de que os meios de configuração de filtro configuram se é ou não para efetuar o processamento de filtração quanto aos pixels vizinhos, com base na informação de sinalizador recebida pelos meios de recepção.
[0036] Os meios de recepção podem receber a informação de sinalizador em incrementos de blocos macros; e os meios de configuração de filtro podem configurar se é ou não para efetuar o processamento de filtro quanto aos pixels vizinhos, em incrementos de blocos macros, com base na informação de sinalizador recebida pelos meios de recepção.
[0037] Os meios de recepção podem receber a informação de sinalizador em incrementos de blocos; e os meios de configuração de filtro podem configurar se é ou não para efetuar o processamento de filtro quanto aos pixels vizinhos, em incrementos de blocos, com base na informação de sinalizador recebido pelos meios de recepção.
[0038] Um método de processamento de imagem de acordo com o primeiro aspecto da presente invenção inclui as etapas de: um dispositivo de processamento de imagem efetuando decodificação de uma imagem de um bloco atual que é para ser o objeto de processamento de decodificação ; configurar, de acordo com o bloco atual, um coeficiente a ser usado para processamento de filtração ao qual pixels vizinhos do bloco atual são para serem submetidos, usados para intra-predição do bloco atual, de acordo com um parâmetro de codificação; e submeter os pixels vizinhos ao processamento de filtração usando o coeficiente que foi configurado, e efetuar intra-predição do bloco atual.
[0039] Um dispositivo de processamento de imagem de acordo com um segundo aspecto da presente invenção inclui: meios de configuração de filtro configurados para configurar um coeficiente a ser usado para processamento de filtração ao qual pixels vizinhos de um bloco atual que é para ser o objeto de processamento de decodificação são para serem submetidos, usados para intra-predição do bloco atual, de acordo com um parâmetro de codificação; meios de intra-predição configurados para submeter os pixels vizinhos para o processamento de filtração usando o coeficiente configurado pelos meios de configuração de filtro, e efetuar intra- predição do bloco atual; e meios de codificação configurados para codificar uma imagem do bloco atual.
[0040] O parâmetro de codificação pode incluir um modo de intra- predição do bloco atual, ou um parâmetro de quantização do bloco atual; e os meios de configuração de filtro podem configurar o coeficiente de acordo com o modo de intra-predição do bloco atual, ou o parâmetro de quantização do bloco atual; e os meios de codificação podem codificar o correspondente modo de intra-predição do bloco atual ou o parâmetro de quantização do bloco atual.
[0041] O dispositivo de processamento de imagem pode ainda incluir: meios de armazenamento de coeficientes de filtro configurados para armazenar o coeficiente; caracterizado pelo fato de que o coeficiente é calculado a fim de obter, com uma imagem de treinamento, o menor resíduo entre um bloco de treinamento que é o objeto de processamento de codificação, e uma imagem de predição obtida efetuando intra-predição para o bloco de treinamento correspondendo a um modo de intra-predição do bloco de treinamento ou um parâmetro de quantização do bloco de treinamento, e é armazenado nos meios de armazenamento de coeficientes de filtro; e caracterizado pelo fato de que os meios de configuração de filtro configurados, como o coeficiente, aquele dos coeficientes armazenados nos meios de armazenamento de coeficientes de filtro que correspondem ao modo de intra-predição do bloco atual, ou ao parâmetro de quantização do bloco atual.
[0042] O dispositivo de processamento de imagem pode ainda incluir: meios de cálculo de coeficiente de filtro configurados para calcular o coeficiente tal que o resíduo entre o bloco atual, e uma imagem de predição obtida através de intra-predição sendo efetuado considerando o bloco atual, usando os pixels vizinhos antes de serem submetidos ao processamento de filtração de acordo com o modo de intra-predição do bloco atual ou o parâmetro de quantização do bloco atual é menor; caracterizado pelo fato de que os meios de configuração de filtro configuram, como o coeficiente, aquele dos coeficientes calculados pelos meios de cálculo de coeficiente de filtro que correspondem ao modo de intra-predição do bloco atual, ou ao parâmetro de quantização do bloco atual; e caracterizado pelo fato de que os meios de codificação ainda codificam o coeficiente.
[0043] O coeficiente pode ser configurado de um coeficiente de filtro e valor de desvio.
[0044] Os meios de configuração de filtro podem configurar se é ou não para efetuar o processamento de filtração quanto aos pixels vizinhos; e os meios de codificação podem codificar informação de sinalizador indicando se é ou não para efetuar o processamento de filtração configurado pelos meios de configuração de filtro.
[0045] Um método de processamento de imagem de acordo com o segundo aspecto da presente invenção inclui as etapas de: um dispositivo de processamento de imagem efetuando configuração de um coeficiente a ser usado para processamento de filtração ao qual pixels vizinhos de um bloco atual que é para ser o objeto de processamento de decodificação são para serem submetidos, usados para intra-predição do bloco atual, de acordo com um parâmetro de codificação; submeter os pixels vizinhos ao processamento de filtração usando o coeficiente que foi configurado, e efetuar intra-predição do bloco atual; e codificar uma imagem do bloco atual.
[0046] Com o primeiro aspecto da presente invenção, uma imagem de um bloco atual que é para ser o objeto de processamento de decodificação é decodificada, um coeficiente é configurado, que é para ser usado para processamento de filtração ao qual pixels vizinhos do bloco atual são para serem submetidos os quais são usados para intra-predição do bloco atual, de acordo com um parâmetro de codificação. Os pixels vizinhos são então submetidos para o processamento de filtração usando o coeficiente que foi configurado, e intra-predição do bloco atual é efetuado.
[0047] Com o segundo aspecto da presente invenção, um coeficiente é configurado, para ser usado para processamento de filtração ao qual pixels vizinhos de um bloco atual que é para ser o objeto de processamento de decodificação são para serem submetidos os quais são usados para intra- predição do bloco atual, de acordo com um parâmetro de codificação, os pixels vizinhos são submetidos para o processamento de filtração usando o coeficiente que foi configurado, intra-predição do bloco atual é efetuado, e uma imagem do bloco atual é codificada.
[0048] Note que os dispositivos de processamento de imagem descritos acima podem ser dispositivos autônomos, ou podem ser blocos internos compondo um dispositivo de codificação de imagem ou dispositivo de decodificação de imagem.
Efeitos Vantajosos da Invenção
[0049] De acordo com a primeira invenção, imagens podem ser decodificadas. Além disso, de acordo com a segunda invenção, remoção de ruído pode ser efetuada de acordo com a imagem e a taxa de bit.
[0050] De acordo com a segunda invenção, imagens podem ser codificadas. Além disso, de acordo com a primeira invenção, remoção de ruído pode ser efetuada de acordo com a imagem e a taxa de bit.
Descrição Breve dos Desenhos
[0051] [Fig. 1] Fig. 1 é um diagrama em bloco ilustrando a configuração de uma modalidade de um dispositivo de codificação de imagem ao qual a presente invenção foi aplicada.
[0052] [Fig. 2] Fig. 2 é um diagrama para descrever sequência de processamento no evento de um modo de intra-predição de 16 x 16 pixels.
[0053] [Fig. 3] Fig. 3 é um diagrama ilustrando os tipos de modos de intra-predições de 4 x 4 pixels para sinais de intensidade luminosa por unidade de área.
[0054] [Fig. 4] Fig. 4 é um diagrama ilustrando os tipos de modos de intra-predições de 4 x 4 pixels para sinais de intensidade luminosa por unidade de área.
[0055] [Fig. 5] Fig. 5 é um diagrama para descrever a direção de intra-predição de 4 x 4 pixels.
[0056] [Fig. 6] Fig. 6 é um diagrama para descrever intra-predição de 4 x 4 pixels.
[0057] [Fig. 7] Fig. 7 é um diagrama para descrever codificação dos modos de intra-predições de 4 x 4 pixels para sinais de intensidade luminosa por unidade de área.
[0058] [Fig. 8] Fig. 8 é um diagrama ilustrando os tipos de modos de intra-predições de 8 x 8 pixels para sinais de intensidade luminosa por unidade de área.
[0059] [Fig. 9] Fig. 9 é um diagrama ilustrando os tipos de modos de intra-predições de 8 x 8 pixels para sinais de intensidade luminosa por unidade de área.
[0060] [Fig. 10] Fig. 10 é um diagrama ilustrando os tipos de modos de intra-predições de 16 x 16 pixels para sinais de intensidade luminosa por unidade de área.
[0061] [Fig. 11] Fig. 11 é um diagrama ilustrando os tipos de modos de intra-predições de 16 x 16 pixels para sinais de intensidade luminosa por unidade de área.
[0062] [Fig. 12] Fig. 12 é um diagrama para descrever intra-predição de 16 x 16 pixels.
[0063] [Fig. 13] Fig. 13 é um diagrama ilustrando os tipos de modos de intra-predições para sinais de diferença de cor.
[0064] [Fig. 14] Fig. 14 é um diagrama em bloco ilustrando um exemplo de configuração de uma unidade de intra-predição e unidade de comutação de filtro de interpolação de pixel vizinho na Fig. 1.
[0065] [Fig. 15] Fig. 15 é um diagrama para descrever cálculo de coeficientes de filtro.
[0066] [Fig. 16] Fig. 16 é um fluxograma para descrever o processamento de codificação do dispositivo de codificação de imagem na Fig. 1.
[0067] [Fig. 17] Fig. 17 é um fluxograma para descrever o processamento de predição na etapa S21 na Fig. 16.
[0068] [Fig. 18] Fig. 18 é um fluxograma para descrever oprocessamento de intra-predição na etapa S31 na Fig. 17.
[0069] [Fig. 19] Fig. 19 é um fluxograma para descrever o processamento de inter-predição de movimento na etapa S32 na Fig. 17.
[0070] [Fig. 20] Fig. 20 é um diagrama em bloco ilustrando um outro exemplo de configuração de uma unidade de intra-predição e de uma unidade de comutação de filtro de interpolação de pixel vizinho na Fig. 1.
[0071] [Fig. 21] Fig. 21 é um fluxograma para descrever um outro exemplo do processamento de intra-predição na etapa S31 na Fig. 17.
[0072] [Fig. 22] Fig. 22 é um diagrama em bloco ilustrando a configuração de uma modalidade de um dispositivo de decodificação de imagem ao qual a presente invenção foi aplicada.
[0073] [Fig. 23] Fig. 23 é um diagrama em bloco ilustrando um exemplo de configuração de uma unidade de intra-predição e de uma unidade de comutação de filtro de interpolação de pixel vizinho na Fig. 22.
[0074] [Fig. 24] Fig. 24 é um fluxograma para descrever o processamento de decodificação do dispositivo de decodificação de imagem na Fig. 22.
[0075] [Fig. 25] Fig. 25 é um fluxograma para descrever o processamento de predição na etapa S138 na Fig. 24.
[0076] [Fig. 26] Fig. 26 é um diagrama em bloco ilustrando um outro exemplo de configuração de uma unidade de intra-predição e de uma unidade de comutação de filtro de interpolação de pixel vizinho na Fig. 22.
[0077] [Fig. 27] Fig. 27 é um fluxograma para descrever um outro exemplo do processamento de predição na etapa S138 na Fig. 24.
[0078] [Fig. 28] Fig. 28 é um diagrama em bloco ilustrando a configuração de uma modalidade de um dispositivo de treinamento ao qual a presente invenção foi aplicada.
[0079] [Fig. 29] Fig. 29 é um diagrama em bloco ilustrando um exemplo de configuração de uma unidade de intra-predição e de uma unidade de cálculo de filtro de interpolação de pixel na Fig. 28.
[0080] [Fig. 30] Fig. 30 é um fluxograma para descrever processamento de intra-predição com o dispositivo de treinamento na Fig. 28.
[0081] [Fig. 31] Fig. 31 é um diagrama em bloco ilustrando a configuração de uma outra modalidade de um dispositivo de codificação de imagem ao qual a presente invenção foi aplicada.
[0082] [Fig. 32] Fig. 32 é um diagrama para descrever processamento de predição de segunda ordem.
[0083] [Fig. 33] Fig. 33 é um diagrama em bloco ilustrando a configuração de uma outra modalidade de um dispositivo de decodificação de imagem ao qual a presente invenção foi aplicada.
[0084] [Fig. 34] Fig. 34 é um diagrama em bloco ilustrando a configuração de ainda uma outra modalidade de um dispositivo de codificação de imagem ao qual a presente invenção foi aplicada.
[0085] [Fig. 35] Fig. 35 é um diagrama em bloco ilustrando um exemplo de configuração de uma unidade de intra-predição na Fig. 34.
[0086] [Fig. 36] Fig. 36 é um fluxograma para descrever um outro exemplo do processamento de intra-predição na etapa S31 na Fig. 17.
[0087] [Fig. 37] Fig. 37 é um fluxograma para descrever ainda um outro exemplo do processamento de intra-predição na etapa S31 na Fig. 17.
[0088] [Fig. 38] Fig. 38 é um fluxograma para descrever um outro exemplo do processamento de intra-predição na etapa S31 na Fig. 17.
[0089] [Fig. 39] Fig. 39 é um diagrama em bloco ilustrando a configuração de ainda uma outra modalidade de um dispositivo de decodificação de imagem ao qual a presente invenção foi aplicada.
[0090] [Fig. 40] Fig. 40 é um diagrama em bloco ilustrando um exemplo de configuração de uma unidade de intra-predição e de uma unidade de controle de filtro de interpolação de pixel vizinho na Fig. 39.
[0091] [Fig. 41] Fig. 41 é um fluxograma para descrever ainda um outro exemplo do processamento de predição na etapa S138 na Fig. 24.
[0092] [Fig. 42] Fig. 42 é um diagrama em bloco ilustrando a configuração de uma outra modalidade de um dispositivo de codificação de imagem ao qual a presente invenção foi aplicada.
[0093] [Fig. 43] Fig. 43 é um diagrama em bloco ilustrando a configuração de uma outra modalidade de um dispositivo de decodificação de imagem ao qual a presente invenção foi aplicada.
[0094] [Fig. 44] Fig. 44 é um diagrama ilustrando um exemplo de um tamanho de bloco estendido.
[0095] [Fig. 45] Fig. 45 é um diagrama em bloco ilustrando um exemplo de configuração do hardware de um computador.
[0096] [Fig. 46] Fig. 46 é um diagrama em bloco ilustrando um principal exemplo de configuração de um receptor de televisão ao qual a presente invenção foi aplicada.
[0097] [Fig. 47] Fig. 47 é um diagrama em bloco ilustrando um principal exemplo de configuração de um telefone celular ao qual a presente invenção foi aplicada.
[0098] [Fig. 48] Fig. 48 é um diagrama em bloco ilustrando um principal exemplo de configuração de um gravador de disco rígido ao qual a presente invenção foi aplicada.
[0099] [Fig. 49] Fig. 49 é um diagrama em bloco ilustrando um principal exemplo de configuração de uma câmera ao qual a presente invenção foi aplicada.
Descrição das Modalidades
[00100] Daqui em diante, modalidades da presente invenção serão descritas com referência aos desenhos. Note que a descrição vai prosseguir na seguinte ordem. 1. Primeira modalidade (comutação de filtro de interpolação de pixel vizinho: exemplo de intra-predição) 2. Segunda modalidade (comutação de filtro de interpolação de pixel vizinho: exemplo de predição de segunda ordem) 3. Terceira modalidade (controle LIGA / DESLIGA de filtro de interpolação de pixel vizinho: exemplo de intra-predição) 4. quarta modalidade (controle LIGA / DESLIGA de filtro de interpolação de pixel vizinho: exemplo de predição de segunda ordem)
<1. Primeira modalidade> [Exemplo de Configuração de Dispositivo de Codificação de Imagem]
[00101] A Fig. 1 representa a configuração de uma modalidade de um dispositivo de codificação de imagem servindo como um dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00102] Este dispositivo de codificação de imagem 51 submete uma imagem à codificação de compressão usando, por exemplo, formato de H.264 e MPEG-4 Part10 (Codificação de Vídeo Avançada) (daqui em diante, descrito como H.264 / AVC).
[00103] Com o exemplo na Fig. 1, o dispositivo de codificação de imagem 51 é configurado de uma unidade de conversão de A / D 61, uma tela re-arranjamento de área de armazenamento temporário 62, uma unidade de computação 63, uma unidade de transformada ortogonal 64, uma unidade de quantização 65, uma unidade de codificação sem perda 66, uma área de armazenamento temporário 67, uma unidade de quantização inversa 68, uma unidade de transformada ortogonal inversa 69, uma unidade de computação 70, um filtro de desbloqueio 71, memória de quadro 72, um comutador 73, uma unidade de intra-predição 74, uma unidade de comutação de filtro de interpolação de pixel vizinho 75, uma unidade de desvio / predição de movimento 76, uma unidade de seleção de imagem de predição 77, e uma unidade de controle de taxa 78.
[00104] A unidade de conversão de A / D 61 converte uma imagem de entrada de analógico para digital, e a emite para a tela re-arranjamento de área de armazenamento temporário 62 para armazenamento. A tela re- arranjamento de área de armazenamento temporário 62 re-arranja as imagens de quadros na ordem armazenada para exibir na ordem de quadros para codificação de acordo com GOP (Grupo de imagem).
[00105] A unidade de computação 63 subtrai de uma imagem lida a partir da tela re-arranjamento de área de armazenamento temporário 62 a imagem de predição de uma unidade de intra-predição 74 selecionada pela unidade de seleção de imagem de predição 77 ou a imagem de predição da unidade de desvio/predição de movimento 76, e emite informação de diferença do mesmo para a unidade de transformada ortogonal 64. A unidade de transformada ortogonal 64 submete a informação de diferença a partir da unidade de computação 63 para a transformada ortogonal, tal como transformada de cosseno discreto, transformada de Karhunen-Loéve, ou o similar, e emite um coeficiente de transformada da mesma. A unidade de quantização 65 faz quantização do coeficiente de transformada que a unidade de transformada ortogonal 64 emite.
[00106] O coeficiente de transformada que sofreu quantização que é a saída da unidade de quantização 65 é entrado para a unidade de codificação sem perda 66, onde ele é submetido à codificação sem perda, tal como codificação de comprimento variável, codificação aritmética, ou o similar, e comprimido.
[00107] A unidade de codificação sem perda 66 obtém informação indicando intra-predição e assim por diante a partir da unidade de intra- predição 74, e obtém informação indicando um modo de inter-predição, e assim por diante a partir da unidade de desvio / predição de movimento 76. Note que a informação indicando intra-predição também vai ser referida como informação de modo de intra-predição daqui em diante. Além disso, a informação indicando inter-predição também vai ser referida como informação de modo de inter-predição daqui em diante.
[00108] A unidade de codificação sem perda 66 codifica o coeficiente de transformada que sofreu quantização, e também codifica a informação indicando intra-predição, a informação indicando um modo de inter-predição, parâmetros de quantização, e assim por diante, e os considera como parte da informação de cabeçalho na imagem comprimida. A unidade de codificação sem perda 66 supre os dados codificados para a área de armazenamento temporário 67 para armazenamento.
[00109] Por exemplo, com a unidade de codificação sem perda 66, processamento de codificação sem perda, tal como codificação de comprimento variável, codificação aritmética, ou o similar, é efetuada. Exemplos da codificação de comprimento variável incluem CAVLC (Codificação de Comprimento Variável de Contexto Adaptativa) determinada pelo formato de H.264 / AVC. Exemplos da codificação aritmética incluem CABAC (Codificação Aritmética Binária de Contexto Adaptativa).
[00110] A área de armazenamento temporário 67 emite os dados fornecidos a partir da unidade de codificação sem perda 66 para, por exemplo, um dispositivo de armazenamento ou caminho de transmissão ou o similar fluxo de descida não mostrado no desenho, como uma imagem comprimida codificada pelo formato de H.264 / AVC.
[00111] Além disso, o coeficiente de transformada que sofreu quantização emitido a partir da unidade de quantização 65 é também entrado para a unidade de quantização inversa 68, submetida à quantização inversa, e então ainda submetida à transformada ortogonal inversa na unidade de transformada ortogonal inversa 69. A saída submetida à transformada ortogonal inversa é adicionada a uma imagem de predição fornecida a partir da unidade de seleção de imagem de predição 77 através da unidade de computação 70, e mudada em uma imagem decodificada localmente. O filtro de desbloqueio 71 remove distorção de bloco de uma imagem decodificada, e então a supre para a memória de quadro 72 para armazenamento. Uma imagem antes do processamento de desbloqueio de filtro é efetuado pelo filtro de desbloqueio 71 é também fornecida para a memória de quadro 72 para armazenamento.
[00112] O comutador 73 emite as imagens de referência armazenadas na memória de quadro 72 para a unidade de desvio / predição de movimento 76 ou para a unidade de intra-predição 74.
[00113] Com este dispositivo de codificação de imagem 51, a imagem I, imagem B, e imagem P de uma tela re-arranjamento de área de armazenamento temporário 62 são fornecidas para a unidade de intra-predição 74 como uma imagem a ser submetida para intra-predição (também referido como intra-processamento), por exemplo. Além disso, a imagem B e imagem P lidas a partir da tela re-arranjamento de área de armazenamento temporário 62 são fornecidas para a unidade de desvio / predição de movimento 76 como uma imagem a ser submetida ao inter-predição (também referido como inter- processamento).
[00114] A unidade de intra-predição 74 efetua processamento de intra- predição de todos os modos de intra-predição candidatos com base e uma imagem a ser submetida à intra-predição lida a partir da tela re-arranjamento de área de armazenamento temporário 62, e da imagem de referência fornecida a partir da memória de quadro 72 para gerar uma imagem de predição.
[00115] Antes do processamento de intra-predição, a unidade de intra- predição 74 efetua processamento de filtração nos pixels vizinhos que sãos pixels usados para intra-predição de cada bloco atual, e vizinhos do bloco atual com uma relação pré-determinada posicional. Este processamento de filtração usa um coeficiente de filtro configurado pela unidade de comutação de filtro de interpolação de pixel vizinho 75, de acordo com o modo de intra- predição fornecido a partir da unidade de intra-predição 74, e assim por diante. Isto é para dizer, a unidade de intra-predição 74 usa, para processamento de intra-predição de todos os modos de intra-predições candidatos, pixels vizinhos submetidos ao processamento de filtração com coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 75.
[00116] A unidade de intra-predição 74 calcula um valor de função de custo quanto ao modo de intra-predição onde a imagem de predição foi gerada, e seleciona o modo de intra-predição onde o valor de função de custo calculado fornece o valor mínimo, como o modo de intra-predição ótimo. A unidade de intra-predição 74 supre a imagem de predição gerada no modo de intra-predição ótimo, e o valor de função de custo calculado considerando o correspondente modo de intra-predição ótimo, para a unidade de seleção de imagem de predição 77.
[00117] No evento que a imagem de predição gerada no modo de intra- predição ótimo foi selecionada pela unidade de seleção de imagem de predição 77, a unidade de intra-predição 74 supre informação indicando o modo de intra-predição ótimo para a unidade de codificação sem perda 66. No evento que a informação foi transmitida a partir da unidade de intra-predição 74, a unidade de codificação sem perda 66 codifica esta informação, e a considera como parte da informação de cabeçalho na imagem comprimida.
[00118] A unidade de comutação de filtro de interpolação de pixel vizinho 75 armazena o coeficientes de filtro correspondendo aos parâmetros de quantização e modos de intra-predições obtidos efetuando aprendizagem em um dispositivo de treinamento 251 na Fig. 28 que será descrito mais tarde, usando uma imagem de treinamento.
[00119] A unidade de comutação de filtro de interpolação de pixel vizinho 75 é fornecida com parâmetros de quantização a partir da unidade de controle de taxa 78 e da informação de modo de intra-predição a partir da unidade de intra-predição 74. A unidade de comutação de filtro de interpolação de pixel vizinho 75 configura coeficientes de filtro correspondendo aos parâmetros de quantização a partir da unidade de controle de taxa 78 e do modo de intra-predição a partir da unidade de intra-predição 74. A unidade de comutação de filtro de interpolação de pixel vizinho 75 supre os coeficientes de filtro configurados para a unidade de intra-predição 74.
[00120] Note que a unidade de comutação de filtro de interpolação de pixel vizinho 75 pode efetuar aprendizagem e armazenamento dos coeficientes de filtro correspondendo a apenas um, mais propriamente do que a ambos, dos parâmetros de quantização e dos modos de intra-predições.
[00121] Além disso, enquanto a unidade de comutação de filtro de interpolação de pixel vizinho 75 armazena coeficientes de filtro aprendidos off-line de antemão, em vez disso os coeficientes de filtro podem ser calculados on-line. Neste caso, coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 75 são emitidos para a unidade de codificação sem perda 66 para serem enviados para o lado de codificação, como indicado pela seta pontilhada.
[00122] A unidade de desvio / predição de movimento 76 efetua processamento de predição de movimento e desvio considerando todos os modos de inter-predição candidatos. Especificamente, a unidade de desvio / predição de movimento 76 é fornecida com a imagem a ser submetida à inter- processamento lida a partir da tela re-arranjamento de área de armazenamento temporário 62, e a imagem de referência a partir da memória de quadro 72 via o comutador 73. A unidade de desvio / predição de movimento 76 detecta os vetores de movimento de todos os modos de inter-predição candidatos com base na imagem a serem submetidos à inter-processamento e a imagem de referência, submete a imagem de referência à processamento de desvio com base nos vetores de movimento, e gera uma imagem de predição.
[00123] Além disso, a unidade de desvio / predição de movimento 76 calcula um valor de função de custo quanto à todos os modos de inter- predição candidatos. A unidade de desvio / predição de movimento 76 determina, dos valores de função de custo calculados, o modo de predição que fornece o valor mínimo para ser o modo de inter-predição ótimo.
[00124] A unidade de desvio / predição de movimento 76 supre a imagem de predição gerada no modo de inter-predição ótimo, e o valor de função de custo da mesma para a unidade de seleção de imagem de predição 77. No evento que a imagem de predição gerada no modo de inter-predição ótimo pela unidade de seleção de imagem de predição 77 foi selecionada, a unidade de desvio / predição de movimento 76 emite informação indicando o modo de inter-predição ótimo (informação de modo de inter-predição ) para a unidade de codificação sem perda 66.
[00125] Note que a informação de vetor de movimento, informação de sinalizador, informação de quadro de referência, e assim por diante são emitidos para a unidade de codificação sem perda 66 de acordo com a necessidade. A unidade de codificação sem perda 66 também submete a informação a partir da unidade de desvio / predição de movimento 76 para processamento de codificação sem perda tal como codificação de comprimento variável, codificação aritmética, ou o similar, e insere na porção de cabeçalho da imagem comprimida.
[00126] A unidade de seleção de imagem de predição 77 determina o modo de predição ótimo a partir do modo de intra-predição ótimo e do modo de inter-predição ótimo com base nos valores de função de custo emitidos a partir da unidade de intra-predição 74 ou da unidade de desvio / predição de movimento 76. A unidade de seleção de imagem de predição 77 então seleciona a imagem de predição no modo de predição determinado, e a supre para as unidades de computação 63 e 70. Neste momento, a unidade de seleção de imagem de predição 77 supre a informação de seleção da imagem de predição para a unidade de intra-predição 74 ou para a unidade de desvio / predição de movimento 76.
[00127] A unidade de controle de taxa 78 controla a taxa da operação de quantização da unidade de quantização 65 com parâmetros de quantização, com base em uma imagem comprimida, armazenada na área de armazenamento temporário 67, a fim de não fazer com que haja transbordo ou esvaziamento.
[00128] O parâmetro de quantização usado para controle de taxa na unidade de quantização 65 é fornecido para a unidade de codificação sem perda 66, submetido ao processamento de codificação sem perda, e inserida para a porção de cabeçalho da imagem comprimida. Este parâmetro de quantização é fornecido para a unidade de comutação de filtro de interpolação de pixel vizinho 75, e usado para configurar coeficientes de filtro usados para processamento de filtro a ser aplicada aos pixels vizinhos.
[Descrição de Processamento de Intra-predição de acordo com Formato de H.264 / AVC]
[00129] Primeiro, os modos de intra-predições determinados pelo formato de H.264 / AVC serão descritos.
[00130] Primeiro, os modos de intra-predições quanto à sinais de intensidade luminosa por unidade de área serão descritos. Com os modos de intra-predições para sinais de intensidade luminosa por unidade de área, três sistemas de um modo de intra-predição de 4x 4, um modo de intra-predição de 4 x 4, e um modo de intra-predição de 16 x 16 são determinados. Esses são modos para determinar unidades de bloco, e são configurados para cada bloco macro. Além disso, um modo de intra-predição pode ser configurado para sinais de diferença de cor independentemente dos sinais de intensidade luminosa por unidade de área para cada bloco macro.
[00131] Adicionalmente, no evento de modo de intra-predição de 4x 4, um modo de predição pode ser configurado dos nove tipos de modos de predições para cada bloco atual de 4 x 4 pixels. No evento do modo de intra- predição de 4 x 4, um modo de predição pode ser configurado dos nove tipos de modos de predições para cada bloco atual de 8 x 8 pixels bloco atual. Além disso, no evento do modo de intra-predição de 16 x 16, um modo de predição pode ser configurado para um bloco macro atual de 16 x 16 pixels fora dos quatro tipos de modo de predições.
[00132] Note que, daqui em diante, o modo de intra-predição de 4 x 4, modo de intra-predição de 8 x 8, e modo de intra-predição de 16 x 16 também vão ser referidos como modo de intra-predição de 4 x 4 pixels, modo de intra- predição de 8 x 8 pixels, e modo de intra-predição de 16 x 16 pixels conforme apropriado, respectivamente.
[00133] Com o exemplo na Fig. 2, numerais -1 à 25 anexados aos blocos representam a sequência de bits (sequência de processamento no lado de codificação) do blocos dos mesmos. Note que, com relação aos sinais de intensidade luminosa por unidade de área, um bloco macro é dividido em 4 x 4 pixels, e DCT de 4 x 4 pixels é efetuada. Somente no evento do modo de intra-predição de 16 x 16, conforme mostrado em um bloco de -1, os componentes de DC do blocos são coletados, uma 4 x 4 matriz é gerada, e esta é ainda submetida à transformada ortogonal.
[00134] Por outro lado, com relação aos sinais de diferença de cor, após um bloco macro ser dividido em 4 x 4 pixels, e DCT de 4 x 4 pixels ser efetuada, conforme mostrado nos blocos 16 e 17, os componentes de DC são coletados, uma matriz 2 x 2 matriz é gerada, e este é ainda submetido à transformada ortogonal.
[00135] Note que, com relação ao modo de intra-predição de 4 x 4, este pode ser aplicado somente a um caso onde o bloco macro atual é submetido à transformada ortogonal de 8 x 8 com um alto perfil ou a um perfil além desse.
[00136] As Fig. 3 e Fig. 4 são diagramas mostrando nove tipos de modos de intra-predições de 4 x 4 pixels (Intra_4x4_pred_mode) para sinais de intensidade luminosa por unidade de área. Os oito tipos de modos outros do que o modo 2 mostrando predição de valor médio (DC) correspondem às direções indicadas com números 0, 1, 3 à 8 na Fig. 5, respectivamente.
[00137] Os nove tipos de intra_4x4_pred_mode serão descritos com referência à Fig. 6. Com o exemplo na Fig. 6, os pixels a à p representam os pixels do bloco atual a ser submetido ao intra-processamento, e valores de pixels A à M representam os valores de pixels de pixels pertencendo a um bloco vizinho. Especificamente, os pixels a à p são uma imagem a ser processada lida a partir de uma tela re-arranjamento de área de armazenamento temporário 62, e os valores de pixels A à M são os valores de pixels de uma imagem decodificada a ser lida a partir da memória de quadro 72 e referenciada.
[00138] No caso dos modos de intra-predições mostrados na Fig. 3 e Fig. 4, os valores de predições de pixels dos pixels a à p são gerados como a seguir usando os valores de pixels A à M dos pixels pertencendo a um bloco vizinho. Aqui, que um valor pixel está “disponível” representa que o valor de pixel está disponível sem uma razão tal que o pixel está posicionado na borda do quadro de imagem, ou ainda não foi codificado. Por outro lado, que um valor de pixel está “indisponível” representa que o valor de pixel está indisponível devido a uma razão tal que o pixel está posicionado na borda do quadro de imagem, ainda não foi codificado.
[00139] O modo 0 é um modo de Prognóstico Vertical, e é aplicado somente a um caso onde os valores dos pixels A à D estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (1). Valores de predições de pixels dos pixels a, e, i, e m = A Valores de predições de pixels dos pixels b, f, j, e n = B Valores de predições de pixels dos pixels c, g, k, e o = C Valores de predições de pixels dos pixels d, h, l, e p = D ... (1)
[00140] O modo 1 é um modo de Prognóstico Horizontal, e é aplicado somente a um caso onde os valores dos pixels I à L estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (2). Valores de predições de pixels dos pixels a, b, c, e d = I Valores de predições de pixels dos pixels e, f, g, e h = J Valores de predições de pixels dos pixels i, j, k, e l = K Valores de predições de pixels dos pixels m, n, o, e p = L ... (2)
[00141] O modo 2 é um Modo de Prognóstico DC, e o valor de predição de pixel é gerado como a Expressão (3) quando os valores dos pixels A, B, C, D, I, J, K, e L estão todos “disponíveis”. (A + B + C + D + I + J + K + L + 4) >> 3... (3)
[00142] Além disso, quando os valores dos pixels A, B, C, e D estão todos “indisponíveis”, o valor de predição de pixel é gerado como a Expressão (4). (I + J + K + L + 2) >> 2... (4)
[00143] Além disso, quando os valores dos pixels I, J, K, e L estão todos “indisponíveis”, o valor de predição de pixel é gerado como a Expressão (5). (A + B + C + D + 2) >> 2... (5)
[00144] Note que, quando os valores dos pixels A, B, C, D, I, J, K, e L estão todos “indisponíveis”, 128 é empregado com o valor de predição de pixel.
[00145] O modo 3 é um modo de Prognóstico Diagonal_Down_Left, e é aplicado somente a um caso onde os valores dos pixels A, B, C, D, I, J, K, L, e M estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (6). Valor de predição de pixel do pixel a = (A + 2B + C + 2) >> 2 Valores de predições de pixels dos pixels b e e = (B + 2C + D + 2) >> 2 Valores de predições de pixels dos pixels c, f, e i = (C + 2D + E + 2) >> 2 Valores de predições de pixels dos pixels d, g, j, e m = (D + 2E + F + 2) >> 2 Valores de predições de pixels dos pixels h, k, e n = (E + 2F + G + 2) >> 2 Valores de predições de pixels dos pixels l e o = (F + 2G + H + 2) >> 2 Valor de predição de pixel do pixel p = (G + 3H + 2) >> 2 ... (6)
[00146] O modo 4 é um modo de Prognóstico Diagonal_Down_Right, e é aplicado somente a um caso onde os valores dos pixels A, B, C, D, I, J, K, L, e M estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (7). Valor de predição de pixel do pixel m = (J + 2K + L + 2) >> 2 Valores de predições de pixels dos pixels i e n = (I + 2J + K + 2) >> 2 Valores de predições de pixels dos pixels e, j, e o = (M + 2I + J + 2) >> 2 Valores de predições de pixels dos pixels a, f, k, e p = (A + 2M + I + 2) >> 2 Valores de predições de pixels dos pixels b, g, e l = (M + 2A + B + 2) >> 2 Valores de predições de pixels dos pixels c e h = (A + 2B + C + 2) >> 2 Valor de predição de pixel do pixel d = (B + 2C + D + 2) >> 2 ... (7)
[00147] O modo 5 é um modo de Prognóstico Diagonal_Vertical_Right, e é aplicado somente a um caso onde os valores dos pixels A, B, C, D, I, J, K, L, e M estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (8). Valores de predições de pixels dos pixels a e j = (M + A + 1) >> 1 Valores de predições de pixels dos pixels b e k = (A + B + 1) >> 1 Valores de predições de pixels dos pixels c e l = (B + C + 1) >> 1 Valor de predição de pixel do pixel d = (C + D + 1) >> 1 Valores de predições de pixels dos pixels e e n = (I + 2M + A + 2) >> 2 Valores de predições de pixels dos pixels f e o = (M + 2A + B + 2) >> 2 Valores de predições de pixels dos pixels g e p = (A + 2B + C + 2) >> 2 Valor de predição de pixel do pixel h = (B + 2C + D + 2) >> 2 Valor de predição de pixel do pixel i = (M + 2I + J + 2) >> 2 Valor de predição de pixel do pixel m = (I + 2J + K + 2) >> 2... (8)
[00148] O modo 6 é um modo de Prognóstico Horizontal_Down, e é aplicado somente a um caso onde os valores dos pixels A, B, C, D, I, J, K, L, e M estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (9). Valores de predições de pixels dos pixels a e g = (M + I + 1) >> 1 Valores de predições de pixels dos pixels b e h = (I + 2M + A + 2) >> 2 Valor de predição de pixel do pixel c = (M + 2A + B + 2) >> 2 Valor de predição de pixel do pixel d = (A + 2B + C + 2) >> 2 Valores de predições de pixels dos pixels e e k = (I + J + 1) >> 1 Valores de predições de pixels dos pixels f e l = (M + 2I + J + 2) >> 2 Valores de predições de pixels dos pixels i e o = (J + K + 1) >> 1 Valores de predições de pixels dos pixels j e p = (I + 2J + K + 2) >> 2 Valor de predição de pixel do pixel m = (K + L + 1) >> 1 Valor de predição de pixel do pixel n = (J + 2K + L + 2) >> 2... (9)
[00149] O modo 7 é um modo de Prognóstico Vertical_Left, e é aplicado somente a um caso onde os valores dos pixels A, B, C, D, I, J, K, L, e M estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (10). Valor de predição de pixel do pixel a = (A + B + 1) >> 1 Valores de predições de pixels dos pixels b e i = (B + C + 1) >> 1 Valores de predições de pixels dos pixels c e j = (C + D + 1) >> 1 Valores de predições de pixels dos pixels d e k = (D + E + 1) >> 1 Valor de predição de pixel do pixel l = (E + F + 1) >> 1 Valor de predição de pixel do pixel e = (A + 2B + C + 2) >> 2 Valores de predições de pixels dos pixels f e m = (B + 2C + D + 2) >> 2 Valores de predições de pixels dos pixels g e n = (C + 2D + E + 2) >> 2 Valores de predições de pixels dos pixels h e o = (D + 2E + F + 2) >> 2 Valor de predição de pixel do pixel p = (E + 2F + G + 2) >> 2... (10)
[00150] O modo 8 é um modo de Prognóstico Horizontal_Up, e é aplicado somente a um caso onde os valores dos pixels A, B, C, D, I, J, K, L, e M estão “disponíveis”. Neste caso, os valores de predições de pixels dos pixels a à p são gerados como com a seguinte expressão (11). Valor de predição de pixel do pixel a = (I + J + 1) >> 1 Valor de predição de pixel do pixel b = (I + 2J + K + 2) >> 2 Valores de predições de pixels dos pixels c e e = (J + K + 1) >> 1 Valores de predições de pixels dos pixels d e f = (J + 2K + L + 2) >> 2 Valores de predições de pixels dos pixels g e i = (K + L + 1) >> 1 Valores de predições de pixels dos pixels h e j = (K + 3L + 2) >> 2 Valores de predições de pixels dos pixels k, l, m, n, o, e p = L... (11)
[00151] A seguir, o formato de codificação do modo de intra-predição de 4 x 4 pixels (Intra_4x4_pred_mode) para sinais de intensidade luminosa por unidade de área será descrito com referência à Fig. 7. Com o exemplo na Fig. 7, um bloco atual C servindo como um objeto de codificação, que é composto de 4 x 4 pixels, é mostrado, e um bloco A e um bloco B, que são vizinhos do bloco atual C e são compostos de 4 x 4 pixels, são mostrados.
[00152] Neste caso, pode ser concebido que o Intra_4x4_pred_mode no bloco atual C, e o Intra_4x4_pred_mode no bloco A e no bloco B têm alta correlação. Processamento de codificação é efetuado como a seguir usando esta correlação, e por meio disso, maior eficiência de codificação pode ser realizada.
[00153] Especificamente, com o exemplo na Fig. 7, o Intra_4x4_pred_mode no bloco A e no bloco B são considerados como Intra_4x4_pred_mode A e Intra_4x4_pred_mode B respectivamente, e MostProbableMode é definido como com a seguinte expressão (12). MostProbableMode = Min(Intra_4x4_pred_mode A,Intra_4x4_pred_mode B)... (12)
[00154] Isto é para dizer, do bloco A e do bloco B, um ao qual um menor mode_number é atribuído, é considerado como o MostProbableMode.
[00155] Dois valores chamados prev_intra4x4_pred_mode_flag [luma4x4Blkldx] e rem_intra4x4_pred_mode [luma4x4Blkldx] são definidos dentro de uma sequência de bits como parâmetros quanto à ao bloco atual C, e processamento de decodificação é efetuado processando com base no pseudocódigo mostrado na seguinte Expressão (13), e por meio disso, os valores de Intra_4x4_pred_mode e Intra4x4PredMode [luma4x4Blkldx] quanto ao bloco C podem ser obtidos ser obtida. If(prev_intra4x4_pred_mode_flag[luma4x4Blkldx]) Intra4x4PredMode[luma4x4Blkldx] = MostProbableMode else if(rem_intra4x4_pred_mode[luma4x4Blkldx] < MostProbableMode) Intra4x4PredMode[luma4x4Blkldx] =rem_intra4x4_pred_mode[luma4x4Blkldx] elseIntra4x4PredMode[luma4x4Blkldx] = rem_intra4x4_pred_mode[luma4x4Blkldx] + 1... (13)
[00156] A seguir, o modo de intra-predição de 8 x 8 pixels será descrito. Fig. 8 e Fig. 9 são diagramas mostrando os nove tipos de modos de intra-predições de 8 x 8 pixels (intra_8x8_pred_mode) para sinais de intensidade luminosa por unidade de área.
[00157] Vamos dizer que os valores dos pixels no bloco atual de 8 x 8 são considerados como p[x, y](0 < x < 7; 0 < y < 7), e os valores dos pixels de um bloco vizinho são representados como p[-1, -1], ..., p[-1, 15], p[-1, 0], ..., [p-1, 7].
[00158] Com relação aos modos de intra-predições de 8 x 8 pixels, os pixels vizinhos são submetidos ao processamento de filtro passa baixa antes de gerar um valor de predição. Agora, vamos dizer que valores de pixels antes do processamento de filtro passa baixa são representados com p[-1, -1], ..., p[-1, 15], p[-1, 0], ..., p[-1, 7], e valores de pixels após o processamento são representados com p'[-1, -1], ..., p'[-1, 15], p'[-1, 0], ..., p'[-1, 7].
[00159] Primeiro, p'[0, -1] é calculado como com a seguinte expressão (14) no evento que p[-1, -1] está “disponível”, e calculado como com a seguinte expressão (15) no evento de “não disponível”. p'[0, -1] = (p[-1, -1] + 2*p[0, -1] + p[1, -1] + 2) >> 2... (14) p'[0, -1] = (3*p[0, -1] + p[1, -1] + 2) >> 2... (15) p'[x, -1] (x = 0, ..., 7) é calculado como com a seguinte expressão (16). p'[x, -1] = (p[x-1, -1] + 2*p[x, -1] + p[x+1, -1] + 2) >> 2... (16) p'[x, -1] (x = 8, ..., 15) é calculado como com a seguinte expressão (17) no evento que p[x, -1] (x = 8, ..., 15) está “disponível”. p'[x, -1] = (p[x-1, -1] + 2*p[x, -1] + p[x+1, -1] + 2) >> 2 p'[15, -1] = (p[14, -1] + 3*p[15, -1] + 2) >> 2... (17) p'[-1, -1] é calculado como a seguir no evento que p[-1, -1] está “disponível”. Especificamente, p'[-1, -1] é calculado como a Expressão (18) no evento que ambos de p[0, -1] e p[-1, 0] estão “disponíveis”, e calculados como a Expressão (19) no evento que p[-1, 0] estão “indisponíveis”. Além disso, p'[-1, -1] é calculado como a Expressão (20) no evento que p[0, -1] estão “indisponíveis”. p'[-1, -1] = (p[0, -1] + 2*p[-1, -1] + p[-1, 0] + 2) >> 2... (18) p'[-1, -1] = (3*p[-1, -1] + p[0, -1] + 2) >> 2... (19) p'[-1, -1] = (3*p[-1, -1] + p[-1, 0] + 2) >> 2... (20) p'[-1, y] (y = 0, • ••, 7) é calculado como a seguir quando p[-1, y] (y = 0, • ••, 7) está “disponível”. Especificamente, primeiro, no evento que p[-1, -1] está “disponível”, p'[-1, 0] é calculado como com a seguinte expressão (21), e no evento de “indisponíveis”, calculada como a Expressão (22). p'[-1, 0] = (p[-1, -1] + 2*p[-1, 0] + p[-1, 1] + 2) >> 2... (21) p'[-1, 0] = (3*p[-1, 0] + p[-1, 1] + 2) >> 2... (22) Além disso, p'[-1, y] (y = 1, ..., 6) é calculado como com a seguinte expressão (23), e p'[-1, 7] é calculado como a Expressão (24). p[-1, y] = (p[-1, y-1] + 2*p[-1, y] + p[-1, y+1] + 2) >> 2... (23) p'[-1, 7] = (p[-1, 6] + 3*p[-1, 7] + 2) >> 2... (24)
[00160] Valores de predições nos modos de intra-predições mostrados nas Fig. 8 e Fig. 9 são gerados como a seguir usando p' assim sendo calculado.
[00161] O modo 0 é um modo de Prognóstico Vertical, e é aplicada somente quando p[x, -1] (x = 0, ..., 7) está “disponível”. Um valor de predição pred8x8L[x, y] é gerado como com a seguinte expressão (25). pred8x8L[x, y] = p'[x, -1] x, y = 0, ..., 7... (25)
[00162] O modo 1 é a modo de Prognóstico Horizontal, e é aplicada somente quando p[-1, y] (y = 0, ..., 7) está “disponível”. O valor de predição pred8x8L[x, y] é gerado como com a seguinte expressão (26). pred8x8L[x, y] = p'[-1, y] x, y = 0, ..., 7... (26)
[00163] O modo 2 é um modo de Prognóstico DC, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, no evento que ambos de p[x, -1] (x = 0, ..., 7) e p[-1, y] (y = 0, ..., 7) estão “disponíveis”, o valor de predição pred8x8L[x, y] é gerado como com a seguinte expressão (27). [Expressão Matemática 1]
Figure img0001
[00164] No evento que p[x, -1] (x = 0, ..., 7) está “disponível”, mas p[- 1, y] (y = 0, •••, 7) estão “indisponíveis”, o valor de predição pred8x8L[x, y] é gerado como com a seguinte expressão (28). [Expressão Matemática 2]
Figure img0002
[00165] No evento que p[x, -1] (x = 0, ., 7) estão “indisponíveis”, mas p[-1, y] (y = 0, ., 7) está “disponível”, o valor de predição pred8x8L[x, y] é gerado como com a seguinte expressão (29).[Expressão Matemática 3]
Figure img0003
[00166] No evento que ambos de p[x, -1] (x = 0, ., 7) e p[-1, y] (y = 0, ., 7) estão “indisponíveis”, o valor de predição pred8x8L[x, y] é gerado como com a seguinte expressão (30). pred8x8L[x, y] = 128... (30)
[00167] Aqui, a Expressão (30) representa um caso de entrada de 8 bits.
[00168] O modo 3 é um modo de Diagonal_Down_Left_prediction, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, o modo de Diagonal_Down_Left_prediction é aplicado somente quando p[x, - 1], x = 0, ..., 15, está “disponível”, e o valor de predição de pixel com x =7 e y =7 é gerado como com a seguinte expressão (31), e outros valores de predições de pixels são gerados como com a seguinte expressão (32).pred8x8L[x, y] = (p'[14, -1] + 3*p[15, -1] + 2) >> 2... (31) red8x8L[x, y] = (p'[x+y, -1] + 2*p'[x+y+1, -1] + p'[x+y+2, -1] + 2) >> 2... (32)
[00169] O modo 4 é um modo de Diagonal_Down_Right_prediction, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, o modo de Diagnonal_Down_Right_prediction é aplicado somente quando p[x, -1], x = 0, ..., 7 e p[-1, y], y = 0, ..., 7 estão “disponíveis”, o valor de predição de pixel com x > y é gerado como com a seguinte expressão (33), e o valor de predição de pixel com x < y é gerado como com a seguinte expressão (34). Além disso, o valor de predição de pixel com x = y é gerado como com a seguinte expressão (35).pred8x8L[x, y] = (p'[x-y-2, -1] + 2*p'[x-y-1, -1] + p'[x-y, -1] + 2) >> 2... (33) pred8x8L[x, y] = (p'[-1, y-x-2] + 2*p'[-1, y-x-1] + p'[-1, y-x] + 2) >> 2... (34) pred8x8L[x, y] = (p'[0, -1] + 2*p'[-1, -1] + p'[-1, 0] + 2) >> 2... (35)
[00170] O modo 5 é um modo de Vertical_Right_prediction, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, o modo de Vertical_Right_prediction é aplicado somente quando p[x, -1], x = 0, ..., 7 e p[-1, y], y = -1, ..., 7 estão “disponíveis”. Agora, zVR é definido como com a seguinte expressão (36). zVR = 2*x - y... (36)
[00171] Neste momento, no evento que zVR é 0, 2, 4, 6, 8, 10, 12, ou 14, o valor de predição de pixel é gerado como com a seguinte expressão (37), e no evento que zVR é 1, 3, 5, 7, 9, 11, ou 13, o valor de predição de pixel é gerado como com a seguinte expressão (38). pred8x8L[x, y] = (p'[x-(y>>1)-1, -1] + p'[x-(y>>1), -1] + 1) >> 1... (37) pred8x8L[x, y] = (p'[x-(y>>1)-2, -1] + 2*p'[x-(y>>1)-1, -1] + p'[x-(y>>1), -1] + 2) >> 2... (38)
[00172] Além disso, no evento que zVR é -1, o valor de predição de pixel é gerado como com a seguinte expressão (39), e nos casos outros do que este, especificamente, no evento que zVR é -2, -3, -4, -5, -6, ou -7, o valor de predição de pixel é gerado como com a seguinte expressão (40). pred8x8L[x, y] = (p'[-1, 0] + 2*p'[-1, -1] + p'[0, -1] + 2) >> 2... (39) pred8x8L[x, y] = (p'[-1, y-2*x-1] + 2*p'[-1, y-2*x-2] + p'[-1, y- 2*x-3] + 2) >> 2... (40)
[00173] O modo 6 é um modo de Horizontal_Down_prediction, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, o modo de Horizontal_Down_prediction é aplicado somente quando p[x, -1], x = 0, ..., 7 e p[-1, y], y = -1, ..., 7 estão “disponíveis”. Agora, zVR é definido como com a seguinte expressão (41). zHD = 2*y - x... (41)
[00174] Neste momento, no evento que zHD é 0, 2, 4, 6, 8, 10, 12, ou 14, o valor de predição de pixel é gerado como com a seguinte expressão (42), e no evento que zHD é 1, 3, 5, 7, 9, 11, ou 13, o valor de predição de pixel é gerado como com a seguinte expressão (43). pred8x8L[x, y] = (p'[-1, y-(x>>1)-1] + p'[-1, y-(x>>1) + 1] >> 1... (42) pred8x8L[x, y] = (p'[-1, y-(x>>1)-2] + 2*p'[-1, y-(x>>1)-1] + p'[-1, y-(x>>1)] + 2) >> 2... (43)
[00175] Além disso, no evento que zHD é -1, o valor de predição de pixel é gerado como com a seguinte expressão (44), e no evento que zHD é outro do que este, especificamente, no evento que zHD é -2, -3, -4, -5, -6, ou - 7, o valor de predição de pixel é gerado como com a seguinte expressão (45). pred8x8L[x, y] = (p'[-1, 0] + 2*p'[-1, -1] + p'[0, -1] + 2) >> 2... (44) pred8x8L[x, y] = (p'[x-2*Y-1, -1] + 2*p'[x-2*y-2, -1] + p'[x-2*y-3, -1] + 2) >> 2... (45)
[00176] O modo 7 é um modo de Vertical_Left_prediction, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, o modo de Vertical_Left_prediction é aplicado somente quando p[x, -1], x = 0, ..., 15, está “disponível”, no caso que y = 0, 2, 4, ou 6, o valor de predição de pixel é gerado como com a seguinte expressão (46), e no casos outros do que este, i.e., no caso que y = 1, 3, 5, ou 7, o valor de predição de pixel é gerado como com a seguinte expressão (47). pred8x8L[x, y] = (p'[x+(y>>1), -1] + p'[x+(y>>1)+1, -1] + 1) >> 1... (46) pred8x8L[x, y] = (p'[x+(y>>1), -1] + 2*p'[x+(y>>1)+1, -1] + p'[x+(y>>1)+2, -1] + 2) >> 2... (47)
[00177] O modo 8 é um modo de Horizontal_Up_prediction, e o valor de predição pred8x8L[x, y] é gerado como a seguir. Especificamente, o modo de Horizontal_Up_prediction é aplicado somente quando p[-1, y], y = 0, ., 7, está “disponível”. Daqui em diante, zHU é definido como com a seguinte expressão (48). zHU = x + 2*y... (48)
[00178] No evento que o valor de zHU é 0, 2, 4, 6, 8, 10, ou 12, o valor de predição de pixel é gerado como com a seguinte expressão (49), e no evento que o valor de zHU é 1, 3, 5, 7, 9, ou 11, o valor de predição de pixel é gerado como com a seguinte expressão (50). pred8x8L[x, y] = (p'[-1, y+(x>>1)] + p'[-1, y+(x>>1)+1] + 1) >> 1... (49) pred8x8L[x, y] = (p'[-1, y+(x>>1)]... (50)
[00179] Além disso, no evento que o valor de zHU é 13, o valor de predição de pixel é gerado como com a seguinte expressão (51), e no casos outros do que este, i.e., no evento que o valor de zHU é maior do que 13, o valor de predição de pixel é gerado como com a seguinte expressão (52). pred8x8L[x, y] = (p'[-1, 6] + 3*p'[-1, 7] + 2) >> 2... (51) pred8x8L[x, y] = p'[-1, 7]... (52)
[00180] A seguir, o modo de intra-predição de 16 x 16 pixels será descrito. Fig. 10 e Fig. 11 são diagramas mostrando os quatro tipos dos modos de intra-predições de 16 x 16 pixels para sinais de intensidade luminosa por unidade de área (Intra_16x16_pred_mode).
[00181] Os quatro tipos de modos de intra-predições serão descritos com referência à Fig. 12. Com o exemplo na Fig. 12, um bloco macro atual A a ser submetido ao intra-processamento é mostrado, e P(x, y); x, y = -1, 0, ..., 15 representa o valor de pixel de um pixel vizinho do bloco macro atual A.
[00182] O modo 0 é um modo de Prognóstico Vertical, e é aplicado somente quando P(x, -1); x, y = -1, 0, ., 15 está “disponível”. Neste caso, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (53). Pred (x, y) = P(x, -1); x, y = 0, ., 15... (53)
[00183] O modo 1 é um modo de Prognóstico Horizontal, e é aplicada somente quando P(-1, y); x, y = -1, 0, ., 15 está “disponível”. Neste caso, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (54). Pred (x, y) = P(-1, y); x, y = 0, ., 15... (54)
[00184] O modo 2 é um Modo de Prognóstico DC, e no caso que todos de P(x, -1) e P(-1, y); x, y = -1, 0, ., 15 estão “disponíveis”, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (55). [Expressão Matemática 4]
Figure img0004
[00185] Além disso, no evento que P(x, -1); x, y = -1, 0, ., 15 estão “indisponíveis”, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (56). [Expressão Matemática 5]
Figure img0005
[00186] No evento que P(-1, y); x, y = -1, 0, ..., 15 estão “indisponíveis”, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (57). [Expressão Matemática 6]
Figure img0006
[00187] No evento que todos de P(x, -1) e P(-1, y); x, y = -1, 0, ..., 15 estão “indisponíveis”, 128 é empregado com o valor de predição de pixel.
[00188] O modo 3 é um modo de Prognóstico Plano, e é aplicado somente quando todos de P(x, -1) e P(-1, y); x, y = -1, 0, ..., 15 estão “disponíveis”. Neste caso, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (58).[Expressão Matemática 7]
Figure img0007
[00189] A seguir, os modos de intra-predições quanto aos sinais de diferença de cor serão descritos descrita. Fig. 13 é um diagrama mostrando os quatro tipos de modos de intra-predições para sinais de diferença de cor (Intra_chroma_pred_mode). Os modos de intra-predições para sinais de diferença de cor podem ser configurados independentemente dos modos de intra-predições para sinais de intensidade luminosa por unidade de área. Os modos de intra-predições quanto aos sinais de diferença de cor condizem com os modos de intra-predições de 16 x 16 pixels mencionados acima para sinais de intensidade luminosa por unidade de área.
[00190] Contudo, os modos de intra-predições de 16 x 16 pixels para sinais de intensidade luminosa por unidade de área consideram um bloco de 16 x 16 pixels como o objeto, mas por outro lado, os modos de intra- predições quanto aos sinais de diferença de cor considera um bloco de 8 x 8 pixels como o objeto. Adicionalmente, conforme mostrado nas Fig. 10 e Fig. 13 mencionadas acima, números de modos entre ambos não correspondem.
[00191] Agora, vamos considerar as definições dos valores dos pixels do bloco atual A no modo de intra-predição de 16 x 16 pixels para a intensidade luminosa por unidade de área sinal descrito acima com referência à Fig. 12, e um valor de pixel vizinho. Por exemplo, vamos dizer que o valor de pixel de um pixel vizinho do bloco macro atual A (8 x 8 pixels no evento de sinal de diferença de cor) a ser submetido à intra-processamento é considerado como P(x, y); x, y = -1, 0, ..., 7.
[00192] O modo 0 é um modo de Prognóstico DC, e no evento que todos de P(x, -1) e P(-1, y); x, y = -1, 0, ..., 7 estão “disponíveis”, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (59).[Expressão Matemática 8]
Figure img0008
[00193] Além disso, no evento que P(-1, y); x, y = -1, 0, ..., 7 estão “indisponíveis”, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (60). [Expressão Matemática 9]
Figure img0009
[00194] Além disso, no evento que P(x, -1); x, y = -1, 0, ..., 7 estão “indisponíveis”, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (61). [Expressão Matemática 10]
Figure img0010
[00195] O modo 1 é um modo de Prognóstico Horizontal, e é aplicado somente quando P(-1, y); x, y = -1, 0, ..., 7 está “disponível”. Neste caso, o valor de predição de pixel Pred (x, y) e cada pixel do bloco macro atual A é gerado como com a seguinte expressão (62). Pred (x, y) = P(-1, y); x, y = 0, ..., 7... (62)
[00196] O modo 2 é um modo de Prognóstico Vertical, e é aplicado somente quando P(x, -1); x, y = -1, 0, ..., 7 está “disponível”. Neste caso, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (63). Pred (x, y) = P(x, -1); x, y = 0, ..., 7... (63)
[00197] O modo 3 é um modo de Prognóstico Plane, e é aplicado somente quando P(x, -1) e P(-1, y); x, y = -1, 0, ., 7 estão “disponíveis”. Neste caso, o valor de predição de pixel Pred (x, y) de cada pixel do bloco macro atual A é gerado como com a seguinte expressão (64). [Expressão Matemática 11]
Figure img0011
[00198] Conforme descrito acima, os modos de intra-predições para sinais de intensidade luminosa por unidade de área incluem os nove tipos de modo de predições de unidades de bloco de 4 x 4 pixels e 8 x 8 pixels, e os quatro tipos de modo de predições de unidades de bloco macro de 16 x 16 pixels. Os modos dessas unidades de bloco são configurados para cada unidade de bloco macro. Os modos de intra-predições para sinais de diferença de cor incluem os quatro tipos de modo de predições de unidades de bloco de 8 x 8 pixels. Os modos de intra-predições para sinais de diferença de cor podem ser configurados independentemente a partir dos modos de intra- predições para sinais de intensidade luminosa por unidade de área.
[00199] Além disso, com relação aos modos de intra-predições de 4 x 4 pixels (modos de intra-predições de 4 x 4), e os modos de intra-predições de 8 x 8 pixels (modos de intra-predições de 8 x 8) para sinais de intensidade luminosa por unidade de área, um modo de intra-predição é configurado para cada bloco de sinal de intensidade luminosa por unidade de área de 4 x 4 pixels e de 8 x 8 pixels. Com relação ao modo de intra-predição de 16 x 16 pixels modo de intra-predição (modo de intra-predição de 16 x 16) para sinais de intensidade luminosa por unidade de área e aos modos de intra-predições para sinais de diferença de cor, um modo de predição é configurado quanto à um bloco macro.
[00200] Note que os tipos de modos de predições correspondem às direções indicadas com os números 0, 1, 3 à 8 mencionados acima na Fig. 5. O modo de predição 2 é predição de valor médio.
[00201] Conforme descrito acima, com intra-predição de acordo com o formato de H.264 / AVC, processamento de filtração de valores de pixels dos pixels vizinhos é efetuado com determinados coeficientes de filtro somente antes de efetuar intra-predição em incremento de bloco de 8 x 8 pixels conforme descrito acima com a Expressão (14) à Expressão (24). Ao contrário, com o dispositivo de codificação de imagem 51, processamento de filtração de valores de pixels dos pixels vizinhos é efetuado com coeficientes de filtro configurados de acordo com o bloco a ser prognosticado, antes de efetuar intra-predição de todos os modos de intra-predições.
[Exemplo de Configuração da Unidade de Intra-predição e Unidade de Comutação de Filtro de Interpolação de Elemento Mínimo de Imagem Vizinho]
[00202] A Fig. 14 é um diagrama em bloco ilustrando um exemplo detalhado de configuração da unidade de intra-predição 74 e da unidade de comutação de filtro de interpolação de pixel vizinho 75 mostrado na Fig. 1.
[00203] No caso do exemplo na Fig. 14, a unidade de intra-predição 74 é configurada de uma unidade de configuração de imagem vizinha 81, uma unidade de geração de imagem de predição 82, e uma unidade de determinação de modo de predição ótimo 83.
[00204] A unidade de comutação de filtro de interpolação de pixel vizinho 75 é configurada de uma área de armazenamento temporário de modo de predição 91, uma área de armazenamento temporário de parâmetro de quantização 92, e uma unidade de configuração de filtro passa baixa 93. Note que a unidade de configuração de filtro passa baixa 93 tem embutida uma memória de coeficiente de filtro 94.
[00205] A unidade de configuração de imagem vizinha 81 é fornecida com valores de pixels vizinhos de um bloco atual para intra-predição a partir da memória de quadro 72. Enquanto ilustração do comutador 73 é omitida no caso da Fig. 14, na realidade, fornecimento é efetuado a partir da memória de quadro 72 para a unidade de configuração de imagem vizinha 81 via o comutador 73. Note que no caso de intra-predição, valores de pixels não submetidos à filtração de desbloqueio pelo filtro de desbloqueio 71 são usados como valores de pixels vizinhos.
[00206] A unidade de configuração de imagem vizinha 81 usa o coeficiente de filtro configurado pela unidade de configuração de filtro passa baixa 93 para efetuar processamento de filtro dos valores de pixels vizinhos do bloco atual a partir da memória de quadro 72, e supre os valores de pixels vizinhos submetidos ao processamento de filtro para a unidade de geração de imagem de predição 82.
[00207] A unidade de geração de imagem de predição 82 supre informação de qual modo o modo de intra-predição atualmente sendo processado é, para a área de armazenamento temporário de modo de predição 91. A unidade de geração de imagem de predição 82 usa os valores de pixels vizinhos submetidos ao processamento de filtro a partir da unidade de configuração de imagem vizinha 81 para efetuar intra-predição do bloco atual no modo de intra-predição fornecido para a área de armazenamento temporário de modo de predição 91, e gera a imagem de predição. A imagem de predição gerada é fornecida para a unidade de determinação de modo de predição ótimo 83 junto com a informação de modo de intra-predição.
[00208] A unidade de determinação de modo de predição ótimo 83 é fornecida com a imagem a ser submetida à intra-predição que é lida a partir da tela re-arranjamento de área de armazenamento temporário 62, a imagem de predição gerada pela unidade de geração de imagem de predição 82, e a informação do modo de intra-predição da mesma.
[00209] A unidade de determinação de modo de predição ótimo 83 usa a informação fornecida para calcular um valor de função de custo para o modo de intra-predição considerando que a imagem de predição foi gerada, usando a informação fornecida, e decide o modo de intra-predição produzindo o menor valor do valor de função de custo calculado para ser o modo de intra- predição ótimo. A unidade de determinação de modo de predição ótimo 83 emite a imagem de predição do modo de intra-predição ótimo e o correspondente valor de função de custo para a unidade de seleção de imagem de predição 77.
[00210] Além disso, no evento de uma imagem de predição gerada no modo de intra-predição ótimo ser selecionada pela unidade de seleção de imagem de predição 77, a unidade de determinação de modo de predição ótimo 83 supre informação indicando o modo de intra-predição ótimo para a unidade de codificação sem perda 66.
[00211] A área de armazenamento temporário de modo de predição 91 armazena informação de modo de intra-predição a partir da unidade de geração de imagem de predição 82. A área de armazenamento temporário de parâmetro de quantização 92 armazena o parâmetro de quantização a partir da unidade de controle de taxa 78.
[00212] A unidade de configuração de filtro passa baixa 93 lê a informação de modo de intra-predição do bloco atual a partir da área de armazenamento temporário de modo de predição 91, e lê o parâmetro de quantização correspondendo ao bloco atual a partir da área de armazenamento temporário de parâmetro de quantização 92. A unidade de configuração de filtro passa baixa 93 configura, a partir dos coeficientes de filtro armazenados na memória de coeficiente de filtro 94 embutida, os coeficientes de filtro correspondendo a esta informação, e supre os coeficientes de filtro configurados para a unidade de configuração de imagem vizinha 81.
[00213] A memória de coeficiente de filtro 94 armazena coeficientes de filtro correspondendo aos parâmetros de quantização e modos de intra- predições obtidos através de aprendizagem usando a imagem de treinamento em um dispositivo de treinamento 251 na Fig. 28 que será descrito mais tarde. Os coeficientes de filtro são calculados e armazenados conforme descrito a seguir, para cada pedaço de sequência de bloco, por exemplo.
[Descrição de Cálculo de Coeficientes de Filtro Ótimos]
[00214] A seguir, um método de cálculo de coeficientes de filtro ótimos, usado para este processamento de filtro de pixels vizinhos será descrito com referência à Fig. 15. Note que no exemplo na Fig. 15, um exemplo de efetuar predição vertical predição (Prognóstico Vertical) para um bloco atual de 4 x 4 pixels é mostrado, mas a seguinte descrição é de um caso aplicável à qualquer modo de intra-predição.
[00215] Com o intra-predição em incrementos de blocos de 8 x 8 pixels conforme descrito acima com Expressão (14) à Expressão (24), um3- coeficiente de tap de filtro de 3 saídas de {1, 2, 1} é definido como um filtro passa baixa para pixels vizinhos, mas nós vamos considerar que {c0, c1, c2} é uma forma comum de uma 3 saídas. Adicionalmente, com a presente invenção, um quarto parâmetro c3 é também introduzido como um valor de desvio.
[00216] Note que enquanto este filtro de 3 saídas é descrito como sendo configurável para cada pedaço de sequência de bloco na seguinte descrição, este é não restrito a isto, e pode ser configurável para a inteira sequência, ou para cada GOP, por exemplo.
[00217] No exemplo na Fig. 15, akm(0 < k, m < 3) é o valor de pixel de um pixel incluída no bloco atual, e bm (-1 < m < 4) é um valor de pixel de um pixel vizinho usado para predição vertical.
[00218] Primeiro, o b'm (0 < m < 3) mostrado na seguinte Expressão (65) é gerado pelo processamento de filtração de 3 saídas sendo efetuado no valor de pixel vizinho bm.[Expressão Matemática 12]
Figure img0012
[00219] Isto é para dizer, no evento que o processamento de filtração é efetuado, e um coeficiente de filtro é usado, nós vamos dizer que um correspondente valor de desvio é também usada conforme mostrado na Expressão (65), mesmo sem particularmente mencionar o seguinte. Em outras palavras, coeficientes de filtro e valores de desvio são coeficientes usados para processamento de filtração. Na mesma maneira, no evento que um coeficiente de filtro é enviado para o lado de decodificação codificado, nós vamos dizer que o correspondente valor de desvio é também enviado codificado.
[00220] Agora, se vamos dizer que o valor de predição de pixel quando o modo de intra-predição é n é pij (b'm, n); 0 < i, j < 3, a seguinte expressão (66) se mantém considerando o intra-valor de predição de pixel, já que a predição pixel é gerado por uma expressão linear, conforme descrito acima com referência à Fig. 2 à Fig. 14.[Expressão Matemática 13]
Figure img0013
[00221] Neste momento, o erro quadrado de predição quanto ao bloco atual Q com ay conforme o valor de imagem original de pixel é conforme mostrado na seguinte Expressão (67). [Expressão Matemática 14]
Figure img0014
[00222] Agora, se representamos com Φ um conjunto de intra blocos codificados com o modo de intra-predição no pedaço de sequência de bloco atual, a soma do erro quadrado de predição relacionando aos blocos pertencendo à Φ é representado com a seguinte expressão (68). [Expressão Matemática 15]
Figure img0015
[00223] Na Expressão (68) acima, nós vamos considerar Err(Q e Φ) para ser uma função de co, ci, c2, c3, i.e., Err(Q e Φ; co, ci, c2, 03), assim um c0, c1, c2, c3 que minimiza Err (Q e Φ; c0, c1, c2, c3) será um ótimo valor de coeficiente de filtro no pedaço de sequência de bloco atual. Isto é para dizer, é suficiente para obter um co, ci, c2, c3 onde a seguinte expressão (69) tem. [Expressão Matemática 16]
Figure img0016
[00224] Isto é para dizer, as equações simultâneas mostradas na seguinte Expressão (70) são obtidas da Expressão (69).[Expressão Matemática 17]
Figure img0017
[00225] Reformulando esta Expressão (70) usando a matriz produzida pela Expressão (71). [Expressão Matemática 18]
Figure img0018
[00226] Resolvendo esta Expressão (71) permite ao coeficiente de filtro ótimo e valor de desvio {c0, c1, c2, c3 } serem obtidos quanto ao pedaço de sequência de bloco atual.
[00227] Note que coeficientes de filtro ótimo e valores de compensações { c0, c1, c2, c3 } são obtidos como valores de ponto flutuante resolvendo as operações simultâneas na Expressão (70), mas no caso do dispositivo de codificação de imagem 51 na Fig. 1, e o correspondente dispositivo de decodificação de imagem 151 na Fig. 22, esses são arredondados para coeficientes de 8 bits, por exemplo.
[00228] Isto é para dizer, mesmo se os coeficientes de filtro são pontos flutuantes, a memória de coeficiente de filtro 94 os mantém como valores de n bits (onde n é um inteiro) de acordo com o comprimento de registro do processador, por exemplo.
[00229] Aplicando o mesmo método com aquele descrito acima para outros métodos de intra-predições da mesma forma, coeficientes de filtro ótimos também podem ser obtidos para os outros métodos de intra-predições. Além disso, coeficientes de filtro ótimos também podem ser obtidos para não somente o modo de intra-predição de 4x 4, mas também para o modo de intra- predição de 8 x 8, modo de intra-predição de 16 x 16, e modo de intra- predição para sinais de diferença de cor, através do mesmo método.
[00230] Enquanto um coeficiente de filtro é obtido para cada modo de intra-predição na descrição acima, ele não é restrito a isto, e um arranjo pode ser feito onde apenas um coeficiente de filtro é obtido para todos os modos de intra-predições. Particularmente, com o modo de intra-predição descrito acima com referência à Fig. 2 à Fig. 14, valores de predições de pixels são usados conforme eles são modos Vertical (vertical) e Horizontal (horizontal), enquanto algum tipo de processamento de media ou processamento de média ponderada é efetuado para gerar pixels de predição para outros modos, assim as propriedades dos mesmo diferem. Consequentemente, efetuando dois tipos de classificação de classes, de modos Vertical e Horizontal, e outros modos, e calculando coeficientes de filtro para cada classe, pode realizar ainda melhoramento da eficiência de codificação. Além disso, para sinais de intensidade luminosa por unidade de área, pode haver um para o modo de intra-predição de 4 x 4, um para o modo de intra-predição de 4 x 4, e um para o modo de intra-predição de 16 x 416, por exemplo. Para sinais de diferença de cor, coeficientes de filtro podem ser obtidos separadamente para Cb / Cr, por exemplo.
[00231] Além disso, na descrição acima, as três saídas de {c0, c1, c2} forma usada para os coeficientes de filtro para processamento de filtro passa baixa, mas isto não é restrito às 3 saídas, e filtros de qualquer número de saídas pode ser usado. Isto é para dizer, coeficientes de filtro + valores de desvio do número de saídas são obtida. Contudo, conforme o número de saídas aumenta, a ordem de equações simultâneas a serem resolvidas aumenta.
[00232] Adicionalmente, um arranjo pode ser feito caracterizado pelo fato de que coeficientes de filtro que diferem de acordo com um quadro de imagem, tal como CSE (Formato Intermediário Comum) / QCSE (Quarto de CIF), SD (Definição Padrão), HD (Alta definição), ou o similar são preparados, e aplicados.
[00233] Além disso, conforme um método descrito acima, coeficientes de filtro são calculados minimizando o resíduo de intra-predição (erro quadrado de predição). Contudo, o método de cálculo de coeficiente de filtro não é restrito a isto, e no evento que há uma necessidade de enviar coeficientes de filtro para o lado de decodificação, otimização incluindo bits para enviar os coeficientes também pode ser efetuada.
[00234] Adicionalmente, com os coeficientes de filtro descritos acima, vamos assumir simetria dos coeficientes, conforme mostrado na seguinte Expressão (72). C0 = C2... (72)
[00235] Isto é para dizer, coeficientes de filtro são calculados a fim de ter simetria quanto ao coeficiente central correspondendo à fase zero, como com {c0, c1, c0}. Consequentemente, as três equações simultâneas mostradas na Expressão (70) acima pode ser reduzida a duas. Como um resultado a quantidade de computação pode ser reduzida.
[00236] Configurando coeficientes de filtro adequados para a imagem de entrada, e efetuando processamento de filtro passa baixa quanto aos pixels vizinhos em uma maneira adaptativa, usando o método acima, permite codificação ser efetuada usando imagens de predições adequadas para uma imagem, parâmetros de quantização, e modo de predição, e por meio disso, eficiência de codificação pode ser melhorada.
[00237] Dois métodos podem ser concebidos considerando o cálculo de coeficiente de filtro ótimo descrito acima. Um método é processamento off-line onde, antes de efetuar processamento de codificação, sinais de imagens para treinamento são usados para calcular coeficientes de filtro antecipadamente otimizando os sinais de imagens inteiros. Processamento de aprendizado que é este processamento off-line será descrito mais tarde com referência à Fig. 28, e coeficientes de filtro e valores de desvio calculado pelo processamento de aprendizagem são armazenados na memória de coeficiente de filtro 94 na Fig. 14.
[00238] O segundo método é processamento on-line onde coeficientes de filtro ótimos são sucessivamente calculados para cada pedaço de sequência de bloco. Neste caso, os coeficientes de filtro e valores de desvio calculados são enviados para o lado de decodificação. Um exemplo de um caso de efetuar processamento on-line que é o segundo método será descrito mais tarde com referência à Fig. 20.
[Descrição de Processamento de Codificação do Dispositivo de Codificação de Imagem]
[00239] A seguir, o processamento de codificação do dispositivo de codificação de imagem 51 na Fig. 1 será descrita com referência ao fluxograma na Fig. 16.
[00240] Na etapa S11, a unidade de conversão de A / D 61 converte uma imagem de entrada de analógico para digital. Na etapa S12, a tela re- arranjamento de área de armazenamento temporário 62 armazena a imagem fornecida a partir da unidade de conversão de A / D 61, e efetua re- arranjamento da sequência para exibir as imagens na sequência para codificação.
[00241] Na etapa S13, a unidade de computação 63 computa diferença entre uma imagem re-arranjada na etapa S12 e a imagem de predição. A imagem de predição é fornecida para a unidade de computação 63 a partir da unidade de desvio / predição de movimento 76 no evento de efetuar inter- predição, e a partir da unidade de intra-predição 74 no evento de efetuar intra- predição, via a unidade de seleção de imagem de predição 77.
[00242] Os dados de diferença são menores na quantidade de dados quando comparados com os dados de imagem originais. Consequentemente, a quantidade de dados pode ser comprimida quando comparado com o caso de codificar a imagem original sem mudança.
[00243] Na etapa S14, a unidade de transformada ortogonal 64 submete a informação de diferença fornecida a partir da unidade de computação 63 para a transformada ortogonal. Especificamente, transformada ortogonal, tal como transformada de co-seno discreto, transformada de Karhunen-Loéve, ou o similar, é efetuada, e um coeficiente de transformada é emitido. Na etapa S15, a unidade de quantização 65 faz quantização do coeficiente de transformada. No momento desta quantização, a taxa é controlada tal que processamento descrito mais tarde na etapa S25 será descrito.
[00244] A informação de diferença a qual foi aplicada quantização é localmente decodificada como a seguir. Especificamente, na etapa S16, a unidade de quantização inversa 68 submete o coeficiente de transformada ao qual foi aplicado quantização pela unidade de quantização 65 para quantização inversa usando um propriedade correspondendo à propriedade da unidade de quantização 65. Na etapa S17, a unidade de transformada ortogonal inversa 69 submete o coeficiente de transformada submetido à quantização inversa pela unidade de quantização inversa 68 à transformada ortogonal inversa usando uma propriedade correspondendo à propriedade da unidade de transformada ortogonal 64.
[00245] Na etapa S18, a unidade de computação 70 adiciona uma imagem de predição entrada via a unidade de seleção de imagem de predição 77 to a localmente informação de diferença decodificada, e gera uma imagem localmente decodificada (a imagem correspondendo à entrada para a unidade de computação 63). Na etapa S19, o filtro de desbloqueio 71 submete a imagem emitida a partir da unidade de computação 70 para filtração. Assim sendo, distorção de bloco é removida. Na etapa S20, a memória de quadro 72 armazena a imagem submetida para filtração. Note que uma imagem não submetida ao processamento de filtração pelo filtro de desbloqueio 71 é também fornecida a partir da unidade de computação 70 para a memória de quadro 72 para armazenamento.
[00246] Na etapa S21, a unidade de intra-predição 74 e a unidade de desvio / predição de movimento 76 cada uma efetua processamento de predição de imagem. Especificamente, na etapa S21, a unidade de intra- predição 74 efetua processamento de intra-predição no modo de intra- predição. A unidade de desvio / predição de movimento 76 efetua predição de movimento e processamento de desvio no modo de inter-predição.
[00247] Os detalhes do processamento de predição na etapa S21 serão descritos mais tarde com referência à Fig. 17, mas de acordo com este processamento, os processos de predição em todos os modos de predições candidatos são efetuados, e os valores de função de custo em todos os modos de predições de candidatos são calculados. O modo de intra-predição ótimo é então selecionado com base nos valores de função de custo calculados, e a imagem de predição gerada pelo intra-predição no modo de intra-predição ótimo, e o valor de função de custo doa mesma são fornecidos para a unidade de seleção de imagem de predição 77.
[00248] Note que neste momento, antes do processamento de intra- predição, a unidade de intra-predição 74 efetua processamento de filtração quanto aos pixels vizinhos usados para inter-predição dos blocos atuais, usando os coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 75. Intra-predição é então efetuado na unidade de intra-predição 74 usando os pixels vizinhos submetidos ao processamento de filtração, e a imagem de predição é gerada.
[00249] Na etapa S22, a unidade de seleção de imagem de predição 77 determina um dos modo de intra-predição ótimo e o modo de inter-predição ótimo para ser o modo de predição ótimo com base nos valores de função de custo emitidos a partir da unidade de intra-predição 74 e da unidade de desvio / predição de movimento 76. A unidade de seleção de imagem de predição 77 então seleciona a imagem de predição no determinado modo de predição ótimo, e o supre para as unidades de computação 63 e 70. Esta imagem de predição é, conforme descrito acima, usada para cálculos na etapa S13 e S18.
[00250] Note que a informação de seleção desta imagem de predição é fornecida para a unidade de intra-predição 74 ou unidade de desvio / predição de movimento 76. No evento que a imagem de predição no modo de intra- predição ótimo foi selecionada, a unidade de intra-predição 74 supre informação indicando o modo de intra-predição ótimo (i.e., informação de modo de intra-predição) para a unidade de codificação sem perda 66.
[00251] No evento que a imagem de predição no modo de inter- predição ótimo foi selecionada, a unidade de desvio / predição de movimento 76 emite informação indicando o modo de inter-predição ótimo, e de acordo com a necessidade, informação de acordo com o modo de inter-predição ótimo para a unidade de codificação sem perda 66. Exemplos da informação de acordo com o modo de inter-predição ótimo incluem informação de vetor de movimento, informação de sinalizador, e informação de quadro de referência. Isto é para dizer, quando uma imagem de predição de acordo com o modo de inter-predição como o modo de inter-predição ótimo é selecionada, a unidade de desvio / predição de movimento 76 emite informação de modo de inter-predição ótimo, informação de vetor de movimento, e informação de quadro de referência, para a unidade de codificação sem perda 66.
[00252] Na etapa S23, a unidade de codificação sem perda 66 codifica o coeficiente de transformada que sofreu quantização emitido a partir da unidade de quantização 65. Especificamente, a imagem de diferença é submetida à codificação sem perda tal como codificação de comprimento variável, codificação aritmética, ou o similar, e comprimida. Neste momento, a informação de modo de intra-predição ótimo a partir da unidade de intra- predição 74, ou a informação de acordo com o modo de inter-predição ótimo a partir da unidade de desvio / predição de movimento 76, e parâmetros de quantização a partir da unidade de controle de taxa 78 e assim por diante, entrados para a unidade de codificação sem perda 66 na etapa S22, são também codificados, e adicionados à informação de cabeçalho.
[00253] Na etapa S24, a área de armazenamento temporário 67 armazena a imagem de diferença como a imagem comprimida. A imagem comprimida armazenada na área de armazenamento temporário 67 é lida conforme apropriado, e transmitida para o lado de decodificação via o caminho de transmissão.
[00254] Na etapa S25, a unidade de controle de taxa 78 controla a taxa da operação de quantização da unidade de quantização 65 através dos parâmetros de quantização, com base na imagem comprimida armazenada na área de armazenamento temporário 67, a fim de não fazer com que haja transbordo ou esvaziamento.
[00255] O parâmetro de quantização usada para controle de taxa da unidade de quantização 65 é fornecido para a unidade de codificação sem perda 66, submetido ao processamento de codificação sem perda na etapa S23 descrita acima, e inserido na porção de cabeçalho da imagem comprimida. Além disso, este parâmetro de quantização é fornecido para a unidade de comutação de filtro de interpolação de pixel vizinho 75, e usado para configuração dos coeficientes de filtro usados no processamento de filtração a ser efetuado nos pixels vizinhos, que é efetuada antes do intra-predição.
[Descrição do Processamento de Prognóstico]
[00256] A seguir, o processamento de predição na etapa S21 na Fig. 16 será descrito com referência ao fluxograma na Fig. 17.
[00257] No evento que a imagem a ser processada, fornecida a partir da tela de re-arranjamento de área de armazenamento temporário 62, é uma imagem em um bloco a ser submetido à intra-processamento, a imagem decodificada a ser referenciada é lida a partir da memória de quadro 72, e fornecido para a unidade de intra-predição 74 via o comutador 73.
[00258] Na etapa S31, a unidade de intra-predição 74 efetua intra- predição dos pixels do bloco a ser processado, em todos os modos de intra- predições candidatos, usando a imagem fornecida. Note que pixels não submetidos à filtração de desbloqueio através do filtro de desbloqueio 71 são usados como pixels decodificados a serem referenciados.
[00259] Os detalhes do processamento de intra-predição na etapa S31 serão descritos com referência à Fig. 18, mas de acordo com este processamento, um coeficiente de filtro ótimo é configurado, e processamento de filtração é efetuado quanto aos pixels vizinhos usando o coeficiente de filtro configurado. Os pixels vizinhos nos quais processamento de filtro foi efetuado são então usados para efetuar intra-predição, e por meio disso, gerar uma imagem de predição.
[00260] O processamento descrito acima é efetuado em todos os modos de intra-predições candidatos, um valor de função de custo é calculado quanto à todos os modos de intra-predições candidatos, e o modo de intra-predição ótimo é decidido com base nos valores de função de custo calculados. A imagem de predição gerada por meio disso, e o valor de função de custo do modo de intra-predição ótimo são fornecidos para a unidade de seleção de imagem de predição 77.
[00261] No evento que a imagem a ser processada fornecida a partir da tela de re-arranjamento de área de armazenamento temporário 62 é uma imagem a ser submetida ao inter-processamento, a imagem a ser referenciada é lida a partir da memória de quadro 72, e fornecido para a unidade de desvio / predição de movimento 76 via o comutador 73. Na etapa S32, com base nessas imagens, a unidade de desvio / predição de movimento 76 efetua processamento de inter-predição de movimento. Isto é para dizer, a unidade de desvio / predição de movimento 76 referencia a imagem fornecida a partir da memória de quadro 72 para efetuar o processamento de predição de movimento em todos os modos de inter-predição candidatos.
[00262] Os detalhes do processamento de inter-predição de movimento na etapa S32 serão descritos mais tarde com referência à Fig. 19, e de acordo com este processamento, o processamento de predição de movimento em todos os modos de inter-predição candidatos é efetuado, e um valor de função de custo é calculado quanto à todos os modos de inter-predição candidatos.
[00263] Na etapa S33, a unidade de desvio / predição de movimento 76 compara os valores de função de custo quanto aos modos de inter-predições calculados na etapa S32, e determina o modo de predição que fornece o valor mínimo, para ser o modo de inter-predição ótimo. A unidade de desvio / predição de movimento 76 então supre a imagem de predição gerada no modo de inter-predição ótimo, e o valor de função de custo da mesma para a unidade de seleção de imagem de predição 77.
[Descrição do Processamento de Intra-predição]
[00264] A seguir, o processamento de intra-predição na etapa S31 na Fig. 17 será descrita com referência ao fluxograma na Fig. 18. Note que com o exemplo na Fig. 18, descrição será feita considerando um caso de um sinal de intensidade luminosa por unidade de área como um exemplo.
[00265] Na etapa S25 na Fig. 16 acima, a unidade de controle de taxa 78 supre um parâmetro de quantização para o bloco atual. Na etapa S41, a área de armazenamento temporário de parâmetro de quantização 92 obtém o parâmetro de quantização para o bloco atual a partir da unidade de controle de taxa 78, e o armazena.
[00266] Na etapa S42, a unidade de geração de imagem de predição 82 seleciona um modo de intra-predição a partir dos modos de intra-predições de 4 x 4 pixels, de 8 x 8 pixels, e de 16 x 16 pixels. A informação de modo de intra-predição selecionada é armazenada na área de armazenamento temporário de modo de predição 91.
[00267] A unidade de configuração de filtro passa baixa 93 lê a informação de modo de intra-predição a partir da área de armazenamento temporário de modo de predição 91, e lê o valor de parâmetro de quantização a partir da área de armazenamento temporário de parâmetro de quantização 92. Na etapa S43, a unidade de configuração de filtro passa baixa 93 então configura, a partir dos coeficientes de filtro calculados para cada pedaço de sequência de bloco que estão armazenados na memória de coeficiente de filtro 94, um coeficiente de filtro correspondendo ao modo de intra-predição e um parâmetro de quantização. O coeficiente de filtro configurado é fornecido para a unidade de configuração de imagem vizinha 81.
[00268] Na etapa S44, a unidade de configuração de imagem vizinha 81 usa o coeficiente de filtro configurado para efetuar processamento de filtração nos valores de pixels vizinhos do bloco atual, e supre os valores de pixels vizinhos submetidos ao processamento de filtração para a unidade de geração de imagem de predição 82.
[00269] Na etapa S43, a unidade de geração de imagem de predição 82 usa os valores de pixels vizinhos submetidos ao processamento de filtração para efetuar intra-predição do bloco atual com o modo de intra-predição selecionado na etapa S42, e gera uma imagem de predição.
[00270] A unidade de determinação de modo de predição ótimo 83 é fornecida com a imagem a ser submetida à intra-predição que foi lida a partir da tela de re-arranjamento de área de armazenamento temporário 62, a imagem de predição gerada pela unidade de geração de imagem de predição 82, e a informação de modo de intra-predição da mesma.
[00271] Na etapa S46, a unidade de determinação de modo de predição ótimo 83 usa a informação fornecida para calcular um valor de função de custo para o modo de intra-predição com a qual a imagem de predição foi gerada. Aqui, cálculo de um valor de função de custo é efetuada com base em uma das técnicas de um modo de Alta Complexidade ou modo de Baixa Complexidade. Esses modos são determinados em JM (Modelos de Articulação ) que é software de referência no formato de H.264 / AVC.
[00272] Especificamente, no modo de Alta Complexidade, tentativamente até o processamento de codificação ser efetuado quanto a todos os modos de predições candidatos conforme o processamento na etapa S45. Um valor de função de custo representado com a seguinte expressão (73) é calculado quanto ao modo de predições, e um modo de predição que fornece o valor mínimo do mesmo é selecionado como o modo de predição ótimo. Cost(Mode) = D + X • R... (73)
[00273] D representa a diferença (distorção) entre a imagem original e uma imagem decodificada, R representa uma quantidade de código gerada incluindo um coeficiente de transformada ortogonal, e X representa um multiplicador de LaGrange a ser fornecido como uma função de um parâmetro de quantização QP.
[00274] Por outro lado, no modo de Baixa Complexidade, uma imagem de predição é gerada, e até os bits do cabeçalho de informação de vetor de movimento, de informação de modo de predição, de informação de sinalizador, e assim por diante são calculados quanto à todos os modos de predições de candidatos conforme o processamento na etapa S45. Um valor de função de custo representado com a seguinte expressão (74) é calculado quanto aos modos de predições, e um modo de predição que fornece o valor mínimo do mesmo é selecionado como o modo de predição ótimo. Cost(Mode) = D + QPtoQuant(QP) + Header_Bit... (74)
[00275] D representa a diferença (distorção) entre a imagem original e uma imagem decodificada, Header_Bit representa os bits do cabeçalho quanto a um modo de predição, e QPtoQuant é uma função fornecida como uma função do parâmetro de quantização QP.
[00276] No modo de Baixa Complexidade, uma imagem de predição é somente gerada quanto à todos os modos de predições, e não há nenhuma necessidade de efetuar processamento de codificação e processamento de decodificação, e consequentemente, quantidade de cálculo pode ser reduzido.
[00277] Na etapa S47, a unidade de determinação de modo de predição ótimo 83 determina se processamento terminou ou não para todos os modos de intra-predições. Isto é para dizer, na etapa S47, determinação é feita considerando se o processamento da etapa S42 à S46 foi ou não efetuado em todos os modos de intra-predições de 4 x 4 pixels, 8 x 8 pixels, e 16 x 16 pixels.
[00278] No evento que determinação é feita na etapa S47 que processamento não terminou para todos os modos de intra-predições, o processamento retorna para a etapa S42, e subseqüente processamento é repetido.
[00279] No evento que determinação é feita na etapa S47 que processamento terminou para todos os modos de intra-predições, o processamento avança para a etapa S48. Na etapa S48, a unidade de determinação de modo de predição ótimo 83 determina o modo de intra- predição do qual o valor de função de custo calculado é o valor mínimo, para ser o modo de intra-predição ótimo.
[00280] A imagem de predição do modo de intra-predição ótimo, e o correspondente valor de função de custo, são fornecidos para a unidade de seleção de imagem de predição 77.
[00281] No evento que a imagem de predição gerada no modo de intra- predição ótimo é selecionada pela unidade de seleção de imagem de predição 77, a unidade de determinação de modo de predição ótimo 83 supre informação indicando o modo de intra-predição ótimo para a unidade de codificação sem perda 66. Isto é então codificado em um unidade de codificação sem perda 66 e adicionada à informação de cabeçalho da imagem comprimida (etapa S23 na Fig. 16 acima).
[00282] Note que os coeficientes de filtro calculados pelo processamento de aprendizagem que são armazenados na memória de coeficiente de filtro 94 são também de forma similar armazenados no dispositivo de decodificação de imagem 151 na Fig. 22 que será descrito mais tarde, e por meio disso, os coeficientes de filtro configurados não têm de ser adicionados à informação de cabeçalho da imagem comprimida e enviados.
[00283] Consequentemente, no caso de H.264 / AVC, há 51 parâmetros de quantização, há nove modos de intra-predições para 4 x 4 pixels e 8 x 8 pixels, e quando essas combinações são consideradas, um imenso número de coeficientes de filtro, que é 51 x 9 = 459, se torna necessário. Informação relacionada a tal um imenso número de coeficientes de filtro não tem de ser enviado para o lado de decodificação, assim processamento pode ser realizado sem aumentar a sobrecarga de informação de coeficiente.
[Descrição do Processamento de Inter-predição de Movimento]
[00284] A seguir, o processamento de inter-predição de movimento na etapa S32 na Fig. 17 será descrito com referência ao fluxograma na Fig. 19.
[00285] Na etapa S61, a unidade de desvio / predição de movimento 76 determina um vetor de movimento e a imagem de referência quanto à cada um dos oito tipos dos modos de inter-predições composto de 16 x 16 pixels à 4 x 4 pixels. Isto é para dizer, um vetor de movimento e uma imagem de referência são cada um determinado quanto ao bloco a ser processado em cada um dos modos de inter-predições.
[00286] Na etapa S62, a unidade de desvio / predição de movimento 76 submete a imagem de referência para predição de movimento e processamento de desvio com base no vetor de movimento determinado na etapa S61 considerando cada um dos oito tipos dos modos de inter-predições compostos de 16 x 16 pixels à 4 x 4 pixels. De acordo com este predição de movimento e processamento de desvio, uma imagem de predição em cada um dos modos de inter-predições é gerado.
[00287] Na etapa S63, a unidade de desvio / predição de movimento 76 gera informação de vetor de movimento a ser adicionado à imagem comprimida considerando o vetor de movimento determinado quanto à cada um dos oito tipos de modos de inter-predições composto de 16 x 16 pixels através de 4 x 4 pixels.
[00288] A informação de vetor de movimento gerada é também usada no momento de cálculo de um valor de função de custo na próxima etapa S64, e emite, no evento que a correspondente imagem de predição finalmente e foi selecionada pela unidade de seleção de imagem de predição 77, para a unidade de codificação sem perda 66 junto com a informação de modo de predição e informação de quadro de referência.
[00289] Na etapa S64, a unidade de desvio / predição de movimento 76 calcula o valor de função de custo mostrado na Expressão (73) ou Expressão (74) mencionada acima quanto à cada um dos oitos tipos dos modos de inter- predições compostos de 16 x 16 pixels à 4 x 4 pixels. Os valores de função de custo calculados aqui são usados no momento de determinar o modo de inter- predição ótimo na etapa S34 na Fig. 17 descrito acima.
[00290] A seguir, como o segundo método para calcular um coeficiente de filtro ótimo, um exemplo de um caso onde processamento on-line é efetuado no qual coeficientes de filtro ótimos são sucessivamente calculados para cada pedaço de sequência de bloco, será descrito com referência à Fig. 20.
[00291] Agora, neste caso, há uma necessidade de enviar, para o lado de decodificação, os coeficientes de filtro calculados no lado de codificação para cada pedaço de sequência de bloco, e enviar coeficientes de filtro tendo sido quebrado em um grande número de casos conduz à deterioração da eficiência de codificação. Consequentemente, apenas um coeficiente de filtro é enviado para um pedaço de sequência de bloco, ou apenas um é enviado para cada modo de predição para cada tamanho de bloco, ou apenas um é enviado por tipo de modo de predição, tal como predição horizontal, predição vertical, e assim por diante.
[00292] Além disso, no caso do processamento off-line acima, a descrição foi feita considerando um exemplo de usar modo de intra-predição e parâmetros de quantização, como parâmetros para calcular coeficientes de filtro. Por outro lado, no caso de processamento on-line, um grande número de parâmetros para calcular coeficientes de filtro aumenta a quantidade de processamento, assim um exemplo será descrita com a Fig. 20 com relação a um exemplo de usar somente o modo de intra-predição para parâmetros. Enquanto descrição será omitida, apenas parâmetros de quantização podem ser usados, ou ambos parâmetros podem ser usados, como uma questão de rotina.
[Outro Exemplo de Configuração de Unidade de Intra- predição e da Unidade de Comutação de Filtro de Interpolação de pixel Vizinho]
[00293] A Fig. 20 é um diagrama em bloco ilustrando um outro exemplo de configuração da unidade de intra-predição 74 e da unidade de comutação de filtro de interpolação de pixel vizinho 75 e no caso de efetuar processamento on-line em cada pedaço de sequência de bloco para sucessivamente calcular coeficientes de filtro ótimos.
[00294] No caso do exemplo na Fig. 20, um comutador 101 é introduzido entre a unidade de intra-predição 74 e a unidade de comutação de filtro de interpolação de pixel vizinho 75, e diferente do caso mostrado na Fig. 14, comutando o comutador 101 LIGA e DESLIGA, a unidade de intra- predição 74 efetua intra-predição duas vezes. Isto é para dizer, com a unidade de intra-predição 74, intra-predição definido em H.264 / AVC é efetuado no estado em que o comutador 101 está DESLIGA, e coeficientes de filtro adequados para o intra-predição são calculados. No estado que o comutador 101 está LIGA, intra-predição é efetuado com o coeficiente de filtro configurado pela unidade de comutação de filtro de interpolação de pixel vizinho 75 fora dos coeficientes de filtro calculados.
[00295] A unidade de intra-predição 74 na Fig. 20 é configurada de uma unidade de configuração de imagem vizinha 111, uma unidade de geração de imagem de predição 112, e uma unidade de determinação de modo de predição ótimo 113.
[00296] A unidade de comutação de filtro de interpolação de pixel vizinho 75 é configurada de uma área de armazenamento temporário de modo de predição 121, uma unidade de cálculo de filtro ótimo 122, e uma unidade de configuração de filtro passa baixa 123.
[00297] A unidade de configuração de imagem vizinha 111 é fornecida com os valores de pixels vizinhos de todos os blocos atuais do pedaço de sequência de bloco atual para intra-predição a partir da memória de quadro 72. Da mesma forma, no caso na Fig. 20, ilustração do comutador 73 é omitida. Note que no caso de intra-predição, valores de pixels não submetidos à filtração de desbloqueio pelo filtro de desbloqueio 71 são usados como valores de pixels vizinhos.
[00298] No evento que o comutador 101 está em um estado de off, a unidade de configuração de imagem vizinha 111 submete os valores de pixels vizinhos do bloco atual a partir da memória de quadro 72 para processamento de filtração usando coeficientes de filtro somente para modos de intra- predições definidos no H.264 / AVC, e os supre para a unidade de geração de imagem de predição 112. Isto é para dizer, somente no caso do modo de predição de 8 x 8 pixels descrito acima com as Expressão (14) à Expressão (24) são os valores de pixels vizinhos submetidos à processamento de filtração submetida à unidade de geração de imagem de predição 112. Em todos os outros casos, os valores de pixels vizinhos do bloco atual a partir da memória de quadro 72 são fornecidos para a unidade de geração de imagem de predição 112 como eles são.
[00299] No evento que o comutador 101 está no estado de LIGA, a unidade de configuração de imagem vizinha 111 é fornecida com coeficientes de filtro a partir da unidade de configuração de filtro passa baixa 123. Consequentemente, a unidade de configuração de imagem vizinha 111 submete os valores de pixels vizinhos do bloco atual a partir da memória de quadro 72 para processamento de filtração usando os coeficientes de filtro configurados pela unidade de configuração de filtro passa baixa 123, e supre os valores de pixels vizinhos submetidos ao processamento de filtração para a unidade de geração de imagem de predição 112.
[00300] A unidade de geração de imagem de predição 112 usa os valores de pixels vizinhos a partir da unidade de configuração de imagem vizinha 111 para efetuar intra-predição do bloco atual em todos os modos de intra-predições, e gera imagens de predições. As imagens de predições geradas são fornecidas para a unidade de determinação de modo de predição ótimo 113 junto com a informação de modo de intra-predição.
[00301] A unidade de determinação de modo de predição ótimo 113 é fornecida com a imagem para intra-predição que foi lida a partir da tela de re- arranjamento de área de armazenamento temporário 62, as imagens de predições geradas pela unidade de geração de imagem de predição 112, e a informação de modo de intra-predição das mesmas.
[00302] A unidade de determinação de modo de predição ótimo 113 usa a informação fornecida para calcular valores de função de custo para os modos de intra-predições através dos quais as imagens de predições foram geradas, e determina o modo de intra-predição produzindo o menor valor para os valores de função de custo calculados para ser o modo de intra-predição ótimo.
[00303] No evento que o comutador 101 está no estado de DESLIGA, a unidade de determinação de modo de predição ótimo 113 supre a informação do modo de intra-predição ótimo para a área de armazenamento temporário de modo de predição 121. No evento que o comutador 101 está em um estado de LIGA, a unidade de determinação de modo de predição ótimo 113 supre a imagem de predição do modo de intra-predição ótimo, e o correspondente valor de função de custo, para a unidade de seleção de imagem de predição 77.
[00304] Além disso, no evento que a imagem de predição gerada no modo de intra-predição ótimo é selecionada pela unidade de seleção de imagem de predição 77, a unidade de determinação de modo de predição ótimo 113 supre informação indicando o modo de intra-predição ótimo para a unidade de codificação sem perda 66.
[00305] A área de armazenamento temporário de modo de predição 121 armazena a informação de modo de intra-predição a partir da unidade de determinação de modo de predição ótimo 113.
[00306] A unidade de cálculo de filtro ótimo 122 é fornecida com a imagem para intra-predição que foi lida a partir da tela de re-arranjamento de área de armazenamento temporário 62, e os valores de pixels vizinhos do bloco atual a partir da memória de quadro 72. A unidade de cálculo de filtro ótimo 122 lê o modo de intra-predição para cada bloco incluído no pedaço de sequência de bloco atual a partir da área de armazenamento temporário de modo de predição 121. A unidade de cálculo de filtro ótimo 122 então usa esta informação para calcular os coeficientes de filtro ótimos para os modos de intra-predições do pedaço de sequência de bloco atual conforme descrito acima com referência à Fig. 15, e supre os coeficientes de filtro calculados para a unidade de configuração de filtro passa baixa 123.
[00307] A unidade de configuração de filtro passa baixa 123 configura, a partir dos coeficientes de filtro do pedaço de sequência de bloco atual que foram calculados, um coeficiente de filtro para o bloco atual, liga o terminal do comutador 101 em LIGA, e supre o coeficiente de filtro configurado para a unidade de configuração de imagem vizinha 111. Além disso, a unidade de configuração de filtro passa baixa 123 supre o coeficiente de filtro para o pedaço de sequência de bloco atual para a unidade de codificação sem perda
[Outra Descrição do Processamento de Intra-predição]
[00308] A seguir, o processamento de intra-predição que a unidade de intra-predição 74 e a unidade de comutação de filtro de interpolação de pixel vizinho 75 na Fig. 20 efetuam será descrito com referência ao fluxograma na Fig. 21. Note que este processamento de intra-predição é um outro exemplo do processamento de intra-predição da etapa S31 na Fig. 17.
[00309] Primeiro, o comutador 101 está em um estado de DESLIGA. A unidade de configuração de imagem vizinha 111 é fornecida com valores de pixels vizinhos de todos os bloco atuais do pedaço de sequência de bloco atual a ser submetido à intra-predição, a partir da memória de quadro 72. A unidade de configuração de imagem vizinha 111 efetua processamento de filtração nos valores de pixels vizinhos do bloco atual a partir da memória de quadro 72 usando os coeficientes de filtro somente para o modo de intra- predição de 8 x 8 pixels definido em H.264 / AVC, e os supre para a unidade de geração de imagem de predição 112. Isto é para dizer, no caso de outros modos de intra-predições, os valores de pixels vizinhos do bloco atual a partir da memória de quadro 72 são fornecidos para a unidade de geração de imagem de predição 112 como eles são.
[00310] Na etapa S101, a unidade de geração de imagem de predição 112 efetua processamento de intra-predição em todos os blocos incluídos no pedaço de sequência de bloco atual. Isto é para dizer, a unidade de geração de imagem de predição 112 usa os valores de pixels vizinhos do bloco atual a partir da unidade de configuração de imagem vizinha 111 para efetuar intra- predição em cada modo de intra-predição, e gera imagens de predições.
[00311] A unidade de determinação de modo de predição ótimo 113 é fornecida com a imagem a ser submetida à intra-predição que foi lida a partir da tela de re-arranjamento de área de armazenamento temporário 62, com as imagens de predições geradas pela unidade de geração de imagem de predição 112, e com a informação de modo de intra-predição do mesmo.
[00312] Na etapa S102, a unidade de determinação de modo de predição ótimo 113 usa a informação fornecida para calcular os valores de função de custo na Expressão (73) ou Expressão (74) descrito acima para todos os modos de intra-predições considerado que uma imagem de predição foi gerada.
[00313] Na etapa S103, a unidade de determinação de modo de predição ótimo 113 determina o modo de intra-predição onde o valor de função de custo na Expressão (73) ou Expressão (74) é o menor para ser o modo de intra-predição ótimo, e supre a informação do determinado modo de intra-predição para a área de armazenamento temporário de modo de predição 121.
[00314] A unidade de cálculo de filtro ótimo 122 é fornecida com a imagem a ser submetida para intra-predição que foi lida a partir da tela de re- arranjamento de área de armazenamento temporário 62, e os valores de pixels vizinhos do bloco atual a partir da memória de quadro 72. A unidade de cálculo de filtro ótimo 122 lê o modo de intra-predição para cada bloco incluído no pedaço de sequência de bloco atual da área de armazenamento temporário de modo de predição 121.
[00315] Na etapa S104, a unidade de cálculo de filtro ótimo 122 usa esta informação para calcular um coeficiente de filtro que minimiza o resíduo do pedaço de sequência de bloco atual global como o coeficiente de filtro ótimo para cada um dos modos de intra-predições do pedaço de sequência de bloco atual. Os coeficientes de filtro calculados conforme descrito acima com referência à Fig. 15 são fornecidos para a unidade de configuração de filtro passa baixa 123.
[00316] A unidade de configuração de filtro passa baixa 123 configura, a partir dos coeficientes de filtro calculados para o pedaço de sequência de bloco atual, um coeficiente de filtro correspondendo ao bloco atual, liga o terminal do comutador 101 em LIGA, e supre o coeficiente de filtro configurado para a unidade de configuração de imagem vizinha 111.
[00317] Na etapa S105, a unidade de configuração de imagem vizinha 111 usa o coeficiente de filtro configurado pela unidade de configuração de filtro passa baixa 123 para efetuar processamento de filtração nos valores de pixels vizinhos do bloco atual a partir da memória de quadro 72.
[00318] Os valores de pixels vizinhos submetidos ao processamento de filtro são fornecidos para a unidade de geração de imagem de predição 112. Na etapa S106, a unidade de geração de imagem de predição 112 efetua intra- predição de novo em todos os blocos incluídos no pedaço de sequência de bloco atual usando os valores de pixels vizinhos submetidos ao processamento de filtração, gerando a imagem de predição. A imagem de predição gerada é fornecida para a unidade de determinação de modo de predição ótimo 113 junto com a informação de modo de intra-predição.
[00319] No evento que o comutador 101 está ligado, a unidade de determinação de modo de predição ótimo 113 supre a imagem de predição do modo de intra-predição ótimo, e o correspondente valor de função de custo, para a unidade de seleção de imagem de predição 77.
[00320] Na etapa S22 na Fig. 16 descrita acima, a unidade de seleção de imagem de predição 77 determina um de, modo de intra-predição ótimo e modo de inter-predição ótimo para ser o modo de predição ótimo, e supre informação de seleção da imagem de predição.
[00321] Na etapa S107, a unidade de determinação de modo de predição ótimo 113 determina se é ou não a imagem de predição do modo de intra-predição ótimo foi selecionado, de acordo com a informação de seleção da imagem de predição. No evento que determinação é feita na etapa S107 que a imagem de predição do modo de intra-predição ótimo foi selecionada, o processamento avança para a etapa S108.
[00322] Na etapa S108, a unidade de determinação de modo de predição ótimo 113 supre a informação de modo de intra-predição para a unidade de codificação sem perda 66. Note que, no evento que coeficientes de filtro não foram ainda fornecidos considerando o pedaço de sequência de bloco atual, o coeficiente de filtro a partir da unidade de cálculo de filtro ótimo 122 é também fornecido para a unidade de codificação sem perda 66.
[00323] No evento que determinação é feita na etapa S107 que a imagem de predição do modo de intra-predição ótimo não foi selecionada, o processamento de intra-predição termina.
[00324] Note que um coeficiente de filtro otimizado adicional pode ser obtido repetindo o processamento das etapas S104 à S106 descritas acima.
[00325] A imagem comprimida decodificada é transmitida via um pré- determinado caminho de transmissão, e decodificada pelo dispositivo de decodificação de imagem.
[Exemplo de Configuração do Dispositivo de Decodificação de Imagem]
[00326] A Fig. 22 representa a configuração de uma modalidade de um dispositivo de decodificação de imagem servindo como o dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00327] Um dispositivo de decodificação de imagem 151 é configurado de uma área de armazenamento temporário 161, uma unidade de decodificação sem perda 162, uma unidade de quantização inversa 163, uma unidade de transformada ortogonal inversa 164, um unidade de computação 165, um filtro de desbloqueio 166, uma tela de re-arranjamento de área de armazenamento temporário 167, uma unidade de conversão de D / A 168, uma memória de quadro 169, um comutador 170, uma unidade de intra- predição 171, uma unidade de comutação de filtro de interpolação de pixel vizinho 172, uma unidade de desvio / predição de movimento 173, e um comutador 174.
[00328] A área de armazenamento temporário 161 armazena uma imagem comprimida transmitida. A unidade de decodificação sem perda 162 decodifica informação fornecida a partir da área de armazenamento temporário 161 e codificada pela unidade de codificação sem perda 66 na Fig. 1 usando um formato correspondendo ao formato de codificação da unidade de codificação sem perda 66. A unidade de quantização inversa 163 submete a imagem decodificada através da unidade de decodificação sem perda 162 para quantização inversa usando um formato correspondendo ao formato de quantização da unidade de quantização 65 na Fig. 1. A unidade de transformada ortogonal inversa 164 submete a saída da unidade de quantização inversa 163 à transformada ortogonal inversa usando um formato correspondendo ao formato de transformada ortogonal da unidade de transformada ortogonal 64 na Fig. 1.
[00329] A saída submetida à transformada ortogonal inversa é decodificada sendo adicionada com a imagem de predição fornecida a partir do comutador 174 pela unidade de computação 165. O filtro de desbloqueio 166 remove a distorção de bloco da imagem decodificada, então a supre para a memória de quadro 169 para armazenamento, e também a emite para a tela de re-arranjamento de área de armazenamento temporário 167.
[00330] A tela de re-arranjamento de área de armazenamento temporário 167 efetua re-arranjamento das imagens. Especificamente, a sequência de quadros re-arranjados para sequência de codificação pela tela de re-arranjamento de área de armazenamento temporário 62 na Fig. 1 é re- arranjada para a sequência de exibição original. A unidade de conversão de D / A 168 converte a imagem fornecida a partir da tela de re-arranjamento de área de armazenamento temporário 167 de digital para analógica, e a emite para um monitor desconhecido para exibição.
[00331] O comutador 170 lê uma imagem a ser submetida à inter- processamento e uma imagem a ser referenciada a partir da memória de quadro 169, emite para a unidade de desvio / predição de movimento 173, e também lê uma imagem a ser usada para intra-predição a partir da memória de quadro 169, e a supre para a unidade de intra-predição 171.
[00332] Informação indicando o modo de intra-predição obtida decodificando a informação de cabeçalho é fornecida a partir da unidade de decodificação sem perda 162 para a unidade de intra-predição 171. A unidade de intra-predição 171 gera uma imagem de predição efetuando processamento de filtração e intra-predição nos valores de pixels vizinhos usando o coeficiente de filtro configurado pela unidade de comutação de filtro de interpolação de pixel vizinho 172, com base nesta informação, e emite a imagem de predição gerada para o comutador 174.
[00333] A unidade de comutação de filtro de interpolação de pixel vizinho 172 é fornecida com pelo menos uma da informação indicando o modo de intra-predição obtido decodificando a informação de cabeçalho e da informação de parâmetro de quantização, de acordo com a codificação no dispositivo de codificação de imagem 51, a partir da unidade de decodificação sem perda 162. Na mesma maneira que com a unidade de comutação de filtro de interpolação de pixel vizinho 75 na Fig. 1, a unidade de comutação de filtro de interpolação de pixel vizinho 172 armazena coeficientes de filtro correspondendo à pelo menos um do parâmetro de quantização e modo de intra-predição, obtidos através de aprendizagem no dispositivo de treinamento 251 na Fig. 28 que será descrito mais tarde.
[00334] A unidade de comutação de filtro de interpolação de pixel vizinho 172 configura um coeficiente de filtro correspondendo à pelo menos um do parâmetro de quantização e modo de intra-predição a partir da unidade de decodificação sem perda 162. A unidade de comutação de filtro de interpolação de pixel vizinho 172 supre o coeficiente de filtro configurado para a unidade de intra-predição 74.
[00335] Note que com a unidade de comutação de filtro de interpolação de pixel vizinho 172, coeficientes de filtro aprendidos off-line antecipadamente são armazenados. Note contudo, no evento que os coeficientes de filtro são calculados on-line com a unidade de comutação de filtro de interpolação de pixel vizinho 75 na Fig. 1, esses coeficientes de filtro são transmitidos para cada pedaço de sequência de bloco, por exemplo. Neste caso, a unidade de comutação de filtro de interpolação de pixel vizinho 172 usa os coeficientes de filtro decodificados pela unidade de decodificação sem perda 162.
[00336] Informação obtida decodificando a informação de cabeçalho (informação de modo de predição, informação de vetor de movimento, e informação de quadro de referência) é fornecida a partir da unidade de decodificação sem perda 162 para a unidade de desvio / predição de movimento 173. No evento que informação indicando o modo de inter- predição ótimo foi fornecida, a unidade de desvio / predição de movimento 173 submete a imagem para predição de movimento e processamento de desvio com base na informação de vetor de movimento e informação de quadro de referência para gerar uma imagem de predição. A unidade de desvio / predição de movimento 173 emite a imagem de predição gerado no modo de inter-predição ótimo para o comutador 174.
[00337] O comutador 174 seleciona a imagem de predição gerada pela unidade de desvio / predição de movimento 173 ou unidade de intra-predição 171, e a supre para a unidade de computação 165.
[00338] Note que com o dispositivo de codificação de imagem 51 na Fig. 1, processamento de intra-predição é efetuado quanto à todos os modos de intra-predições, para determinação do modo de predição com base na função de custo. Por outro lado, com o dispositivo de decodificação de imagem 151, processamento de intra-predição é efetuado com base apenas na informação do modo de intra-predição enviado a ele codificada.
[Exemplo de Configuração da Unidade de Intra-predição e Unidade de Comutação de filtro de interpolação de pixel vizinho]
[00339] A Fig. 23 é um diagrama em bloco ilustrando um exemplo detalhado de configuração da unidade de intra-predição e da unidade de comutação de filtro de interpolação de pixel vizinho. Note que os blocos funcionais na Fig. 23 correspondem aos blocos funcionais no caso de processamento off-line com o dispositivo de codificação de imagem 51 mostrado na Fig. 14.
[00340] No caso do exemplo na Fig. 23, a unidade de intra-predição 171 é configurada de uma unidade de geração de imagem de predição 181 e uma unidade de configuração de pixel vizinho 182. A unidade de comutação de filtro de interpolação de pixel vizinho 172 é configurada de uma área de armazenamento temporário de modo de predição 191, uma área de armazenamento temporário de parâmetro de quantização 192, e uma unidade de configuração de filtro passa baixa 193. A unidade de configuração de filtro passa baixa 193 tem memória de coeficiente de filtro 194 embutida nela.
[00341] A unidade de geração de imagem de predição 181 é fornecida com informação de modo de intra-predição a partir da unidade de decodificação sem perda 162 e valores de pixels vizinhos submetidos ao processamento de filtração a partir da unidade de configuração de pixel vizinho 182. A unidade de geração de imagem de predição 181 usa os valores de pixels vizinhos fornecidos a ela para efetuar intra-predição com o modo de intra-predição a partir da unidade de decodificação sem perda 162, gerando uma imagem de predição, e supre a imagem de predição gerada para o comutador 174.
[00342] A unidade de configuração de pixel vizinho 182 é fornecida com os valores de pixels vizinhos do bloco atual a ser submetida para intra- predição, a partir da memória de quadro 169. No caso da Fig. 23, ilustração do comutador 170 é omitida, mas efetivamente, os valores de pixels vizinhos são fornecidos para a unidade de configuração de pixel vizinho 182 a partir da memória de quadro 169 via o comutador 170.
[00343] A unidade de configuração de pixel vizinho 182 usa coeficientes de filtro configurados pela unidade de configuração de filtro passa baixa 193, para submeter os valores de pixels vizinhos do bloco atual a partir da memória de quadro 169 para processamento de filtração, e supre os valores de pixels vizinhos submetidos para processamento de filtração a uma unidade de geração de imagem de predição 181.
[00344] A área de armazenamento temporário de modo de predição 191 armazena a informação de modo de intra-predição a partir da unidade de decodificação sem perda 162. A área de armazenamento temporário de parâmetro de quantização 192 armazena o parâmetro de quantização a partir da unidade de decodificação sem perda 162.
[00345] A unidade de configuração de filtro passa baixa 193 lê a informação de modo de intra-predição do bloco atual a partir da área de armazenamento temporário de modo de predição 191, e lê o parâmetro de quantização correspondente ao bloco atual a partir da área de armazenamento temporário de parâmetro de quantização 192. A unidade de configuração de filtro passa baixa 193 configura, a partir dos coeficientes de filtro armazenados na memória de coeficiente de filtro 194 embutida, um coeficiente de filtro correspondendo a esta informação, e supre o coeficiente de filtro configurado para a unidade de configuração de pixel vizinho 182.
[00346] A memória de coeficiente de filtro 194 armazena os coeficientes de filtro correspondendo ao parâmetro de quantização e modo de intra-predição obtidos através de aprendizagem no dispositivo de treinamento 251 na Fig. 28 a ser descrito mais tarde, na mesma maneira que com a memória de coeficiente de filtro 94 na Fig. 14.
[00347] Os coeficientes de filtro são calculados e armazenados conforme descrito acima com referência à Fig. 15, por exemplo, para cada pedaço de sequência de bloco. Note que da mesma forma com a memória de coeficiente de filtro 194, os coeficientes de filtro são mantidos como valores de n bits (onde n é um inteiro) de acordo com o comprimento de registro do processador.
[Descrição do Processamento de Decodificação do Dispositivo de Decodificação de Imagem]
[00348] A seguir, o processamento de decodificação que o dispositivo de decodificação de imagem 151 executa será descrito com referência ao fluxograma na Fig. 24.
[00349] Na etapa S131, a área de armazenamento temporário 161 armazena a imagem transmitida. Na etapa S132, a unidade de decodificação sem perda 162 decodifica a imagem comprimida fornecida a partir da área de armazenamento temporário 161. Especificamente, a imagem I, imagem P, e imagem B codificadas pela unidade de codificação sem perda 66 na Fig. 1 são decodificadas.
[00350] Neste momento, a informação de vetor de movimento, informação de quadro de referência, informação de modo de predição (informação indicando o modo de intra-predição ou modo de inter-predição ótimo), informação de parâmetro de quantização, informação de sinalizador, e assim por diante são também decodificadas.
[00351] Especificamente, no evento que a informação de modo de predição é informação de modo de intra-predição, a informação de modo de predição é fornecida para a unidade de intra-predição 171 e para a unidade de comutação de filtro de interpolação de pixel vizinho 172. Além disso, no evento que a informação de parâmetro de quantização foi decodificada, esta também é fornecida para a unidade de comutação de filtro de interpolação de pixel vizinho 172. No evento que a informação de modo de predição é informação de modo de inter-predição ótimo, a informação de vetor de movimento e informação de quadro de referência correspondendo à informação de modo de predição são fornecidas para a unidade de desvio / predição de movimento 173.
[00352] Na etapa S133, a unidade de quantização inversa 163 inversamente faz quantização do coeficiente de transformada decodificado pela unidade de decodificação sem perda 162 usando uma propriedade correspondendo a propriedade da unidade de quantização 65 na Fig. 1. Na etapa S134, a unidade de transformada ortogonal inversa 164 submete o coeficiente de transformada ao qual foi aplicado quantização inversamente pela unidade de quantização inversa 163 à transformada ortogonal inversa usando uma propriedade correspondendo a propriedade da unidade de transformada ortogonal 64 na Fig. 1. Isto significa que a informação de diferença correspondendo à entrada da unidade de transformada ortogonal 64 na Fig. 1 (a saída da unidade de computação 63) foi decodificada.
[00353] Na etapa S135, a unidade de computação 165 adiciona a imagem de predição selecionada no processamento na última descrita etapa S141 e entrada via o comutador 174, para a informação de diferença. Assim sendo, a imagem original é decodificada. Na etapa S136, o filtro de desbloqueio 166 submete a imagem emitida a partir da unidade de computação 165 pra filtração. Assim sendo, distorção de bloco é removida. Na etapa S137, a memória de quadro 169 armazena a imagem submetida para filtração.
[00354] Na etapa S138, a unidade de intra-predição 171 e a unidade de desvio / predição de movimento 173 efetuam o correspondente processamento de predição de imagem em resposta à informação de modo de predição fornecida a partir da unidade de decodificação sem perda 162.
[00355] Especificamente, no evento que a informação de modo de intra-predição foi fornecida a partir da unidade de decodificação sem perda 162, a unidade de intra-predição 171 efetua o processamento de intra-predição no modo de intra-predição. Neste momento, a unidade de intra-predição 171 efetua processamento de filtração e processamento de intra-predição dos pixels vizinhos usando os coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 172.
[00356] Os detalhes do processamento de predição na etapa S138 serão descritos mais tarde com referência à Fig. 25, mas de acordo com este processamento, a imagem de predição gerada pela unidade de intra-predição 171 ou a imagem de predição gerada pela unidade de desvio / predição de movimento 173 é fornecida para o comutador 174.
[00357] Na etapa S139, o comutador 174 seleciona a imagem de predição. Especificamente, a imagem de predição gerada pela unidade de intra-predição 171 ou a imagem de predição gerada pela unidade de desvio / predição de movimento 173 é fornecida. Consequentemente, a imagem de predição fornecida é selecionada, fornecida para a unidade de computação 165, e na etapa S134, conforme descrito acima, adicionada para a saída da unidade de transformada ortogonal inversa 164.
[00358] Na etapa S140, a tela de re-arranjamento de área de armazenamento temporário 167 efetua re-arranjamento. Especificamente, a sequência de quadros re-arranjados para codificação pela tela de re- arranjamento de área de armazenamento temporário 62 do dispositivo de codificação de imagem 51 é re-arranjada na sequência de exibição original.
[00359] Na etapa S141, a unidade de conversão de D / A 168 converte a imagem a partir da tela de re-arranjamento de área de armazenamento temporário 167 de digital para analógica. Esta imagem é emitida para um monitor desconhecido, e a imagem é exibida.
[Descrição do Processamento de Prognóstico]
[00360] A seguir, o processamento de predição na etapa S138 na Fig. 24 será descrito com referência ao fluxograma na Fig. 25.
[00361] Na etapa S171, a unidade de geração de imagem de predição 181 determina se o bloco atual foi ou não submetido à intra-codificação. Após a informação de modo de intra-predição ser fornecida a partir da unidade de decodificação sem perda 162 para a unidade de geração de imagem de predição 181, na etapa S171 a unidade de geração de imagem de predição 181 determina que o bloco atual foi submetido à intra-codificação, e o processamento prossegue para a etapa S172.
[00362] Na etapa S172, a unidade de geração de imagem de predição 181 recebe e obtém a informação de modo de intra-predição a partir da unidade de decodificação sem perda 162. Neste momento, informação de modo de intra-predição é também fornecida para a área de armazenamento temporário de modo de predição 191 e armazenada.
[00363] Além disso, após a informação de parâmetro de quantização a partir da unidade de decodificação sem perda 162 ser fornecida para a área de armazenamento temporário de parâmetro de quantização 192, na etapa S173 a área de armazenamento temporário de parâmetro de quantização 192 obtém e armazena o parâmetro de quantização.
[00364] A unidade de configuração de filtro passa baixa 193 lê a informação de modo de intra-predição do bloco atual a partir da área de armazenamento temporário de modo de predição 191, e lê o parâmetro de quantização quanto ao bloco atual a partir da área de armazenamento temporário de parâmetro de quantização 192. Na etapa S174, a unidade de configuração de filtro passa baixa 193 configura, a partir dos coeficientes de filtro para cada pedaço de sequência de bloco armazenado na memória de coeficiente de filtro 194 embutida, um coeficiente de filtro para os pixels vizinhos correspondendo a esta informação. O coeficiente de filtro configurado é fornecido para a unidade de configuração de pixel vizinho 182.
[00365] Na etapa S175 a unidade de configuração de pixel vizinho 182 usa o coeficiente de filtro configurado pela unidade de configuração de filtro passa baixa 193 para submeter os valores de pixels vizinhos do bloco atual a partir da memória de quadro 169 para processamento de filtração, e supre os valores de pixels vizinhos submetidos ao processamento de filtração para a unidade de geração de imagem de predição 181.
[00366] A unidade de geração de imagem de predição 181 usa os valores de pixels vizinhos fornecidos a partir da unidade de configuração de pixel vizinho 182 para efetuar intra-predição no modo de intra-predição obtida na etapa S172, e gera a imagem de predição. A imagem de predição gerada é fornecida para o comutador 174.
[00367] Por outro lado, no evento que determinação é feita na etapa S171 que intra-codificação não foi efetuada, o processamento prossegue para a etapa S177.
[00368] No evento que a imagem a ser processada é uma imagem a ser submetida à inter-processamento, a informação de modo de inter-predição ótimo, a informação de quadro de referência, e a informação de vetor de movimento são fornecidas a partir da unidade de decodificação sem perda 162 para a unidade de desvio / predição de movimento 173. Na etapa S177, a unidade de desvio / predição de movimento 173 obtém a informação de modo de inter-predição ótimo, a informação de quadro de referência, a informação de vetor de movimento, e assim por diante a partir da unidade de decodificação sem perda 162.
[00369] Na etapa S178, a unidade de desvio / predição de movimento 173 então efetua inter-predição de movimento. Especificamente, no evento que a imagem a ser processada é uma imagem a ser submetida à processamento de inter-predição, uma imagem necessária é lida a partir da memória de quadro 169, e fornecida para a unidade de desvio / predição de movimento 173 via o comutador 170. Na etapa S177, a unidade de desvio / predição de movimento 173 efetua predição de movimento no modo de inter- predição ótimo para gerar uma imagem de predição com base no vetor de movimento obtido na etapa S176. A imagem de predição gerada é emitida para o comutador 174.
[Outro Exemplo de Configuração de Unidade de Intra- predição e Unidade de Comutação de Filtro de Interpolação de Elemento Mínimo de Imagem Vizinho]
[00370] A Fig. 26 é um diagrama em bloco ilustrando um exemplo detalhado da configuração da unidade de intra-predição e da unidade de comutação de filtro de interpolação de pixel vizinho. Note que os blocos funcionais na Fig. 26 correspondem aos blocos funcionais no caso de processamento on-line com o dispositivo de codificação de imagem 51 mostrado na Fig. 20.
[00371] No caso do exemplo na Fig. 26, a unidade de intra-predição 171 é configurada da unidade de geração de imagem de predição 181 e da unidade de configuração de pixel vizinho 182 na Fig. 23. A unidade de comutação de filtro de interpolação de pixel vizinho 172 é configurada de uma área de armazenamento temporário de modo de predição 191 na Fig. 23, e uma área de armazenamento temporário de filtro de interpolação 201 e uma unidade de configuração de filtro passa baixa 202. Note que no exemplo na Fig. 26, porções correspondendo ao caso na Fig. 23 são denotados com correspondentes numerais de referência, e basicamente efetuam o mesmo processamento, assim descrição das mesmas será omitida.
[00372] No caso na Fig. 26, coeficientes de filtro calculados considerando o pedaço de sequência de bloco atual são codificados e enviados a partir do dispositivo de codificação de imagem 51. Consequentemente, a unidade de decodificação sem perda 162 decodifica isto junto com outra informação, e supre para a área de armazenamento temporário de filtro de interpolação 201 da unidade de comutação de filtro de interpolação de pixel vizinho 172.
[00373] A área de armazenamento temporário de filtro de interpolação 201 obtém o coeficiente de filtro para o pedaço de sequência de bloco atual a partir da unidade de decodificação sem perda 162 e o armazena.
[00374] A unidade de configuração de filtro passa baixa 202 lê a informação de modo de intra-predição do bloco atual a partir da área de armazenamento temporário de modo de predição 191. A unidade de configuração de filtro passa baixa 202 lê o coeficiente de filtro correspondendo ao modo de intra-predição que foi lido, a partir dos coeficientes de filtro do pedaço de sequência de bloco atual armazenado na área de armazenamento temporário de filtro de interpolação 201, e o configura como o coeficiente de filtro para o bloco atual. O coeficiente de filtro configurado é fornecido para a unidade de configuração de pixel vizinho 182.
[Outra Descrição de Processamento de Prognóstico]
[00375] A seguir, processamento de predição no caso da unidade de intra-predição 171 e da unidade de comutação de filtro de interpolação de pixel vizinho 172 será descrito com referência ao fluxograma na Fig. 27. Note que este processamento de intra-predição é um outro exemplo do processamento de predição na etapa S138 na Fig. 24. Além disso, o processamento das etapas S181, S182, e S185 à S188 na Fig. 27 basicamente efetuam o mesmo processamento que as etapas S171, S172, e S175 à S178 na Fig. 25, assim descrição detalhada do mesmo será omitida.
[00376] Na etapa S181, a unidade de geração de imagem de predição 181 determina se é o bloco atual é ou não intra-codificado. Após informação de modo de intra-predição ser fornecida a partir da unidade de decodificação sem perda 162 para a unidade de geração de imagem de predição 181, na etapa S181 a unidade de geração de imagem de predição 181 determina que o bloco atual é intra-codificado, e o processamento avança para a etapa S182.
[00377] Na etapa S182, a unidade de geração de imagem de predição 181 recebe e obtém a informação de modo de intra-predição a partir da unidade de decodificação sem perda 162. Neste momento, esta informação de modo de intra-predição é também fornecida para a área de armazenamento temporário de modo de predição 191 e armazenada.
[00378] Além disso, após a informação de coeficientes de filtro para o pedaço de sequência de bloco atual ser fornecida a partir da unidade de decodificação sem perda 162 para a área de armazenamento temporário de filtro de interpolação 201, a área de armazenamento temporário de filtro de interpolação 201 obtém os coeficientes de filtro para o pedaço de sequência de bloco atual na etapa S183, e os armazena. Note que os coeficientes de filtro são fornecidos para cada pedaço de sequência de bloco.
[00379] A unidade de configuração de filtro passa baixa 202 lê a informação de modo de intra-predição para o bloco atual a partir da área de armazenamento temporário de modo de predição 191. Na etapa S184, a unidade de configuração de filtro passa baixa 202 configura, fora dos coeficientes de filtro do pedaço de sequência de bloco atual armazenados na área de armazenamento temporário de filtro de interpolação 201, um coeficiente de filtro para os pixels vizinhos, correspondendo ao modo de intra-predição do bloco atual. O coeficiente de filtro configurado é fornecido para a unidade de configuração de pixel vizinho 182.
[00380] Na etapa S185, a unidade de configuração de pixel vizinho 182 usa o coeficiente de filtro configurado pela unidade de configuração de filtro passa baixa 202 para submeter os valores de pixels vizinhos do bloco atual a partir da memória de quadro 169 para processamento de filtração, e supre os valores de pixels vizinhos submetidos ao processamento de filtração para a unidade de geração de imagem de predição 181.
[00381] Na etapa S186, a unidade de geração de imagem de predição 181 usa os valores de pixels vizinhos fornecidos a partir da unidade de configuração de pixel vizinho 182 para efetuar intra-predição com o modo de intra-predição obtido na etapa S172, e gera uma imagem de predição. A imagem de predição gerada é fornecido para o comutador 174.
[00382] Por outro lado, no evento que determinação é feita na etapa S181 que esta não é intra-codificada, o processamento avança para a etapa S187.
[00383] Na etapa S187, a unidade de desvio / predição de movimento 173 obtém informação de modo de inter-predição ótimo, informação de quadro de referência, informação de vetor de movimento, e assim por diante, a partir da unidade de decodificação sem perda 162.
[00384] Na etapa S188, a unidade de desvio / predição de movimento 173 efetua inter-predição de movimento. Devido a este processamento, a imagem de predição gerada é emitida para o comutador 174.
[00385] Assim sendo, com o dispositivo de codificação de imagem 51 na Fig. 1 e o dispositivo de decodificação de imagem 151 na Fig. 22, processamento de filtração é efetuado nos pixels vizinhos usados para intra- predição usando coeficientes de filtro adaptativamente configurados para a imagem, antes do intra-processamento. Por exemplo, coeficientes de filtro são configurados de acordo com modo de intra-predição ou parâmetro de quantização.
[00386] Consequentemente, remoção de ruído correspondendo às imagens e taxa de bits pode ser efetuada. Como um resultado, eficiência de predição pode ser melhorada.
[00387] A Fig. 28 representa a configuração de uma modalidade de um dispositivo de treinamento ao qual a presente invenção foi aplicada. No exemplo na Fig. 28, um dispositivo de treinamento 251 efetua processamento de aprendizagem de coeficientes de filtro usando sinais de imagens de treinamento.
[00388] Note que sinais de imagens de treinamento são imagens de teste para obter coeficientes de filtro, e uma sequência de padrão usada para padronização de codificação de compressão de imagem, obtida em www.vqeg.org, por exemplo, pode ser usada. Alternativamente, a imagem de entrada correspondendo a cada aplicação também pode ser usada. Por exemplo, no evento que a entrada são sinais de câmera, aprendizagem pode ser efetuada usando sinais de banda base fotografados usando um sensor de CCD ou de CMOS.
[00389] O dispositivo de treinamento 251 na Fig. 28 tem um comum com o dispositivo de codificação de imagem 51 na Fig. 1 o ponto de ter a unidade de conversão de A / D 61, a tela de re-arranjamento de área de armazenamento temporário 62, a unidade de computação 63, a unidade de transformada ortogonal 64, a unidade de quantização 65, a unidade de codificação sem perda 66, a área de armazenamento temporário 67, a unidade de quantização inversa 68, a unidade de transformada ortogonal inversa 69, a unidade de computação 70, o filtro de desbloqueio 71, a memória de quadro 72, o comutador 73, a unidade de intra-predição 74, a unidade de desvio / predição de movimento 76, a unidade de seleção de imagem de predição 77, e a unidade de controle de taxa 78.
[00390] Além disso, o dispositivo de treinamento 251 difere do dispositivo de codificação de imagem 51 na Fig. 1 com relação aos pontos de usar os sinais de imagens de treinamento para sinais que são usados, e de incluir uma unidade de cálculo de filtro de interpolação de pixel 261 em vez de uma unidade de comutação de filtro de interpolação de pixel vizinho 75.
[00391] Especificamente, com o dispositivo de treinamento 251, somente blocos incluídos nas imagens Is são usados para efetuar aprendizagem. Alternativamente, com o dispositivo de treinamento 251, somente blocos dentro de intra-blocos macros incluídos na imagem Bs e imagem (S são usados para efetuar aprendizagem. O anterior necessita de menos quantidade de computação para aprendizagem do que o último. Além disso, no caso do anterior, coeficientes obtidos para blocos obtidos incluídos na imagem Is podem ser aplicados apenas para blocos incluídos nas imagens Is, ou podem ser aplicados para intra-blocos macros incluídos nas imagens Bs e imagens Ps.
[00392] Isto é para dizer, com o dispositivo de treinamento 251, aprendizagem apenas por intra-predição com a unidade de intra-predição 74 é efetuado. Consequentemente, nós vamos dizer que a unidade de desvio / predição de movimento 76 efetivamente não funciona.
[00393] Adicionalmente, a unidade de cálculo de filtro de interpolação de pixel 261 na Fig. 29 tem em comum com a unidade de comutação de filtro de interpolação de pixel vizinho 75 na Fig. 20 o ponto de ter a área de armazenamento temporário de modo de predição 121, a unidade de cálculo de filtro ótimo 122, e a unidade de configuração de filtro passa baixa 123.
[00394] Por outro lado, a unidade de cálculo de filtro de interpolação de pixel 261 na Fig. 29 difere da unidade de comutação de filtro de interpolação de pixel vizinho 75 na Fig. 20 com relação aos pontos que um unidade de armazenamento de coeficiente de filtro 271 foi adicionado, e que parâmetros de quantização a partir da unidade de controle de taxa 78 são fornecidos para a unidade de cálculo de filtro ótimo 122.
[00395] Especificamente, no exemplo na Fig. 29, na mesma maneira que com o caso do exemplo na Fig. 20, um comutador 101 é fornecido entre a unidade de intra-predição 74 e a unidade de comutação de filtro de interpolação de pixel vizinho 75, e a unidade de intra-predição 74 efetua intra- predição duas vezes de acordo com LIGA / DESLIGA do comutador 101.
[00396] Isto é para dizer, com a unidade de intra-predição 74, no estado de off do comutador 101, intra-predição definido em H.264 / AVC é efetuado, e coeficientes de filtro ótimo para o modo de intra-predição e parâmetro de quantização são calculados para cada pedaço de sequência de bloco.
[00397] Os coeficientes de filtro calculados para cada pedaço de sequência de bloco são armazenados na unidade de armazenamento de coeficiente de filtro 271. No estado de ligado do comutador 101, então, intra- predição é efetuado com uma condição de filtro configurada pela unidade de comutação de filtro de interpolação de pixel vizinho 75 fora dos coeficientes de filtro para cada pedaço de sequência de bloco que foi calculado.
[00398] Os coeficientes de filtro armazenados nesta unidade de armazenamento de coeficiente de filtro 271 são armazenados na memória de coeficiente de filtro 94 (Fig. 14) do dispositivo de codificação de imagem 51 na Fig. 1 e na memória de coeficiente de filtro 194 (Fig. 23) do dispositivo de decodificação de imagem 151 na Fig. 22, via meio de armazenamento ou rede ou o similar.
[Descrição do Processamento de Intra-predição no Processamento de Aprendizagem]
[00399] A seguir, processamento de intra-predição que o dispositivo de treinamento 251 na Fig. 28 efetua como um processo de processamento de aprendizagem será descrito com referência ao fluxograma na Fig. 30. Note que o dispositivo de treinamento 251 efetua basicamente o mesmo processamento para processamento de aprendizagem que o processamento de codificação na Fig. 17, exceto que o processamento de predição na etapa S21 foi substituído com processamento de intra-predição na etapa S30.
[00400] Além disso, etapaS201 à S203 e S206 à S209 na Fig. 30 basicamente efetuam o mesmo processamento que as etapaS101 à S103 e S105 à S108, assim sendo descrição redundante das mesmas será omitida. Isto é para dizer, na etapa S204 na Fig. 30, a unidade de cálculo de filtro ótimo 122 calcula um coeficiente de filtro para cada modo de inter-predição ótimo e correspondente parâmetro de quantização do pedaço de sequência de bloco atual que minimiza o resíduo do inteiro pedaço de sequência de bloco, como coeficientes de filtro ótimos. Os coeficientes de filtro calculados são fornecidos para a unidade de armazenamento de coeficiente de filtro 271.
[00401] Na etapa S205, a unidade de armazenamento de coeficiente de filtro 271 armazena os coeficientes de filtro fornecidos a partir da unidade de cálculo de filtro ótimo 122.
[00402] A unidade de configuração de filtro passa baixa 123 configura, a partir dos coeficientes de filtro do pedaço de sequência de bloco atual armazenado na unidade de armazenamento de coeficiente de filtro 271, um coeficiente de filtro correspondendo to o bloco atual, liga o terminal do comutador 101 em LIGA, e supre os coeficiente de filtro configurados para a unidade de configuração de imagem vizinha 111.
[00403] Consequentemente, na etapa S206, o coeficiente de filtro configurado é usado para efetuar processamento de filtração nos valores de pixels vizinhos do bloco atual, a partir da memória de quadro 72.
[00404] É claro que, na mesma maneira que com o exemplo na Fig. 21, repetindo o processamento da etapa S204 à S207 descrito acima permite ainda coeficientes de filtro otimizados a serem obtidos.
[00405] Conforme descrito acima, com o dispositivo de treinamento 251, processamento do mesmo que com processamento de codificação efetivamente usado é efetuado usando sinais de imagens de treinamento, e coeficientes de filtro calculados por meio disso, são para a unidade de armazenamento de coeficiente de filtro 271. Consequentemente, coeficientes de filtro ótimos podem ser obtidos.
[00406] Os coeficientes de filtro armazenados nesta unidade de armazenamento de coeficiente de filtro 271 são armazenados na memória de coeficiente de filtro 94 (Fig. 14) do dispositivo de codificação de imagem 51 na Fig. 1 e na memória de coeficiente de filtro 194 (Fig. 23) do dispositivo de decodificação de imagem 151 na Fig. 22, via meio de armazenamento ou rede ou o similar.
[00407] Além disso, com o dispositivo de codificação de imagem 51, conforme descrito acima, coeficientes obtidos para blocos obtidos incluídos nas imagens Is (ou intra-blocos macros incluídos na imagem Bs e imagem Ps) podem ser aplicados apenas pra blocos incluídos nas imagens Is. Alternativamente, pode ser aplicado para intra-blocos macros incluídos nas imagens Bs e imagens Ps, não somente aos blocos incluídos nas imagens Is.
[00408] Consequentemente, eficiência de codificação alta pode ser realizada com o dispositivo de codificação de imagem 51 na Fig. 1 e com o dispositivo de decodificação de imagem 151 na Fig. 22.
[00409] Note que com a unidade de transformada ortogonal 64 e unidade de transformada ortogonal inversa 69 descritas acima do dispositivo de codificação de imagem 51 na Fig. 1 e com a unidade de transformada ortogonal inversa 164 do dispositivo de decodificação de imagem 151 na Fig. 22, transformada ortogonal / transformada ortogonal inversa definida em H.264 / AVC é efetuada. Alternativamente, um arranjo pode ser feito caracterizado pelo fato de que a unidade de transformada ortogonal 64 e unidade de transformada ortogonal inversa 69 do dispositivo de codificação de imagem 51 na Fig. 1 e a unidade de transformada ortogonal inversa 164 do dispositivo de decodificação de imagem 151 na Fig. 22 efetuam a transformada ortogonal / transformada ortogonal inversa proposta na NPL 1.
[00410] Consequentemente, a eficiência de codificação do formato proposto na NPL 1 pode ser ainda melhorada.
[00411] Note que enquanto um exemplo de efetuar intra-predição foi descrita na descrição acima, a presente invenção também pode ser aplicada para intra-predição no predição de segunda ordem proposto bem como na NPL 2.
<2. Segunda modalidade> [Outro Exemplo de Configuração de Dispositivo de Codificação de Imagem]
[00412] A Fig. 31 mostra a configuração de uma outra modalidade de um dispositivo de codificação de imagem servindo como um dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00413] Um dispositivo de codificação de imagem 351 tem um comum com o dispositivo de codificação de imagem 51 na Fig. 1 o ponto de ter a unidade de conversão de A / D 61, a tela de re-arranjamento de área de armazenamento temporário 62, a unidade de computação 63, a unidade de transformada ortogonal 64, a unidade de quantização 65, a unidade de codificação sem perda 66, a área de armazenamento temporário 67, a unidade de quantização inversa 68, a unidade de transformada ortogonal inversa 69, a unidade de computação 70, o filtro de desbloqueio 71, a memória de quadro 72, o comutador 73, a unidade de intra-predição 74, unidade de desvio / predição de movimento 76, a unidade de seleção de imagem de predição 77, e a unidade de controle de taxa 78.
[00414] Além disso, o dispositivo de codificação de imagem 351 difere do dispositivo de codificação de imagem 51 na Fig. 1 com relação aos pontos que a unidade de comutação de filtro de interpolação de pixel vizinho 75 é omitida, e uma unidade de predição de segunda ordem 361 e uma unidade de comutação de filtro de interpolação de pixel vizinho 362 foram adicionadas.
[00415] Isto é para dizer, com o exemplo na Fig. 31, a unidade de intra-predição 74 efetua intra-predição de H.264 / AVC.
[00416] Por outro lado, a unidade de desvio / predição de movimento 76 detecta vetores de movimento para todos os modos de inter-predição candidatos, com base na imagem para inter-processamento e na imagem de referência, submete a imagem de referência ao processamento de desvio com base nos vetores de movimento, e gera uma imagem de predição.
[00417] A unidade de desvio / predição de movimento 76 supre a unidade de predição de segunda ordem 361 com a informação de vetor de movimento detectada, a informação de uma imagem para inter-processamento (endereço, etc.), e resíduo de primeiro ordem que é a diferença entre a imagem para inter-predição e a imagem de predição gerada.
[00418] A unidade de desvio / predição de movimento 76 determina um modo de intra-produção ótimo no predição de segunda ordem comparando os resíduos de segunda ordem a partir da unidade de predição de segunda ordem 361. Além disso, a unidade de desvio / predição de movimento 76 determina se é para codificar o resíduo de segunda ordem ou para codificar o resíduo de primeira ordem, comparando o resíduo de segunda ordem com o resíduo de primeira ordem. Note que este processamento é efetuado em todos os modos de inter-predição candidatos.
[00419] A unidade de desvio / predição de movimento 76 calcula valores de função de custo para todos os modos de inter-predição candidatos. Neste momento, do resíduo de primeira ordem e do resíduo de segunda ordem, o resíduo determinado para cada modo de inter-predição ótimo é usado para calcular o valor de função de custo. A unidade de desvio / predição de movimento 76 determina o modo de predição o qual produz o menor valor dos valores de função de custo calculados para ser o modo de inter-predição ótimo.
[00420] A unidade de desvio / predição de movimento 76 supre a imagem de predição gerada no modo de inter-predição ótimo (ou diferença entre imagem para inter e resíduo de segunda ordem), e o valor de função de custo da mesma para a unidade de seleção de imagem de predição 77. No evento que a imagem de predição gerada pela unidade de seleção de imagem de predição 77 no modo de inter-predição ótimo foi selecionada, a unidade de desvio / predição de movimento 76 emite informação indicando o modo de inter-predição ótimo para a unidade de codificação sem perda 66.
[00421] Neste momento, informação de vetor de movimento, informação de quadro de referência, um predição de sinalizador de segunda ordem indicando que predição de segunda ordem é para ser efetuada, informação do modo de intra-predição no predição de segunda ordem, e assim por diante, são também emitidos a partir da unidade de codificação sem perda 66. A unidade de codificação sem perda 66 também submete a informação a partir da unidade de desvio / predição de movimento 76 para processamento de codificação sem perda tal como codificação de comprimento variável, codificação aritmética, ou o similar, e insere na porção de cabeçalho da imagem comprimida.
[00422] Com base na informação de vetor de movimento a partir da unidade de desvio / predição de movimento 76 e na informação da imagem a ser submetida para inter-processamento, a unidade de predição de segunda ordem 361 lê pixels atuais vizinhos ao bloco atual que é para ser submetido ao inter-processamento, a partir da memória de quadro 72. Além disso, a unidade de predição de segunda ordem 361 lê referência pixels vizinhos de referência vizinhos ao bloco de referência correlacionado com o bloco atual através da informação de vetor de movimento, a partir da memória de quadro 72.
[00423] A unidade de predição de segunda ordem 361 efetua processamento de predição de segunda ordem. Processamento de predição é processamento caracterizado pelo fato de que intra-predição de segunda ordem é efetuado entre o resíduo de primeira ordem e a diferença entre os pixels vizinhos atuais e pixels vizinhos de referência, e por meio disso, gerar informação da diferença de segunda ordem (resíduo de segunda ordem).
[00424] Agora, processamento de predição de segunda ordem será descrito com referência à Fig. 32.
[00425] Com o exemplo na Fig. 32, um quadro atual e quadro de referência conforme mostrado, com um bloco atual A mostrado no quadro atual.
[00426] No evento que um vetor de movimento mv(mv_x, mv_y) é obtido no quadro de referência e quadro atual considerando o bloco atual A, informação de diferença (resíduo) entre o bloco atual A e o bloco correlacionado com o bloco atual A pelo vetor de movimento mv é calculado.
[00427] Com o sistema de predição de segunda ordem, não somente informação de diferença relacionada ao bloco atual A, mas também informação de diferença entre um grupo R de pixels vizinhos ao bloco atual A e um grupo R1 de pixels vizinho correlacionados com o grupo R de pixels vizinho por um vetor de movimento mv, é calculado.
[00428] Isto é para dizer, as coordenadas do grupo R de pixels vizinhos são obtidas a partir das coordenadas esquerda superior (x, y) do bloco atual A. Além disso, as coordenadas do grupo R1 de pixels vizinho são obtidas a partir das coordenadas esquerda superior (x + mv_x, y + mv_y) do bloco correlacionado com o bloco atual A pelo vetor de movimento mv. Informação de diferença dos grupos de pixels é calculada a partir desses valores de coordenadas.
[00429] Com o sistema de predição de segunda ordem, intra-predição de acordo com o formato de H.264 / AVC é efetuado entre a informação de diferença relacionando ao bloco atual é assim sendo calculado, e a informação de diferença relacionada aos pixels de referência, e por meio disso, gerando informação de diferença de segunda ordem. A informação de diferença gerada de segunda ordem é submetida à transformada ortogonal e quantização, codificada junto com a imagem comprimida, e enviada para o lado de decodificação.
[00430] Antes deste predição de segunda ordem, a unidade de predição de segunda ordem 361 usa os coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 362 para efetuar processamento de filtração na diferença entre os pixels vizinhos atual usados de r intra-predição e os pixels vizinhos de referência. A unidade de predição de segunda ordem 361 então usa a diferença filtrada entre os pixels vizinhos atual e os pixels vizinhos de referência submetidos ao processamento de filtração para efetuar processamento de predição de segunda ordem, e emite a informação de diferença de segunda ordem (resíduo de segunda ordem) para a unidade de desvio / predição de movimento 76.
[00431] Isto é para dizer, a unidade de predição de segunda ordem 361 é configurada incluindo a unidade de intra-predição 74 mostrado na Fig. 14, e assim por diante.
[00432] A unidade de comutação de filtro de interpolação de pixel vizinho 362 é configurada basicamente na mesma maneira que a unidade de comutação de filtro de interpolação de pixel vizinho 75 na Fig. 1, e efetua o mesmo processamento. Isto é para dizer, a unidade de comutação de filtro de interpolação de pixel vizinho 362 configura coeficientes de filtro de acordo com informação de modo de intra-predição a partir da unidade de predição de segunda ordem 361 e parâmetros de quantização a partir da unidade de controle de taxa 78, e supre os coeficientes de filtro configurados para a unidade de predição de segunda ordem 361.
[00433] Note que o processamento de codificação do dispositivo de codificação de imagem 351 na Fig. 31 difere a partir do processamento de codificação na Fig. 16 efetuada pelo dispositivo de codificação de imagem 51 na Fig. 1 somente com relação aos seguintes intra-processamento e processamento de predição de movimento, e outro processamento é basicamente o mesmo, assim descrição do mesmo será omitido.
[00434] Isto é para dizer, com o dispositivo de codificação de imagem 351 na Fig. 31, intra-predição de acordo com o formato de H.264 / AVC é efetuado como intra-processamento. Além disso, como processamento de predição de movimento, os coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 362 são usados no momento de processamento de predição de movimento, e por meio disso, gerando informação de diferença de segunda ordem. Aquela com a melhor informação de diferença de segunda ordem é selecionada a partir da informação de diferença de primeira ordem e da informação de diferença de segunda ordem, e o modo de inter-predição ótimo é determinado pelos valores de função de custo sendo comparados.
[00435] Um dispositivo de decodificação de imagem que recebe uma imagem comprimida codificada por este dispositivo de codificação de imagem 351 e a decodifica será descrito com referência à Fig. 33.
[Outro Exemplo de Dispositivo de Decodificação de Imagem]
[00436] A Fig. 33 representa a configuração de uma outra modalidade de um dispositivo de decodificação de imagem servindo como o dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00437] Um dispositivo de decodificação de imagem 401 tem em comum com o dispositivo de decodificação de imagem 151 na Fig. 22 o ponto de incluir a área de armazenamento temporário 161, a unidade de decodificação sem perda 162, a unidade de quantização inversa 163, a unidade de transformada ortogonal inversa 164, a unidade de computação 165, o filtro de desbloqueio 166, a tela de re-arranjamento de área de armazenamento temporário 167, a unidade de conversão de D / A 168, a memória de quadro 169, o comutador 170, a unidade de intra-predição 171, a unidade de desvio / predição de movimento 173, e o comutador 174.
[00438] Além disso, o dispositivo de decodificação de imagem 401 difere do dispositivo de decodificação de imagem 151 na Fig. 22 considerando os pontos da unidade de comutação de filtro de interpolação de pixel vizinho 172 tendo sido omitida, e da unidade de predição de segunda ordem 411 e da unidade de comutação de filtro de interpolação de pixel vizinho 412 tendo sido adicionadas.
[00439] Isto é para dizer, informação indicando o modo de intra- predição obtida decodificando informação de cabeçalho é fornecida a partir da unidade de decodificação sem perda 162 para a unidade de intra-predição 171. Com base nesta informação, a unidade de intra-predição 171 gera uma imagem de predição, e emite a imagem de predição gerada para o comutador 174.
[00440] Da informação obtida decodificando informação de cabeçalho, a informação de modo de predição, a informação de vetor de movimento, a informação de quadro de referência, e assim por diante, são fornecidas a partir da unidade de decodificação sem perda 162 para a unidade de desvio / predição de movimento 173. Além disso, no evento que processamento de predição de segunda ordem foi aplicado ao bloco atual, um sinalizador de predição de segunda ordem indicando que predição de segunda ordem é para ser efetuado, e informação de intra-modo para predição de segunda ordem, são também fornecidos a partir da unidade de decodificação sem perda 162 para a unidade de desvio / predição de movimento 173.
[00441] No evento de ter determinado que processamento de predição de segunda ordem é aplicado, a unidade de desvio / predição de movimento 173 controla a unidade de predição de segunda ordem 411 tal que predição de segunda ordem é efetuado no modo de intra-predição que a informação de modo de intra-predição para predição de segunda ordem indica.
[00442] A unidade de desvio / predição de movimento 173 submete a imagem para predição de movimento e processamento de desvio com base na informação de vetor de movimento e informação de quadro de referência, e gera uma imagem de predição. Isto é para dizer, uma imagem de predição do bloco atual é gerada usando os valores dos pixels do bloco de referência correlacionados ao bloco atual, dentro do bloco de referência. A unidade de desvio / predição de movimento 173 então adiciona a imagem de predição gerada e os valores de diferença de predição a partir da unidade de predição de segunda ordem 411, e os emite para o comutador 174.
[00443] A unidade de predição de segunda ordem 411 efetua predição de segunda ordem usando a diferença entre os pixels vizinhos atuais e os pixels vizinhos de referência lida a partir da memória de quadro 169. Antes deste predição de segunda ordem, a unidade de predição de segunda ordem 411 usa os coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 412 para efetuar processamento de filtração na diferença dos pixels vizinhos atuais e pixels vizinhos de referência. A unidade de predição de segunda ordem 411 então usa a diferença dos pixels vizinhos atuais e pixels vizinho de referência submetidos ao processamento de filtração para efetuar processamento de predição de segunda ordem, e emite a informação de diferença de segunda ordem (resíduo de segunda ordem) obtida para a unidade de desvio / predição de movimento 173.
[00444] Isto é para dizer, a unidade de predição de segunda ordem 411 é configurada incluindo a unidade de intra-predição 171 mostrada na Fig. 26.
[00445] A unidade de comutação de filtro de interpolação de pixel vizinho 412 é configurada basicamente na mesma maneira que a unidade de comutação de filtro de interpolação de pixel vizinho 172. Isto é para dizer, a unidade de comutação de filtro de interpolação de pixel vizinho 412 configura coeficientes de filtro correspondendo à pelo menos um dos parâmetros de quantização a partir da unidade de decodificação sem perda 162 e o do modo de intra-predição. A unidade de comutação de filtro de interpolação de pixel vizinho 412 supre os coeficientes de filtro configurados para a unidade de predição de segunda ordem 411.
[00446] Note que o processamento de codificação do dispositivo de decodificação de imagem 401 na Fig. 33 somente difere do processamento de decodificação na Fig. 24 do dispositivo de decodificação de imagem 151 na Fig. 22 exceto para os seguintes intra-processamento e processamento de predição de movimento, e outro processamento é basicamente o mesmo processamento, assim descrição do mesmo será omitido.
[00447] Isto é para dizer, com o dispositivo de decodificação de imagem 401 na Fig. 33, intra-predição de acordo com o formato de H.264 / AVC é efetuado com intra-processamento. Além disso, como processamento de predição de movimento, predição de segunda ordem (intra-predição) é efetuado no momento do processamento de predição de movimento usando os coeficientes de filtro configurados pela unidade de comutação de filtro de interpolação de pixel vizinho 412, e informação de diferença de segunda ordem é gerada.
[00448] A presente invenção também pode ser aplicada para intra- predição no processamento de predição de segunda ordem tal como descrito acima.
[00449] Note que na descrição acima, um exemplo foi descrito de efetuar processamento de filtração nos pixels vizinhos usados para intra- predição, usando coeficientes de filtro adaptativamente configurados para uma imagem, antes do intra-predição.
[00450] Agora, ruído incluído nos pixels vizinhos usados para o sistema de intra-predição difere dependendo das condições de codificação, tal como os conteúdos da imagem, parâmetros de quantização, e assim por diante. Consequentemente, há blocos considerando que a eficiência de codificação melhora efetuando processamento de filtração efetuado no formato de H.264 / AVC por exemplo, e blocos onde isto não é verdade.
[00451] Independente disto, processamento tampão de filtração foi realizado em todos os blocos no momento de efetuar intra-processamento baseado em bloco de 8 x 8 nos blocos macros com o formato de H.264 / AVC, assim sendo deve ter ocorrido bloco onde eficiência de codificação é reduzida por causa disso.
[00452] Consequentemente, um exemplo de um caso de efetuar LIGA / DESLIGA de processamento de filtração quanto aos pixels vizinhos usados para intra-predição será descrito a seguir.
<3. Terceira Modalidade> [Outro Exemplo de Configuração de Dispositivo de Codificação de Imagem]
[00453] A Fig. 34 mostra a configuração de uma outra modalidade de um dispositivo de codificação de imagem servindo como um dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00454] Um dispositivo de codificação de imagem 451 tem em comum com o dispositivo de codificação de imagem 51 na Fig. 1 o ponto de ter a unidade de conversão de A / D 61, a tela de re-arranjamento de área de armazenamento temporário 62, a unidade de computação 63, a unidade de transformada ortogonal 64, a unidade de quantização 65, a unidade de codificação sem perda 66, a área de armazenamento temporário 67, a unidade de quantização inversa 68, a unidade de transformada ortogonal inversa 69, a unidade de computação 70, o filtro de desbloqueio 71, a memória de quadro 72, o comutador 73, a unidade de intra-predição 74, a unidade de desvio / predição de movimento 76, a unidade de seleção de imagem de predição 77, e a unidade de controle de taxa 78.
[00455] Além disso, o dispositivo de codificação de imagem 451 difere do dispositivo de codificação de imagem 51 na Fig. 1 com relação ao ponto que a unidade de comutação de filtro de interpolação de pixel vizinho 75 foi substituída por uma unidade de controle de filtro de interpolação de pixel vizinho 461.
[00456] Isto é para dizer, a unidade de controle de filtro de interpolação de pixel vizinho 461 efetua controle de LIGA ou DESLIGA do processamento tampão de filtração que foi efetuado nos pixels vizinhos de todos os blocos no momento de efetuar intra-processamento baseado em bloco de 8 x 8 nos blocos macros com o formato de H.264 / AVC. Note que enquanto processamento de filtração somente foi efetuado com intra- processamento baseado em bloco de 8 x 8 com o formato de H.264 / AVC, isto é efetuado em intra 4 x 4 e intra 16 x 16 bem como com a unidade de controle de filtro de interpolação de pixel vizinho 461.
[00457] Os sinais de controle de LIGA / DESLIGA a partir da unidade de controle de filtro de interpolação de pixel vizinho 461 são fornecidos para a unidade de intra-predição 74.
[00458] A unidade de intra-predição 74 efetua processamento de intra- predição para todos os modos de intra-predições candidatos, com base na imagem a ser submetida para intra-predição que foi lida a partir da tela de re- arranjamento de área de armazenamento temporário 62 e a imagem de referência fornecida a partir da memória de quadro 72. Neste momento, na unidade de intra-predição 74, antes do intra-predição, intra-predição é efetuado com o processamento de filtro na condição LIGA ou DESLIGA de acordo com os sinais de controle a partir da unidade de controle de filtro de interpolação de pixel vizinho 461, e aquele com um menor valor de função de custo calculado como um resultado é empregado.
[00459] Adicionalmente, a unidade de intra-predição 74 gera um sinalizador indicando LIGA ou DESLIGA do processamento de filtração. Esta informação de sinalizador é fornecida para a unidade de codificação sem perda 66 junto com a informação indicando o modo de intra-predição ótimo, no evento que a imagem de predição gerado com o modo de intra-predição ótimo é selecionado pela unidade de seleção de imagem de predição 77.
[Exemplo de Configuração da Unidade de Intra-predição]
[00460] A Fig. 35 é um diagrama em bloco ilustrando um exemplo detalhado de configuração da unidade de intra-predição 74 na Fig. 34. No caso do exemplo na Fig. 35, a unidade de intra-predição 74 é configurada de uma unidade de geração de imagem de predição 471, uma unidade de geração de valor de função de custo 472, e uma unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00461] A unidade de geração de imagem de predição 471 é fornecida com valores de pixels vizinhos do bloco atual de intra-predição a partir da memória de quadro 72. No caso na Fig. 35, o comutador 73 é omitido a partir da ilustração, mas efetivamente os valores de pixels vizinhos são fornecidos a partir da memória de quadro 72 para a unidade de geração de imagem de predição 471 via o comutador 73. Note que no caso de intra-predição, valores de pixels não submetidos à filtração de desbloqueio pelo filtro de desbloqueio 71 são usados como valores de pixels vizinhos.
[00462] Com base nos sinais de controle a partir da unidade de controle de filtro de interpolação de pixel vizinho 461, a unidade de geração de imagem de predição 471 efetua intra-predição em todos os modos de intra- predições candidatos, efetuando processamento de filtração nos valores de pixels vizinhos, ou não efetuando processamento de filtração, e por meio disso, gerando imagens de predições. O controle de LIGA / DESLIGA pela unidade de controle de filtro de interpolação de pixel vizinho 461 indicado pelos sinais de controle é efetuado em incrementos de blocos ou incrementos de blocos macros conforme descrito mais tarde com referência às Fig. 36 à Fig. 38.
[00463] A unidade de geração de imagem de predição 471 supre os valores de pixels da imagem de predição gerados, e a informação de modo de intra-predição da mesma, para a unidade de geração de valor de função de custo 472.
[00464] A unidade de geração de valor de função de custo 472 é fornecida com os valores de pixels da imagem original a partir da tela de re- arranjamento de área de armazenamento temporário 62. A unidade de geração de valor de função de custo 472 usa os valores de pixels da imagem original e os valores de pixels da imagem de predição para calcular valores de função de custo para cada modo de intra-predição, para os casos de processamento de filtração sendo LIGA e DESLIGA. A unidade de geração de valor de função de custo 472 supre os valores de função de custo calculados, os valores de pixels da imagem de predição, e a informação de modo de intra-predição, para a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00465] A unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 usa os valores de função de custo a partir da unidade de geração de valor de função de custo 472 para determinar o modo de intra-predição ótimo, e qual de LIGA e DESLIGA para configurar o processamento de filtro, e gera informação de sinalizador de LIGA / DESLIGA indicando se o processamento de filtro está no estado LIGA ou DESLIGA.
[00466] A unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 supre a valores de predições de pixels da imagem do modo de intra-predição ótimo para a unidade de seleção de imagem de predição 77. No evento que uma imagem de predição do modo de intra-predição ótimo é selecionada pela unidade de seleção de imagem de predição 77, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 supre informação indicando o modo de intra-predição ótimo e a correspondente informação de sinalizador de LIGA / DESLIGA para a unidade de codificação sem perda 66.
[00467] Note que processamento efetuado pelo dispositivo de codificação de imagem 451 é basicamente o mesmo que o processamento do dispositivo de codificação de imagem 51 na Fig. 1 exceto para o intra- predição descrito a seguir, assim sendo descrição redundante do mesmo será omitida.
[00468] A seguir, o processamento de intra-predição efetuado pela unidade de intra-predição 74 na Fig. 34 no evento de controle de LIGA ou DESLIGA sendo efetuado em incrementos de bloco será descrito com referência ao fluxograma na Fig. 36. Note que este processamento é um outro exemplo do processamento de intra-predição na etapa S31 na Fig. 17, e que no exemplo na Fig. 36, um exemplo de intra 4 x 4 será descrita. Além disso, no seguinte processamento de filtro LIGA / DESLIGA também pode ser referido simplesmente como filtro LIGA / DESLIGA.
[00469] Na etapa S401, a unidade de geração de valor de função de custo 472 gera valores de função de custos para o bloco atual, para cada um dos nove tipos de modo de intra-predições mostrados na Fig. 3 ou Fig. 4.
[00470] Isto é para dizer, a unidade de geração de imagem de predição 471 é fornecida com valores de pixels vizinhos do bloco atual para intra- predição a partir da memória de quadro 72. A unidade de geração de imagem de predição 471 efetua intra-predição em cada um dos nove tipos de modo de intra-predições mostrado na Fig. 3 ou Fig. 4, e gera imagens de predições para o bloco atual.
[00471] Neste momento, sinais de controle para o efeito que processamento de filtração não é para ser efetuado quanto aos pixels vizinhos são fornecidos a partir da unidade de controle de filtro de interpolação de pixel vizinho 461, e a unidade de geração de imagem de predição 471 efetua intra-predição sem efetuar processamento de filtração nos pixels vizinhos. Note que aqui, um arranjo pode ser feito caracterizado pelo fato de que sinais de controle para o efeito que processamento de filtração é para ser efetuado nos pixels vizinhos são fornecidos. Note contudo, controle diferente não é feito considerado os nove modos, tal como efetuar no Vertical mas não efetuar no Horizontal; mais propriamente, o mesmo controle com relação a efetuar ou não efetuar é feito para os nove modos. Também note aqui que não efetuar processamento de filtração em todos os modos permite menos quantidade de computação.
[00472] A unidade de geração de imagem de predição 471 supre os valores de predições de pixels da imagem gerada e a informação de modo de intra-predição para a unidade de geração de valor de função de custo 472. A unidade de geração de valor de função de custo 472 usa os valores de pixels da imagem original a partir da tela de re-arranjamento de área de armazenamento temporário 62 e os valores de predições de pixels da imagem para calcular os valores de função de custo mostrados na Expressão (73) ou Expressão (74) descritas acima para cada modo de intra-predição no caso de filtração estando no estado DESLIGA. A unidade de geração de valor de função de custo 472 supre os valores de função de custo calculados, valores de predições de pixels da imagem, e informação do modo de intra-predição, para a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00473] Na etapa S402, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 usa os valores de função de custo a partir da unidade de geração de valor de função de custo 472 para selecionar um modo de intra-predição ótimo para o bloco atual. A informação de modo de intra- predição selecionada é fornecida para a unidade de controle de filtro de interpolação de pixel vizinho 461.
[00474] Na etapa S403, a unidade de controle de filtro de interpolação de pixel vizinho 461 faz com que a unidade de geração de valor de função de custo 472 para gerar valores de função de custo para o modo de intra-predição selecionado com a filtração no estado de LIGA e DESLIGA. Note que na etapa S401, o valor de função de custo para filtração estando no estado DESLIGA foi gerado, assim efetivamente na etapa S403, o valor da função consta com filtração no estado de LIGA é gerado.
[00475] Isto é para dizer, a unidade de controle de filtro de interpolação de pixel vizinho 461 supre filtração nos sinais de controle e a informação de modo de intra-predição selecionada para a unidade de geração de imagem de predição 471. A unidade de geração de imagem de predição 471 efetua processamento de filtração quanto aos pixels vizinhos usados para o modo de intra-predição selecionado, efetua intra-predição no modo de intra- predição selecionado, e gera uma imagem de predição do bloco atual.
[00476] A unidade de geração de imagem de predição 471 supre os valores de predições de pixels da imagem gerada e a informação de modo de intra-predição selecionada para a unidade de geração de valor de função de custo 472. A unidade de geração de valor de função de custo 472 usa os valores de pixels da imagem original a partir da tela de re-arranjamento de área de armazenamento temporário 62 e os valores de predições de pixels da imagem para calcular os valores de função de custo mostrados na Expressão (73) ou Expressão (74) descrita acima para o modo de intra-predição selecionado no caso de filtração estando no estado de LIGA. A unidade de geração de valor de função de custo 472 supre os valores de função de custo calculados e valores de predições de pixels da imagem para a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00477] Na etapa S404, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 determina filtração LIGA / DESLIGA para o bloco atual comparando os valores de função de custo com filtração LIGA e DESLIGA para o modo de intra-predição selecionado. Isto é para dizer, no evento que o valor de função de custo para filtração LIGA é menor, filtração LIGA é determinado para o bloco atual e no evento que o valor de função de custo para filtração DESLIGA é menor, filtração DESLIGA é determinado para o bloco atual. A unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 então supre os valores de predições da imagem determinados para a unidade de seleção de imagem de predição 77.
[00478] Na etapa S405, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 gera um sinalizador de LIGA / DESLIGA indicando o estado de LIGA ou DESLIGA decidido na etapa S404 para o bloco atual. Por exemplo, no caso de filtração LIGA, o valor de filtro LIGA / DESLIGA é 1. No caso de filtração DESLIGA, o valor de filtro LIGA / DESLIGA é 0.
[00479] No evento que uma imagem de predição no modo de intra- predição foi selecionado na etapa S22 na Fig. 16 descrita acima, a informação de sinalizador de LIGA / DESLIGA gerada é fornecida para a unidade de codificação sem perda 66 junto com a informação indicando o modo de intra- predição ótimo. A informação fornecida é codificada na etapa S23 na Fig. 16, adicionada ao cabeçalho da imagem comprimida, e enviada para o lado de decodificação.
[00480] A seguir, um outro exemplo de processamento de intra- predição da unidade de intra-predição 74 na Fig. 34 no caso de controle de LIGA ou DESLIGA sendo efetuado em incrementos de bloco será descrita com referência ao fluxograma na Fig. 37. No caso de o exemplo na Fig. 37 da mesma forma, um exemplo de intra 4 x 4 será descrito.
[00481] Na etapa S421, a unidade de geração de valor de função de custo 472 gera valores de função de custo para o bloco atual de acordo com filtração sendo LIGA e DESLIGA, para cada um dos modos de intra- predições.
[00482] Isto é para dizer, a unidade de geração de imagem de predição 471 é fornecida com os valores de pixels vizinhos do bloco atual para intra- predição a partir da memória de quadro 72. A unidade de geração de imagem de predição 471 efetua intra-processamento em cada um dos nove tipos de modos de intra-processamento mostrados na Fig. 3 ou Fig. 4, e gera imagens de predições do bloco atual.
[00483] Neste momento, primeiro, sinais de controle para o efeito que processamento de filtração não é para ser efetuado quanto aos pixels vizinhos são fornecidos a partir da unidade de controle de filtro de interpolação de pixel vizinho 461, e a unidade de geração de imagem de predição 471 efetua intra-predição em cada um dos modos de intra-predições sem efetuar processamento de filtração quanto aos pixels vizinhos, e gera imagens de predições. Adicionalmente, sinais de controle para o efeito que processamento de filtração é para ser efetuado quanto aos pixels vizinhos são fornecidos a partir da unidade de controle de filtro de interpolação de pixel vizinho 461, e a unidade de geração de imagem de predição 471 efetua intra-predição em cada um dos modos de intra-predições tendo efetuado processamento de filtração quanto aos pixels vizinhos, e gera imagens de predições.
[00484] A unidade de geração de imagem de predição 471 supre a informação de cada um dos modos de intra-predições com filtração LIGA e DESLIGA, e os correspondentes valores de predições de pixels da imagem, para a unidade de geração de valor de função de custo 472. A unidade de geração de valor de função de custo 472 usa os valores de pixels da imagem original a partir da tela de re-arranjamento de área de armazenamento temporário 62 e dos valores de predições de pixels da imagem para calcular os valores de função de custo mostrados na Expressão (73) ou Expressão (74) descritas acima para cada modo de intra-predição em cada caso da filtração estando DESLIGA e estando LIGA. A unidade de geração de valor de função de custo 472 supre os valores de função de custo calculados, os valores de predições de pixels da imagem, e a informação de modo de intra-predição, em cada caso da filtração estando DESLIGA e estando LIGA, para a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00485] Na etapa S422, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 usa os valores de função de custo a partir da unidade de geração de valor de função de custo 472 para determinar se filtração deve estar LIGA ou DESLIGA para o bloco atual com cada modo de intra-predição.
[00486] Na etapa S423, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 seleciona o modo de intra-predição ótimo para o bloco atual fora do modo de intra-predições considerando que determinação foi feita para filtração LIGA ou DESLIGA.
[00487] Na etapa S424, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 gera informação de sinalizador de LIGA / DESLIGA indicando o estado do filtro para o modo de intra-predição selecionado (LIGA ou DESLIGA). No evento que uma imagem de predição no modo de intra-predição foi selecionado na etapa S22 na Fig. 16 descrito acima, a informação de sinalizador de LIGA / DESLIGA gerada é fornecida para a unidade de codificação sem perda 66 junto com a informação indicando o modo de intra-predição ótimo. A informação fornecida é codificada na etapa S23 na Fig. 16, adicionada ao cabeçalho da imagem comprimida, e enviada para o lado de decodificação.
[00488] A seguir, o processamento de intra-predição efetuado pela unidade de intra-predição 74 na Fig. 34 no evento de controle de LIGA ou DESLIGA sendo efetuado em incrementos de blocos macros será descrito com referência ao fluxograma na Fig. 38. Note que este processamento é um outro exemplo do intra-processamento de predição na etapa S31 na Fig. 17, e que um exemplo de intra 4 x 4 será descrito da mesma forma no exemplo na Fig. 38.
[00489] Na etapa S451, a unidade de controle de filtro de interpolação de pixel vizinho 461 configura a filtração quanto ao inteiro bloco macro para DESLIGA ou LIGA. Neste caso, a unidade de controle de filtro de interpolação de pixel vizinho 461 configura a filtração para DESLIGA, e supre sinais de controle para filtração DESLIGA para a unidade de geração de imagem de predição 471. Configuração da filtração podem ser ou LIGA ou DESLIGA, mas configuração para DESLIGA pode ser realizado com menos quantidade de cálculo.
[00490] Na etapa S452, a unidade de intra-predição 74 determina o modo de intra-predição para cada bloco. Isto é para dizer, a unidade de geração de imagem de predição 471 é fornecida com valores de pixels vizinhos do bloco atual para intra-predição a partir da memória de quadro 72. A unidade de geração de imagem de predição 471 efetua intra-processamento em cada um dos nove tipos de modos de intra-processamento mostrados na Fig. 3 ou Fig. 4, e gera imagens de predições do bloco atual.
[00491] Neste momento, primeiro, sinais de controle para o efeito que processamento de filtração não é para ser efetuado quanto aos pixels vizinhos são fornecidos a partir da unidade de controle de filtro de interpolação de pixel vizinho 461, e a unidade de geração de imagem de predição 471 efetua intra-predição em cada um dos modos de intra-predições sem efetuar processamento de filtração quanto aos pixels vizinhos, e gera imagens de predições. A unidade de geração de imagem de predição 471 supre os valores de predições de pixels da imagem gerada e a informação de modo de intra- predição da mesma para a unidade de geração de valor de função de custo 472.
[00492] A unidade de geração de valor de função de custo 472 usa os valores de pixels da imagem original a partir da tela de re-arranjamento de área de armazenamento temporário 62 e os valores de predições de pixels da imagem para calcular os valores de função de custo mostrados na Expressão (73) ou Expressão (74) descrita acima para cada modo de intra-predição em cada caso de filtração estando DESLIGA. A unidade de geração de valor de função de custo 472 supre os valores de função de custo calculados, valores de predições de pixels da imagem, e informação de modo de intra-predição, em cada caso de filtração estando DESLIGA para a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00493] A unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 usa os valores de função de custo a partir da unidade de geração de valor de função de custo 472 para determinar um modo de intra-predição ótimo para cada bloco. A informação de modo de intra-=predição decodificada é fornecida para a unidade de controle de filtro de interpolação de pixel vizinho 461.
[00494] Na etapa S453, a unidade de controle de filtro de interpolação de pixel vizinho 461 faz com que a unidade de geração de valor de função de custo 472 gere valores de função de custo para filtração LIGA e DESLIGA para o bloco macro inteiro. Note que os valores de função de custo para o modo de intra-predição ótimo para cada bloco dentro do bloco macro (i.e., o bloco macro inteiro) com filtração DESLIGA foram gerados na etapa S452. Consequentemente, efetivamente na etapa S453, os valores de função de custo para o bloco macro inteiro com filtração LIGA são gerados.
[00495] Isto é para dizer, a unidade de controle de filtro de interpolação de pixel vizinho 461 supre filtração nos sinais de controle, e informação do modo de intra-predição determinado para cada um dos blocos, para a unidade de geração de imagem de predição 471. A unidade de geração de imagem de predição 471 efetua processamento de filtração quanto aos valores de pixels vizinhos usados no modo de intra-predição determinado, efetua intra-predição com o modo de intra-predição determinado, e gera uma imagem de predição para o bloco atual.
[00496] A unidade de geração de imagem de predição 471 supre os valores de predições de pixels da imagem gerada e informação de modo de intra-predição determinada para a unidade de geração de valor de função de custo 472. A unidade de geração de valor de função de custo 472 usa os valores de pixels da imagem original a partir da tela de re-arranjamento de área de armazenamento temporário 62 e os valores de predições de pixels da imagem para calcular os valores de função de custo mostrados na Expressão (73) ou Expressão (74) descrita acima para o modo de intra-predição determinado em cada caso de filtração estando LIGA. A unidade de geração de valor de função de custo 472 supre os valores de função de custo calculados, os valores de predições de pixels da imagem, e a informação de modo de intra-predição, em cada caso de filtração sendo LIGA e DESLIGA, para a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473.
[00497] Na etapa S454, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 compara o valor de função de custo de todos os blocos dentro do bloco macro no casos de filtração LIGA e DESLIGA a partir da unidade de geração de valor de função de custo 472, e determina qual da filtração LIGA / DESLIGA aplicar para o bloco macro inteiro.
[00498] Na etapa S455, a unidade de geração de sinalizador de LIGA / DESLIGA e de modo 473 gera um sinalizador de LIGA / DESLIGA indicando o estado de LIGA ou DESLIGA decidido na etapa S454, quanto ao bloco macro inteiro. A informação de sinalizador de LIGA / DESLIGA gerada é fornecida para a unidade de codificação sem perda 66 para cada bloco macro. A informação fornecida é codificada na etapa S23 na Fig. 16, adicionada ao cabeçalho da imagem comprimida, e enviada ao lado de decodificação.
[00499] Conforme descrito acima, controle de filtração LIGA / DESLIGA (LIGA ou DESLIGA) pode ser efetuado em incrementos de blocos, ou pode ser efetuado em incrementos de blocos macros. Note que enquanto a precisão de predição de processamento de intra-predição pode ser melhorado controlando LIGA / DESLIGA em incrementos de blocos, a quantidade de informação necessária para transmitir a informação de sinalizador para cada bloco aumenta. Reciprocamente, com o caso de controlar em incrementos de blocos macros, o melhoramento na precisão de predição é inferior do que aquele de efetuar em incrementos de blocos, mas uma informação de sinalizador por bloco macro é suficiente, e aumento na quantidade de informação de sinalizador pode ser reduzido.
[00500] Enquanto um exemplo de sinais de intensidade luminosa por unidade de área foi descrito na descrição acima, este pode ser usado para intra-predição considerando sinais de diferença de cor da mesma forma. Além disso, os coeficientes de filtro no processamento de filtração a serem controlados não são restritos às três saías {1,2,1} / / 4 no formato de H.264 / AVC, e isto pode ser aplicado a quaisquer coeficientes de qualquer comprimento de saída configurado com o dispositivo de codificação de imagem 51 na Fig. 1.
[00501] Isto é para dizer, no caso de filtração LIGA, processamento de filtração com os coeficientes de filtro configurados pelo dispositivo de codificação de imagem 51 na Fig. 1 também pode ser efetuado.
[00502] Um dispositivo de decodificação de imagem que recebe a imagem comprimida codificada pelo dispositivo de codificação de imagem 451 e a decodifica será descrito com referência à Fig. 39.
[Outro Exemplo de Dispositivo de Decodificação de Imagem]
[00503] A Fig. 39 ilustra a configuração de uma outra modalidade de um dispositivo de decodificação de imagem como um dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00504] Um dispositivo de decodificação de imagem 501 tem em comum com o dispositivo de decodificação de imagem 151 na Fig. 22 o ponto de incluir a área de armazenamento temporário 161, a unidade de decodificação sem perda 162, a unidade de quantização inversa 163, a unidade de transformada ortogonal inversa 164, a unidade de computação 165, o filtro de desbloqueio 166, a tela de re-arranjamento de área de armazenamento temporário 167, a unidade de conversão de D / A 168, a memória de quadro 169, o comutador 170, a unidade de intra-predição 171, a unidade de desvio / predição de movimento 173, e o comutador 174.
[00505] Além disso, o dispositivo de decodificação de imagem 501 difere do dispositivo de decodificação de imagem 151 na Fig. 22 considerando o ponto da unidade de comutação de filtro de interpolação de pixel 172 tendo sido substituído pela unidade de controle de filtro de interpolação de pixel vizinho 511.
[00506] Isto é para dizer, informação indicando o modo de intra- predição obtida decodificando informação de cabeçalho é fornecida a partir da unidade de decodificação sem perda 162 para a unidade de intra-predição 171. Com base nesta informação, a unidade de intra-predição 171 gera uma imagem de predição, e emite a imagem de predição gerada para o comutador 174.
[00507] Neste momento. antes do intra-predição, a unidade de intra- predição 171 efetua (ou não efetua) processamento de filtração quanto aos valores de pixels vizinhos de acordo com sinais de controle a partir da unidade de controle de filtro de interpolação de pixel vizinho 511.
[00508] A unidade de controle de filtro de interpolação de pixel vizinho 511 é fornecida com informação de sinalizador de LIGA / DESLIGA para cada bloco macro ou cada bloco a partir da unidade de decodificação sem perda 162, de acordo com a codificação no dispositivo de codificação de imagem 451. A unidade de controle de filtro de interpolação de pixel vizinho 511 supre a unidade de intra-predição 171 com sinais de controle para o efeito que processamento de filtração é para ser efetuado ou não efetuado, de acordo com a informação fornecida de sinalizador de LIGA / DESLIGA.
[00509] Note que com o dispositivo de codificação de imagem 451 na Fig. circuito de pré-codificação conjunta 34, ambos os casos de filtração estando LIGA e estando DESLIGA são testados, e processamento de intra- predição é efetuado tendo selecionado aquele que produz a mais alta eficiência de codificação por valores de função de custo. Por outro lado, com o dispositivo de codificação de imagem 501, filtração LIGA ou DESLIGA é controlado com base na informação de sinalizador LIGA / DESLIGA enviado codificado, e processamento de intra-predição é efetuado.
[Exemplo de configuração da Unidade de intra-predição e Unidade de Controle de Filtro de Interpolação de Elemento Mínimo de Imagem Vizinho]
[00510] A Fig. 40 é um diagrama em bloco ilustrando um exemplo detalhado de configuração da unidade de intra-predição e da unidade de controle de filtro de interpolação de pixel vizinho.
[00511] No caso do exemplo na Fig. 40, a unidade de intra-predição 171 é configurada de uma área de armazenamento temporário de modo de predição 521 e de uma unidade de geração de imagem de predição 522. A unidade de controle de filtro de interpolação de pixel vizinho 511 é configurada de uma área de armazenamento temporário de sinalizador 531 e de uma unidade de geração de sinal de controle 532.
[00512] A área de armazenamento temporário de modo de predição 521 é fornecida com a informação de modo de intra-predição a partir da unidade de decodificação sem perda 162. A unidade de geração de imagem de predição 522 é fornecida com valores de pixels vizinhos do bloco atual para intra-predição a partir da memória de quadro 169. Da mesma forma, no caso da Fig. 40, o comutador 170 é omitido a partir da ilustração, mas efetivamente, os valores de pixels vizinhos são fornecidos a partir da memória de quadro 169 para a unidade de geração de imagem de predição 522 via o comutador 170.
[00513] A unidade de geração de imagem de predição 522 lê a informação de modo de intra-predição para o bloco atual a partir da área de armazenamento temporário de modo de predição 521, efetua intra-predição no bloco atual no modo de intra-predição que foi lido, e gera a imagem de predição. Antes deste intra predição, a unidade de geração de imagem de predição 522 efetua processamento de filtração nos valores de predições de pixels da imagem a partir da memória de quadro 169 de acordo com os sinais de controle a partir da unidade de geração de sinal de controle 532.
[00514] A área de armazenamento temporário de sinalizador 531 é fornecida com a informação de sinalizador de LIGA / DESLIGA a partir da unidade de decodificação sem perda 162 para cada bloco macro ou cada bloco. A unidade de geração de sinal de controle 532 lê o correspondente sinalizador de LIGA / DESLIGA a partir da área de armazenamento temporário de sinalizador 531, gera sinais de controle indicando se é ou não para efetuar processamento de filtração para cada bloco, e supre os sinais de controle gerados para a unidade de geração de imagem de predição 522.
[00515] Note que o processamento efetuado pelo dispositivo de decodificação de imagem 501 é basicamente o mesmo que o processamento do dispositivo de decodificação de imagem 151 na Fig. 22 exceto para o processamento de predição descrito a seguir, assim descrição redundante do mesmo será omitido.
[Descrição de Processamento de Prognóstico]
[00516] A seguir, processamento de predição do dispositivo de decodificação de imagem 501 na Fig. 39 será descrito com referência ao fluxograma na Fig. 41. Note que este processamento de intra-predição é um outro exemplo do processamento de predição na etapa S138 na Fig. 24.
[00517] Na etapa S501, a unidade de geração de imagem de predição 522 determina se o bloco atual é ou não intra-codificado. Informação de modo de intra-predição é fornecida a partir da unidade de decodificação sem perda 162 para a área de armazenamento temporário de modo de predição 521, que é lida pela unidade de geração de imagem de predição 522. Consequentemente, na etapa S501, a unidade de geração de imagem de predição 522 determina que o bloco atual é intra-codificado, e o processamento avança para a etapa S502.
[00518] Na etapa S502, a unidade de geração de imagem de predição 522 obtém a informação de modo de intra-predição da área de armazenamento temporário de modo de predição 521.
[00519] Além disso, quando da informação de sinalizador de LIGA / DESLIGA a partir da unidade de decodificação sem perda 162 sendo fornecida para a área de armazenamento temporário de sinalizador 531, a área de armazenamento temporário de sinalizador 531 obtém um sinalizador de valores de predições de pixels da imagem na etapa S503, e o armazena.
[00520] A unidade de geração de sinal de controle 532 lê o sinalizador de LIGA / DESLIGA correspondendo ao sinalizador atual a partir da área de armazenamento temporário de sinalizador 531, e na etapa S504 determina se o sinalizador de LIGA / DESLIGA é ou não 1. No evento que determinação é feita na etapa S504 que o sinalizador de LIGA / DESLIGA é 1, i.e., que o processamento de filtração está LIGA, a unidade de geração de sinal de controle 532 supre sinais de controle para a unidade de geração de imagem de predição 522 para fazer com que o processamento de filtração seja efetuado.
[00521] De acordo com os sinais de controle, na etapa S505 a unidade de geração de imagem de predição 522 submete os pixels vizinhos ao processamento de filtração usando os coeficientes de filtro. Na etapa S506, a unidade de geração de imagem de predição 522 efetua intra-predição usando os valores de pixels vizinhos submetidos ao processamento de filtração, e gera uma imagem de predição.
[00522] Por outro lado, no evento que determinação é feita na etapa S504 que o sinalizador de LIGA / DESLIGA não é 1, i.e., que o processamento de filtração está DESLIGA, o processamento de filtração na etapa S505 é pulado, e o processamento avança para a etapa S506.
[00523] Na etapa S506, a unidade de geração de imagem de predição 522 usa os valores de predições de pixels da imagem a partir da memória de quadro 169 para efetuar intra predição, e gera uma imagem de predição.
[00524] A imagem de predição gerado na etapa S506 é fornecida para o comutador 174.
[00525] Por outro lado, no evento que determinação é feita na etapa S501 que intra-codificação não é efetuada, o processamento avança para a etapa S507.
[00526] Na etapa S507, a unidade de desvio / predição de movimento 173 efetua inter-predição de movimento. Isto é para dizer, no evento que a imagem a ser processada é uma imagem para processamento de inter- predição, a imagem necessária é lida a partir da memória de quadro 169, e fornecida para a unidade de desvio / predição de movimento 173 via o comutador 170. Na etapa S508, a unidade de desvio / predição de movimento 173 efetua predição de movimento no modo de inter-predição ótimo com base no vetor de movimento obtida na etapa S507, e gera uma imagem de predição. A imagem de predição gerada é emitida para o comutador 174.
[00527] Conforme descrito acima, com o dispositivo de codificação de imagem 451 e dispositivo de decodificação de imagem 501, LIGA e DESLIGA de processamento de filtração quanto aos pixels vizinhos usados para intra-predição é controlado, e processamento de filtração não é efetuado para blocos onde a eficiência de codificação deteriora. Consequentemente, a eficiência de codificação pode ser melhorada.
[00528] Note que enquanto um exemplo de efetuar intra-predição foi descrita na descrição acima, controle de processamento de filtração LIGA e DESLIGA pode ser aplicado para o intra-predição no predição de segunda ordem descrito acima com referência à Fig. 32.
<4. Quarta modalidade> [Outro Exemplo de Configuração do Dispositivo de Codificação de Imagem]
[00529] A Fig. 42 mostra a configuração de uma outra modalidade de um dispositivo de codificação de imagem servindo como um dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00530] Um dispositivo de codificação de imagem 551 tem em comum com o dispositivo de codificação de imagem 451 na Fig. 34 o ponto de ter a unidade de conversão de A / D 61, a tela de re-arranjamento de área de armazenamento temporário 62, a unidade de computação 63, a unidade de transformada ortogonal 64, a unidade de quantização 65, a unidade de codificação sem perda 66, a área de armazenamento temporário 67, unidade de quantização inversa 68, a unidade de transformada ortogonal inversa 69, a unidade de computação 70, o filtro de desbloqueio 71, a memória de quadro 72, o comutador 73, a unidade de intra-predição 74, a unidade de desvio / predição de movimento 76, a unidade de seleção de imagem de predição 77, e a unidade de controle de taxa 78.
[00531] Além disso, o dispositivo de codificação de imagem 551 difere do dispositivo de codificação de imagem 451 na Fig. 34 com relação aos pontos que a unidade de controle de filtro de interpolação de pixel vizinho 461 foi omitida e que a unidade de predição de segunda ordem 361 na Fig. 31 e a unidade de controle de filtro de interpolação de pixel vizinho 561 fornecem adicionadas.
[00532] Isto é para dizer, com o exemplo na Fig. 42, a unidade de intra-predição 74 efetua intra-predição de acordo com H.264 / AVC.
[00533] Por outro lado, a unidade de desvio / predição de movimento 76 detecta vetores de movimento para todos os modos de inter-predição candidatos, com base na imagem para inter-processamento e uma imagem de referência, submete a imagem de referência ao processamento de desvio com base nos vetores de movimento, e gera uma imagem de predição.
[00534] A unidade de desvio / predição de movimento 76 supre a unidade de predição de segunda ordem 361 com informação de vetor de movimento detectada, informação de uma imagem para inter-processamento (endereço, etc.), e resíduo de primeira ordem que é a diferença entre a imagem para inter-predição e a imagem de predição gerada.
[00535] A unidade de desvio / predição de movimento 76 determina um modo de intra-produção ótimo no predição de segunda ordem comparando os resíduos de segunda ordem a partir da unidade de predição de segunda ordem 361. Além disso, a unidade de desvio / predição de movimento 76 determina se é para codificar o resíduo de segunda ordem ou para codificar o resíduo de primeira ordem, comparando o resíduo de segunda ordem com o resíduo de primeira ordem. Note que este processamento é efetuado em todos os modos de inter-predição candidatos.
[00536] A unidade de desvio / predição de movimento 76 calcula valores de função de custo para todos os modos de inter-predição candidatos. Neste momento, do resíduo de primeira ordem e do resíduo de segunda ordem, o resíduo determinado para cada modo de inter-predição ótimo é usado para calcular o valor de função de custo. A unidade de desvio / predição de movimento 76 determina o modo de predição o qual produz o menor valor dos valores de função de custo calculados para ser o modo de inter-predição ótimo.
[00537] A unidade de desvio / predição de movimento 76 supre a imagem de predição gerada no modo de inter-predição ótimo (ou diferença entre imagem para inter e resíduo de segunda ordem), e o valor de função de custo da mesma para a unidade de seleção de imagem de predição 77. No evento que a imagem de predição gerada pela unidade de seleção de imagem de predição 77 no modo de inter-predição ótimo foi selecionada, a unidade de desvio / predição de movimento 76 emite informação indicando o modo de inter-predição ótimo para a unidade de codificação sem perda 66.
[00538] Neste momento, informação de vetor de movimento, informação de quadro de referência, um sinalizador de predição de segunda ordem indicando que predição de segunda ordem é para ser efetuado, informação do modo de intra-predição no predição de segunda ordem, e assim por diante, são também emitidos para a unidade de codificação sem perda 66. A unidade de codificação sem perda 66 também efetua processamento de codificação sem perda tal como codificação de comprimento variável, codificação aritmética, e assim por diante, na informação a partir da unidade de desvio / predição de movimento 76, e a insere para a porção de cabeçalho da imagem comprimida.
[00539] Com base na informação de vetor de movimento a partir da unidade de desvio / predição de movimento 76 e da informação da imagem a ser submetida ao inter-processamento, a unidade de predição de segunda ordem 361 lê os pixels vizinhos atuais vizinhos ao bloco atual que é um a ser submetido ao inter-processamento, a partir da memória de quadro 72. Além disso, a unidade de predição de segunda ordem 361 lê os pixels vizinhos de referência vizinhos ao bloco de referência correlacionados com o bloco atual através da informação de vetor de movimento, a partir da memória de quadro 72.
[00540] A unidade de predição de segunda ordem 361 efetua processamento de predição de segunda ordem descrito acima com referência à Fig. 32. Processamento de predição de segunda ordem é processamento caracterizado pelo fato de que intra-predição é efetuado entre o resíduo de primeira ordem e a diferença entre os pixels vizinhos atuais e os pixels vizinhos de referência, e por meio disso, gerando informação de diferença de segunda ordem (resíduo de segunda ordem).
[00541] Note contudo, que antes deste predição de segunda ordem, a unidade de predição de segunda ordem 361 na Fig. 42 efetua (ou não efetua) processamento de filtração quanto à diferença entre os pixels vizinhos atuais e os pixels vizinhos de referência usados para inter-predição, de acordo com sinais de controle a partir da unidade de controle de filtro de interpolação de pixel vizinho 561. A unidade de predição de segunda ordem 361 então usa a diferença filtrada (ou não filtrada) entre os pixels vizinhos atuais e pixels vizinhos de referência para efetuar processamento de predição de segunda ordem, e emite a informação de diferença de segunda ordem (resíduo de segunda ordem) obtida para a unidade de desvio / predição de movimento 76. Neste momento, a unidade de predição de segunda ordem 361 também emite informação de sinalizador de LIGA / DESLIGA indicando se é para efetuar ou não processamento de filtração para a unidade de desvio / predição de movimento 76.
[00542] Isto é para dizer, a unidade de predição de segunda ordem 361 inclui a unidade de intra-predição 74 mostrada na Fig. 35.
[00543] A unidade de controle de filtro de interpolação de pixel vizinho 561 é configurada basicamente na mesma maneira que com a unidade de controle de filtro de interpolação de pixel vizinho 461, e efetua o mesmo processamento. Isto é para dizer, a unidade de controle de filtro de interpolação de pixel vizinho 561 supre sinais de controle efetuando controle se é para efetuar ou não processamento de filtração em incrementos de blocos ou incrementos de blocos macros para a unidade de predição de segunda ordem 361.
[00544] Note que processamento efetuado pelo dispositivo de codificação de imagem 551 na Fig. 42 é basicamente o mesmo que o processamento do dispositivo de codificação de imagem 451 na Fig. 34 (i.e., o processamento de codificação na Fig. 16) exceto para o seguinte intra- processamento e processamento de predição de movimento, assim sendo descrição do mesmo será omitido.
[00545] Isto é para dizer, com o dispositivo de codificação de imagem 551 na Fig. 42, intra-predição de acordo com o formato de H.264 / AVC é efetuado como intra-processamento. Além disso, como processamento de predição de movimento, processamento de filtração é controlado de acordo com sinais de controle a partir da unidade de controle de filtro de interpolação de pixel vizinho 561 no momento do processamento de predição de movimento, e por meio disso, informação de diferença de segunda ordem filtrada (ou não filtrada) é gerada. Da informação de diferença de primeira ordem e da informação de diferença de segunda ordem, que com melhor eficiência de codificação é selecionada, e valores de função de custo são comparados, e por meio disso, um modo de inter-predição ótimo é determinado.
[00546] Um dispositivo de decodificação de imagem que recebe a imagem comprimida codificada por este dispositivo de codificação de imagem 551 e a decodifica será descrito com referência à Fig. 43.
[Outro Exemplo de Configuração do Dispositivo de Decodificação de Imagem]
[00547] A Fig. 43 ilustra a configuração de uma outra modalidade de um dispositivo de decodificação de imagem como um dispositivo de processamento de imagem ao qual a presente invenção foi aplicada.
[00548] Um dispositivo de decodificação de imagem 601 tem em comum com o dispositivo de decodificação de imagem 501 na Fig. 39 o ponto de incluir a área de armazenamento temporário 161, a unidade de decodificação sem perda 162, a unidade de quantização inversa 163, a unidade de transformada ortogonal inversa 164, a unidade de computação 165, o filtro de desbloqueio 166, a tela de re-arranjamento de área de armazenamento temporário 167, a unidade de conversão de D / A 168, a memória de quadro 169, o comutador 170, a unidade de intra-predição 171, a unidade de desvio / predição de movimento 173, e o comutador 174.
[00549] Além disso, o dispositivo de decodificação de imagem 601 difere do dispositivo de decodificação de imagem 501 na Fig. 39 com relação aos pontos que a unidade de controle de filtro de interpolação de pixel vizinho 511 foi omitida, e que a unidade de predição de segunda ordem 411 na Fig. 33 e a unidade de controle de filtro de interpolação de pixel vizinho 611 forma adicionadas.
[00550] Isto é para dizer, informação indicando o modo de intra- predição obtida decodificando informação de cabeçalho é fornecida a partir da unidade de decodificação sem perda 162 para a unidade de intra-predição 171. Com base nesta informação, a unidade de intra-predição 171 gera uma imagem de predição, e emite a imagem de predição gerada para o comutador 174.
[00551] Da informação obtida decodificando a informação de cabeçalho, a informação de modo de predição, a informação de vetor de movimento, a informação de quadro de referência, e assim por diante, são fornecidas a partir da unidade de decodificação sem perda 162 para a unidade de desvio / predição de movimento 173. Além disso, no evento que processamento de predição de segunda ordem foi aplicada ao bloco atual, um sinalizador de predição de segunda ordem e informação de modo de intra- predição para o predição de segunda ordem são também fornecidos a partir da unidade de decodificação sem perda 162 para a unidade de desvio / predição de movimento 173.
[00552] No evento de ter determinado que processamento de predição de segunda ordem foi aplicada, a unidade de desvio / predição de movimento 173 controla a unidade de predição de segunda ordem 411 a fim de efetuar predição de segunda ordem com o modo de intra-predição que a informação de modo de intra-predição de predição de segunda ordem indica.
[00553] A unidade de desvio / predição de movimento 173 efetua predição de movimento e processamento de desvio na imagem com base na informação de vetor de movimento e na informação de quadro de referência, e gera a imagem de predição. Isto é para dizer, uma imagem de predição do bloco atual é gerado usando os valores dos pixels do bloco de referência correlacionados ao bloco atual, dentro do bloco de referência. A unidade de desvio / predição de movimento 173 então adiciona a imagem de predição gerada e os valores de diferença de predição a partir da unidade de predição de segunda ordem 411, e os emite para o comutador 174.
[00554] A unidade de predição de segunda ordem 411 efetua predição de segunda ordem usando a diferença entre os pixels vizinhos atuais e os pixels vizinhos de referência lida a partir da memória de quadro 169. Note contudo, no evento que sinais de controle efetuando controle para efetuar processamento de filtração foram recebidos a partir da unidade de controle de filtro de interpolação de pixel vizinho 611, a unidade de predição de segunda ordem 411 efetua processamento de filtração na diferença dos pixels vizinhos atuais e os pixels vizinhos de referência antes deste predição de segunda ordem. A unidade de predição de segunda ordem 411 então usa a diferença dos pixels vizinhos atual e os pixels vizinhos de referência submetidos ao processamento de filtração para efetuar processamento de predição de segunda ordem, e emite a informação de diferença de segunda ordem (resíduo de segunda ordem) obtida para a unidade de desvio / predição de movimento 173.
[00555] Note que no evento que sinais de controle efetuando controle não para efetuar processamento de filtração foram recebidos a partir da unidade de controle de filtro de interpolação de pixel vizinho 611, a unidade de predição de segunda ordem 411 não efetua processamento de filtração, e efetua processamento de segunda ordem usando a diferença dos pixels vizinhos atuais e pixels vizinhos de referência.
[00556] Isto é para dizer, a unidade de predição de segunda ordem 411 é configurada incluindo a unidade de intra-predição 171 mostrada na Fig. 40.
[00557] A unidade de controle de filtro de interpolação de pixel vizinho 611 é configurada basicamente na mesma maneira que a unidade de controle de filtro de interpolação de pixel vizinho 511 na Fig. 39, e basicamente efetua o mesmo processamento. Isto é para dizer, a unidade de controle de filtro de interpolação de pixel vizinho 611 é fornecida com, da informação obtida decodificando a informação de cabeçalho, a informação de sinalizador de LIGA / DESLIGA, a partir da unidade de decodificação sem perda 162. A unidade de controle de filtro de interpolação de pixel vizinho 611 supre sinais de controle para fazer com que a unidade de predição de segunda ordem 411 efetue ou não efetue processamento de filtração dos pixels vizinhos, de acordo com a informação de sinalizador de LIGA / DESLIGA.
[00558] Note que processamento efetuado pelo dispositivo de decodificação de imagem 601 na Fig. 43 é basicamente o mesmo que o processamento do dispositivo de decodificação de imagem 501 na Fig. 39 (i.e., o processamento de decodificação na Fig. 24) exceto para o seguinte intra-processamento e processamento de predição de movimento, assim a descrição do mesmo será omitido.
[00559] Isto é para dizer, com o dispositivo de decodificação de imagem 601 na Fig. 43, intra-predição de acordo com o formato de H.264 / AVC é efetuado como intra-processamento. Além disso, como processamento de predição de movimento, processamento de filtração é controlado de acordo com sinais de controle a partir da unidade de controle de filtro de interpolação de pixel vizinho 611 no momento de processamento de predição de movimento, predição de segunda ordem (intra-predição) é efetuado, e informação de diferença de segunda ordem é gerada.
[00560] O controle de LIGA e DESLIGA do processamento de filtração também pode ser aplicado ao intra-predição com processamento de predição de segunda ordem tal como descrito acima, da mesma forma.
[00561] Note que enquanto descrição foi feita com a descrição acima considerando um caso que o tamanho de blocos macros é 16 x 16 pixels, mas a presente invenção pode ser aplicada da mesma forma para os tamanhos de bloco macro estendidos descrito na PTL 3.
[00562] A Fig. 44 é um diagrama ilustrando um exemplo de um tamanho de bloco macro estendido. Com PTL 3, o tamanho do bloco macro é estendido até 32 x 32 pixels.
[00563] Blocos macros compostos de 32 x 32 pixels divididos em blocos (partições) de 32 x 32 pixels, 32 x 16 pixels, 16 x 32 pixels, e 16 x 16 pixels são mostrados a partir da esquerda em ordem na camada superior na Fig. 44. Blocos compostos de 16 x 16 pixels dividido em blocos de 16 x 16 pixels, 16 x 8 pixels, 8 x 16 pixels, e 8 x 8 pixels são mostrados a partir da esquerda em ordem na camada intermediária na Fig. 44. Além disso, blocos compostos de 8 x 8 pixels dividido em blocos de 8 x 8 pixels, 8 x 4 pixels, 4 x 8 pixels, e 4 x 4 pixels são mostrado a partir da esquerda em ordem na camada inferior na Fig. 44.
[00564] Em outras palavras, os blocos macros de 32 x 32 pixels podem ser processados com blocos de 32 x 32 pixels, 32 x 16 pixels, 16 x 32 pixels, e 16 x 16 pixels mostrados na camada superior na Fig. 44.
[00565] Além disso, os blocos de 16 x 16 pixels mostrados no lado direito na camada superior podem ser processados com blocos de 16 x 16 pixels, 16 x 8 pixels, 8 x 16 pixels, e 8 x 8 pixels mostrados na camada intermediária na mesma maneira que com o formato de H.264 / AVC.
[00566] Adicionalmente, os blocos de 8 x 8 pixels mostrado no lado direito na camada intermediária pode ser processada com blocos de 8 x 8 pixels, 8 x 4 pixels, 4 x 8 pixels, e 4 x 4 pixels mostrados na camada inferior na mesma maneira que com o formato de H.264 / AVC.
[00567] Com os tamanho de bloco macro estendido, empregando tal uma estrutura hierárquica, considerando um bloco de 16 x 16 pixels ou menos, um bloco maior é definido como um super conjunto do mesmo enquanto mantendo compatibilidade com o formato de H.264 / AVC.
[00568] A configuração, cálculo de coeficiente de filtro e controle de processamento de filtro LIGA / DESLIGA, de acordo com a presente invenção, também podem ser aplicados aos tamanhos de bloco macro estendidos propostos conforme descrito acima.
[00569] Descrição foi feita até agora com o formato de H.264 / AVC empregado como um formato de codificação, mas a presente invenção não é restrita a isto, e um outro formato de codificação / formato de decodificação para efetuar predição usando os pixels vizinhos (por ex., intra-predição ou predição de segunda ordem) pode ser empregado.
[00570] Note que a presente invenção pode ser aplicada a um dispositivo de codificação de imagem e um dispositivo de decodificação de imagem usados no momento de receber informação de imagem (sequências de bits) comprimida por transformada ortogonal tal como transformada de co- seno discreto ou o similar e desvio de movimento via um meio de rede tal como transmissão por difusão via satélite, uma televisão à cabo, a Internet, um telefone celular, ou o similar, por exemplo, como com MPEG, H.26x, ou o similar. Além disso, a presente invenção pode ser aplicada a um dispositivo de codificação de imagem e um dispositivo de decodificação de imagem usados no momento do processar informação de imagem na mídia de armazenamento tal como disco óptico, um disco magnético, e memória flash. Adicionalmente, a presente invenção pode ser aplicada a um dispositivo de desvio / predição de movimento incluído em tal um dispositivo de codificação de imagem e um dispositivo de decodificação de imagem.
[00571] A série de processamento mencionada acima pode ser executada por hardware, ou pode ser executada por software. No evento de executar a série de processamento por software, um programa compondo o software do mesmo é instalado em um computador. Aqui, exemplos do computador incluem um computador constituído em hardware dedicado, e um computador pessoal de propósito geral e por meio disso, várias funções podem ser executadas instalando vários programas nele.
[00572] A Fig. 45 é um diagrama em bloco ilustrando um exemplo de configuração do hardware de um computador que executa a série de processamento mencionada acima usando um programa.
[00573] Com o computador, uma CPU (Unidade de Processamento Central) 801, ROM (Memória de Somente de Leitura) 802, e RAM (Memória de Acesso Randômico) 803 são mutuamente conectados através de um de múltiplas vias de comunicação 804.
[00574] Adicionalmente, uma interface de entrada / saída 805 é conectada ao cabo de múltiplas vias de comunicação 804. Uma unidade de entrada 806, uma unidade de saída 807, uma unidade de armazenamento 808, uma unidade de comunicação 809, e um mecanismo de operação 810 são conectados à interface de entrada / saída 805.
[00575] A unidade de entrada 806 é composta de um teclado, um mouse, um microfone, e assim por diante. A unidade de saída 807 é composto de um monitor, um alto-falante, e assim por diante. A unidade de armazenamento 808 é composta de um disco rígido, memória não volátil, e assim por diante. A unidade de comunicação 809 é composta de uma interface de rede e assim por diante. O mecanismo de operação 810 opera um meio removível 811 tal como um disco magnético, um disco óptico, um disco magnético óptico, memória de semicondutor, ou o similar.
[00576] Com o computador assim sendo configurado, por exemplo, a CPU 801 carrega um programa armazenado na unidade de armazenamento 808 para a RAM 803 via a interface de entrada / saída 805 e cabo de múltiplas vias de comunicação 804, e executa o programa, e consequentemente, a série de processamento mencionada acima é efetuada.
[00577] O programa que o computador (CPU 801) executa pode ser fornecido estando gravado no meio removível 811 servindo como um meio de empacotamento ou o similar. Além disso, o programa pode ser fornecido via um cabo ou meio de transmissão sem fio tal como uma rede de área local, a Internet, ou transmissão difusa digital.
[00578] Com o computador, o programa pode ser instalado na unidade de armazenamento 808 via a interface de entrada / saída 805 montando o meio removível 811 no mecanismo de operação 810. Além disso, o programa pode ser recebido na unidade de comunicação 809 via um cabo ou meio de transmissão sem fio, e instalado na unidade de armazenamento 808. Adicionalmente, o programa pode ser instalado na ROM 802 ou na unidade de armazenamento 808 antecipadamente.
[00579] Note que o programa que o computador executa pode ser um programa caracterizado pelo fato de que o processamento é efetuado em sequência no tempo junto com a sequência descrita na presente especificação, ou pode ser um programa caracterizado pelo fato de que o processamento é efetuado em paralelo ou no tempo necessário tal como quando chamado e efetuado.
[00580] As modalidades da presente invenção não são restritas as modalidades mencionadas acima, e, várias modificações podem ser feitas sem fugir da essência da presente invenção.
[00581] Por exemplo, os dispositivos de codificação de imagem 51, 351, 451, e 551 mencionados acima, e os dispositivos de decodificação de imagem 151, 401, 501, e 601 podem ser aplicados à dispositivos eletrônicos opcionais. Daqui em diante, um exemplo dos mesmos será descrita.
[00582] A Fig. 46 é um diagrama em bloco ilustrando um principal exemplo de configuração de um receptor de televisão usando o dispositivo de decodificação de imagem ao qual a presente invenção foi aplicada.
[00583] Um receptor de televisão 1300 mostrado na Fig. 46 inclui um sintonizador terrestre 1313, um decodificador de vídeo 1315, um circuito de processamento de sinal de vídeo 1318, um circuito de geração de gráficos 1319, um circuito de operação de painel 1320, e um painel de exibição 1321.
[00584] O sintonizador terrestre 1313 recebe os sinais de onda de transmissão por difusão de uma transmissão por difusão analógica terrestre via uma antena, demodula, obtém sinais de vídeo, e os supre para o decodificador de vídeo 1315. O decodificador de vídeo 1315 submete o sinal de vídeo fornecido a partir do sintonizador terrestre 1313 para processamento de decodificação, e supre os sinais de componentes digitais obtidos para o circuito de processamento de sinal de vídeo 1318.
[00585] O circuito de processamento de sinal de vídeo 1318 submete os dados de vídeo fornecidos a partir do decodificador de vídeo 1315 para pré-determinado processamento tal como remoção de ruído ou o similar, e supre os dados de vídeo obtidos para o circuito de geração de gráficos 1319.
[00586] O circuito de geração de gráficos 1319 gera os dados de vídeo de um programa a ser exibido em um painel de exibição 1321, ou dados de imagem devido ao processamento com base em uma aplicação a ser fornecido via uma rede, ou o similar, e supre os dados de vídeo ou dados de imagem gerados para o circuito de operação de painel 1320. Além disso, o circuito de geração de gráficos 1319 também efetua processamento tal como fornecendo dados de vídeo obtidos para gerar dados de vídeo (gráficos) para o usuário exibir a tela usada para seleção de um item ou o similar, e a sobrepor nos dados de vídeo de um programa, para o circuito de operação de painel 1320 conforme apropriado.
[00587] O circuito de operação de painel 1320 opera o painel de exibição 1321 com base nos dados fornecidos a partir do circuito de geração de gráficos 1319 para exibir o vídeo de um programa, ou as várias telas mencionadas acima no painel de exibição 1321.
[00588] O painel de exibição 1321 é composto de um LCD (Monitor de Cristal Líquido) e assim por diante, e exibe o vídeo de um programa ou o similar de acordo com o controle através do circuito de operação de painel 1320.
[00589] Além disso, o receptor de televisão 1300 também inclui um circuito de conversão de áudio de A / D (Analógico / Digital) 1314, um circuito de processamento de sinal de áudio 1322, um circuito de síntese de áudio / cancelamento de eco 1323, um circuito amplificador de áudio 1324, e um alto-falante 1325.
[00590] O sintonizador terrestre 1313 demodula do sinal de onda de transmissão por difusão recebido, e por meio disso, obter não somente um sinal de vídeo mas também um sinal de áudio. O sintonizador terrestre 1313 supre o sinal de áudio obtido para o circuito de conversão de áudio de A / D 1314.
[00591] O circuito de conversão de áudio de A / D 1314 submete o sinal de áudio fornecido a partir do sintonizador terrestre 1313 para processamento de conversão de A / D, e supre o sinal de áudio digital obtido para o circuito de processamento de sinal de áudio 1322.
[00592] O circuito de processamento de sinal de áudio 1322 submete os dados de áudio fornecidos a partir do circuito de conversão de áudio de A / D 1314 para pré-determinado processamento tal como remoção de ruído ou o similar, e supre os dados de áudio obtidos para o circuito de síntese de áudio / cancelamento de eco 1323.
[00593] O circuito de síntese de áudio / cancelamento de eco 1323 supre os dados de áudio fornecidos a partir do circuito de processamento de sinal de áudio 1322 para o circuito amplificador de áudio 1324.
[00594] O circuito amplificador de áudio 1324 submete os dados de áudio fornecidos a partir do circuito de síntese de áudio / cancelamento de eco 1323 para processamento de conversão de D / A, submete ao processamento de amplificação para ajustar para volume pré-determinado, e então emite o áudio a partir do alto-falante 1325.
[00595] Adicionalmente, o receptor de televisão 1300 também inclui um sintonizador digital 1316, e um decodificador de MPEG 1317.
[00596] O sintonizador digital 1316 recebe os sinais de onda de transmissão por difusão de uma transmissão por difusão digital (transmissão por difusão terrestre digital, transmissão por difusão digital de BS (Transmissão por Difusão via Satélite) / CS (Comunicação via Satélite)) via uma antena, demodula para obter TS de MPEG (Sequência de Transporte do Grupo de Peritos de Imagem em Movimento), e os supre para o decodificador de MPEG 1317.
[00597] O decodificador de MPEG 1317 desembaralha o embaralho dado para a TS de MPEG fornecida a partir do sintonizador digital 1316, e extrai a sequência incluindo os dados de um programa servindo como um objeto de execução (objeto de visão). O decodificador de MPEG 1317 decodifica um pacote de áudio compondo a sequência extraída, supre os dados de áudio obtidos para o circuito de processamento de sinal de áudio 1322, e também decodifica um pacote de vídeo compondo a sequência, e supre os dados de vídeo obtidos para o circuito de processamento de sinal de vídeo 1318. Além disso, o decodificador de MPEG 1317 supre dados de EPG (Guia de Programa Eletrônico) extraídos a partir da TS de MPEG para a CPU 1332 via um caminho desconhecido.
[00598] O receptor de televisão 1300 usa os dispositivos de decodificação de imagem 151, 401, 501, ou 601 mencionados acima, como o decodificador de MPEG 1317 para decodificar pacotes de vídeo nesta maneira. Consequentemente, na mesma maneira que com os dispositivos de codificação de imagem 151 e 401, o decodificador de MPEG 1317 comuta coeficientes de filtro de acordo com o parâmetro de quantização e o modo de predição, e efetua processamento de filtração dos pixels vizinhos, antes do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de codificação de imagem 501 e 601, o decodificador de MPEG 1317 controla se é ou não para efetuar processamento de filtração de pixels vizinhos efetuado antes do intra-predição, com base no sinalizador de LIGA / DESLIGA. Assim sendo, a eficiência de codificação pode ser melhorada.
[00599] Os dados de vídeo fornecidos a partir do decodificador de MPEG 1317 são, na mesma maneira que com o caso dos dados de vídeo fornecidos a partir do decodificador de vídeo 1315, submetido à pré- determinado processamento no circuito de processamento de sinal de vídeo 1318. Os dados de vídeo submetidos ao pré-determinado processamento são então sobrepostos nos dados de vídeo gerados e assim por diante no circuito de geração de gráficos 1319 conforme apropriado, fornecidos para o painel de exibição 1321 via o circuito de operação de painel 1320, e a imagem do mesmo é exibida nele.
[00600] Os dados de áudio fornecidos a partir do decodificador de MPEG 1317 são, na mesma maneira que com o caso dos dados de áudio fornecidos a partir do circuito de conversão de áudio A / D, submetidos ao pré-determinado processamento no circuito de processamento de sinal de áudio 1322. Os dados de áudio submetidos ao pré-determinado processamento é então fornecido para o circuito amplificador de áudio 1324 via o circuito de síntese de áudio / cancelamento de eco 1323, e submetido ao processamento de conversão de D / A e processamento de amplificação. Como um resultado do mesmo, o áudio ajustado no volume pré-determinado é emitido a partir do alto-falante 1325.
[00601] Além disso, o receptor de televisão 1300 também inclui um microfone 1326, e um circuito de conversão de A / D 1327.
[00602] O circuito de conversão de A / D 1327 recebe o sinal de áudio do usuário coletado pelo microfone 1326 fornecido para o receptor de televisão 1300 servindo como para conversação de áudio. O circuito de conversão de A / D 1327 submete o áudio sinal recebido ao processamento de conversão de A / D, e supre os dados de áudio digital obtidos para o circuito de síntese de áudio / cancelamento de eco 1323.
[00603] No evento que os dados de áudio do usuário (usuário A) do receptor de televisão 1300 tenham sido fornecidos a partir do circuito de conversão de A / D 1327, o circuito de síntese de áudio / cancelamento de eco 1323 efetua cancelamento de eco com os dados de áudio do usuário A considerados como um objeto. Após cancelamento de eco, o circuito de síntese de áudio / cancelamento de eco 1323 emite dados de áudio obtidos sintetizando os dados de áudio do usuário A e outros dados de áudio, ou o similar a partir do alto-falante 1325 via o circuito amplificador de áudio 1324.
[00604] Adicionalmente, o receptor de televisão 1300 também inclui um codec de áudio 1328, um cabo de múltiplas vias de comunicação interno 1329, SDRAM (Memória de Acesso Randômico Dinâmica Síncrona) 1330, memória flash 1331, uma CPU 1332, uma I F de USB (Cabo de Múltiplas Vias de Conexão Serial Universal) 1333, e uma I / F de rede 1334.
[00605] O circuito de conversão de A / D 1327 recebe o sinal de dados do usuário coletados pelo microfone 1326 fornecido para o receptor de televisão 1300 servindo como para conversação de áudio. O circuito de conversão de A / D 1327 submete o sinal de áudio recebido para processamento de conversão de A / D, e supre os dados de áudio digital obtidos para o codec de áudio 1328.
[00606] O codec de áudio 1328 converte os dados de áudio fornecidos a partir do circuito de conversão de A / D 1327 nos dados de um pré- determinado formato para transmissão via uma rede, e os supre para a I / F de rede 1334 via o cabo de múltiplas vias de comunicação interno 1329.
[00607] A I / F de rede 1334 é conectada a uma rede via um cabo montado na rede terminal 1335. A I / F de rede 1334 transmite os dados de áudio fornecidos a partir do codec de áudio 1328 para um outro dispositivo conectado à rede do mesmo, por exemplo. Além disso, a I / F de rede 1334 recebe, via o terminal de rede 1335, os dados de áudio transmitidos a partir de um outro dispositivo conectado a ele via a rede, e os supre para o codec de áudio 1328 via o cabo de múltiplas vias de comunicação interno 1329, por exemplo.
[00608] O codec de áudio 1328 converte os dados de áudio fornecidos a partir da rede I / F 1334 nos dados de um pré-determinado formato, e os supre para o circuito de síntese de áudio / cancelamento de eco 1323.
[00609] O circuito de síntese de áudio / cancelamento de eco 1323 efetua cancelamento de eco com os dados de áudio fornecidos a partir do codec de áudio 1328 considerado como um objeto, e emite os dados de áudio obtidos sintetizando os dados de áudio e outros dados de áudio, ou o similar, a partir do alto-falante 1325 via o circuito amplificador de áudio 1324.
[00610] A SDRAM 1330 armazena vários tipos de dados necessários para a CPU 1332 efetuar processamento.
[00611] A memória flash 1331 armazena um programa a ser executado pela CPU 1332. O programa armazenado na memória flash 1331 é lida pela CPU 1332 em pré-determinado tempo tal como quando ativar o receptor de televisão 1300, ou o similar. Dados de EPG obtidos via uma transmissão por difusão digital, dados obtidos a partir de um pré-determinado servidor via a rede, e assim por diante são também armazenados na memória flash 1331.
[00612] Por exemplo, TS de MPEG incluindo os dados de conteúdo obtidos a partir de um pré-determinado servidor via a rede pelo controle da CPU 1332 é armazenada na memória flash 1331. A memória flash 1331 supre a TS de MPEG dos mesmos para o decodificador de MPEG 1317 via o cabo de múltiplas vias de comunicação interno 1329 através do controle da CPU 1332, por exemplo.
[00613] O decodificador de MPEG 1317 processa a TS de MPEG dos mesmos na mesma maneira que com o caso da TS de MPEG fornecida a partir do sintonizador digital 1316. Nesta maneira, o receptor de televisão 1300 recebe os dados de conteúdo compostos de vídeo, áudio, e assim por diante via a rede, os decodifica usando o decodificador de MPEG 1317, e por meio disso, o vídeo dos mesmos pode ser exibido, e áudio dos mesmos pode ser emitido.
[00614] Além disso, o receptor de televisão 1300 também inclui uma unidade de recepção de luz 1337 para receber o sinal de infra-vermelho transmitido a partir de um controle remoto 1351.
[00615] A unidade de recepção de luz 1337 recebe raios infravermelho a partir do controle remoto 1351, e emite um código de controle representando o conteúdo da operação do usuário obtido através da remodulação, para a CPU 1332.
[00616] A CPU 1332 executa o programa armazenado na memória flash 1331 para controlar a inteira operação do receptor de televisão 1300 de acordo com o código de controle fornecido a partir da unidade de recepção de luz 1337, e assim por diante. A CPU 1332, e as unidades do receptor de televisão 1300 são conectadas via um caminho desconhecido.
[00617] A I / F de USB 1333 efetua transmissão / recepção de dados quanto à um dispositivo externo do receptor de televisão 1300 que é conectado via um cabo de USB cabo montado no terminal de USB 1336. A I / F de rede 1334 que se conecta a rede via um cabo montado no terminal de rede 1335, também efetua transmissão / recepção de dados outros do que dados de áudio quanto à vários dispositivos conectados à rede.
[00618] O receptor de televisão 1300 usa os dispositivos de decodificação de imagem 151, 401, 501, ou 601, como o decodificador de MPEG 1317, e por meio disso, eficiência de codificação pode ser melhorada. Como um resultado da mesma, o receptor de televisão 1300 pode obter uma imagem decodificada com maior precisão a partir dos sinais de onda de transmissão por difusão recebidos via a antena, ou os dados de conteúdo obtido via a rede, em velocidades maiores, e os exibe.
[00619] A Fig. 47 é um diagrama em bloco ilustrando um principal exemplo de configuração de um telefone celular usando o dispositivo de codificação de imagem e dispositivo de decodificação de imagem ao quais a presente invenção foi aplicada.
[00620] Um telefone celular 1400 mostrado na Fig. 47 inclui uma unidade de controle principal 1450 configurada a fim de integralmente controlar as unidades, uma unidade de circuito de fornecimento de energia 1451, uma unidade de controle de entrada de operação 1452, um codificador de imagem 1453, uma unidade de I / F de câmera 1454, uma unidade de controle de LCD 1455, um decodificador de imagem 1456, uma unidade de multiplexação / separação 1457, uma unidade de execução / gravação 1462, uma unidade de circuito de modulação / remodulação 1458, e um codec de áudio 1459. Esses são mutuamente conectados via um cabo de múltiplas vias de comunicação 1460.
[00621] Além disso, o telefone celular 1400 inclui teclas de operação 1419, uma câmera de CCD (Dispositivo Acoplado de Cargas) 1416, um monitor de cristal líquido 1418, uma unidade de armazenamento 1423, uma unidade de circuito de transmissão / recepção 1463, uma antena 1414,um microfone (MIC) 1421, e um alto-falante 1417.
[00622] Quando de uma chamada sendo terminada e uma chave de energia sendo desligada por uma operação do usuário, a unidade de circuito de fornecimento de energia 1451 ativa o telefone celular 1400 em um estado operacional fornecendo energia par as unidades a partir de um pacote de bateria.
[00623] O telefone celular 1400 efetua vários operações, tal como transmissão / recepção de um sinal de áudio, transmissão / recepção de um correio eletrônico e dados de imagem, fotografia de imagem, gravação de dados, e assim por diante, em vários modos tal como um modo de chamada de voz, um modo de comunicação de dados, e assim por diante, com base no controle da unidade de controle principal 1450 composta de uma CPU, ROM, RAM, e assim por diante.
[00624] Por exemplo, no modo de chamada de voz, o telefone celular 1400 converte o sinal de áudio coletado pelo microfone (micro) 1421 em dados de áudio digitais através do codec de áudio 1459, os submete ao processamento de espelhamento de espectro na unidade de circuito da unidade de circuito de modulação / remodulação 1458, e os submete ao processamento de conversão de digital / analógico e processamento de conversão de frequência conversão na unidade de circuito de transmissão / recepção 1463. O telefone celular 1400 transmite o sinal para transmissão obtido pelo processo de conversão do mesmo para uma estação base desconhecida via a antena 1414. O sinal para transmissão (sinal de áudio) transmitido para a estação base é fornecida para um telefone celular do parceiro de comunicação via a rede de telefonia pública.
[00625] Além disso, por exemplo, no modo de chamada de voz, o telefone celular 1400 amplifica o sinal de recepção recebido na antena 1414, na unidade de circuito de transmissão / recepção 1463, ainda o submete ao processamento de conversão de frequência e processamento de conversão de analógico / digital, o submete ao processamento de espalhamento de espectro inverso na unidade de circuito de modulação / remodulação 1458, e o converte em um sinal de áudio analógico através do codec de áudio 1459. O telefone celular 1400 emite o sinal de áudio analógico obtido e convertido do mesmo a partir do alto-falante 1417.
[00626] Adicionalmente, por exemplo, no evento de transmitir um correio eletrônico em um modo de comunicação de dados, o telefone celular 1400 aceita os dados de texto do correio eletrônico entrado por uma operação de umas teclas de operação 1419 na unidade de controle de entrada de operação 1452. O telefone celular 1400 processa os dados de texto do mesmo na unidade de controle principal 1450, e os exibe no monitor de cristal líquido 1418 via a unidade de controle de LCD 1455 como uma imagem.
[00627] Além disso, o telefone celular 1400 gera dados de correio eletrônico dados na unidade de controle principal 1450 com base nos dados de texto aceitos pela unidade de controle de entrada de operação 1452, as instruções do usuário, e assim por diante. O telefone celular 1400 submete os dados de correio eletrônico do mesmo ao processamento de espalhamento de espectro na unidade de circuito de modulação / remodulação 1458, e os submete ao processamento de conversão de digital / analógico e processamento de conversão de frequência na unidade de circuito de transmissão / recepção 1463. O telefone celular 1400 transmite o sinal para transmissão obtido pelo processamento de conversão do mesmo para uma estação base desconhecida via a antena 1414. O sinal para transmissão (correio eletrônico) transmitido para a estação base é fornecido para uma pré- determinada destinação via a rede, servidor de correio, e assim por diante.
[00628] Além disso, por exemplo, no evento de receber um correio eletrônico em um modo de comunicação de dados, o telefone celular 1400 recebe o sinal transmitido a partir da estação base via a antena 1414 com a unidade de circuito de transmissão / recepção 1463, p amplifica, e ainda o submete ao processamento de conversão de frequência e processamento de conversão de analógico / digital. O telefone celular 1400 submete o sinal de recepção do mesmo ao processamento de espalhamento de espectro inverso na unidade de circuito de modulação / remodulação 1458 para recuperar os dados do correio eletrônico original. O telefone celular 1400 exibe os dados do correio eletrônico recuperado no monitor de cristal líquido 1418 via a unidade de controle de LCD 1455.
[00629] Note que o telefone celular 1400 pode gravar (armazenar ) os dados do correio eletrônico recebido na unidade de armazenamento 1423 via a unidade de execução / gravação 1462.
[00630] Esta unidade de armazenamento 1423 é um meio de gravação passível de re-escrita opcional. A unidade de armazenamento 1423 pode ser memória de semicondutor tal como RAM, memória flash embutida, ou o similar, pode ser um disco rígido, ou pode ser a meio removível tal como um disco magnético, um disco magnético óptico, um disco óptico, uma memória de USB, um cartão de memória, ou o similar. Não é necessário dizer que a unidade de armazenamento 1423 pode ser outra do que essas.
[00631] Adicionalmente, por exemplo, no evento de transmitir dados de imagem em um modo de comunicação de dados, o telefone celular 1400 gera dados de imagem fotografando na câmera de CCD 1416. A câmera de CCD 1416 inclui um CCD servindo como um dispositivo ótico tal como uma lente, um diafragma, e assim por diante, e servindo como um dispositivo de conversão foto-elétrico, que fotografa um objeto, converte a intensidade da luz recebida em um sinal elétrico, e gera os dados de imagem de uma imagem do objeto. Os dados de imagem do mesmo são submetidos para codificação de compressão no decodificador de imagem 1453 usando um pré-determinado formato de codificação, por exemplo, tal como MPEG2, MPEG4, ou o similar, via a unidade de I / F de câmera 1454, e consequentemente, os dados de imagem da mesma são convertidos em dados de imagem codificados.
[00632] O telefone celular 1400 emprega os dispositivos de codificação de imagem 51, 351, 451, e 551 mencionados acima, como o codificador de imagem 1453 para efetuar tal processamento. Consequentemente, na mesma maneira que com os dispositivos de codificação de imagem 51 e 351, o codificador de imagem 1453 configura coeficientes de filtro de acordo com o parâmetro de quantização e modo de predição, e efetua processamento de filtração dos pixels vizinhos, antes do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de codificação de imagem 451 e 551, o codificador de imagem 1453 controla se é ou não para efetuar processamento de filtração dos pixels vizinhos efetuado antes do intra-predição. Assim sendo, eficiência de codificação pode ser melhorada.
[00633] Note que, neste momento de modo simultâneo, o telefone celular 1400 converte o áudio coletado no microfone (micro) 1421, enquanto fotografando com a câmera de CCD 1416, a partir de analógico para digital no codec de áudio 1459, e ainda o codifica.
[00634] O telefone celular 1400 multiplexa os dados codificados de imagem fornecidos a partir do codificador de codificador de imagem 1453, e os dados de áudio digitais fornecidos do codec de áudio 1459 na unidade de multiplexação / separação 1457 usando um método pré-determinado. O telefone celular 1400 submete os dados multiplexados obtidos como um resultado do mesmo para processamento de espalhamento de espectro na unidade de circuito de modulação / remodulação 1458, e os submete ao processamento de conversão de digital / analógico e processamento de conversão de frequência na unidade de circuito de transmissão / recepção 1463. O telefone celular 1400 transmite o sinal para transmissão obtido pelo processamento de conversão do mesmo para uma estação base desconhecida via a antena 1414. O sinal para transmissão (dados de imagem) transmitido para a estação base é fornecido para um parceiro de comunicação via a rede ou o similar.
[00635] Note que no evento que dados de imagem não são transmitidos, o telefone celular 1400 pode também exibir os dados de imagem gerados na câmera de CCD 1416 no monitor de cristal líquido 1418 via a unidade de controle de LCD 1455 em vez do codificador de imagem 1453.
[00636] Além disso, por exemplo, no evento de receber o arquivo de dados de uma imagem em movimento ligado a um simples sítio da web ou o similar em um modo de comunicação de dados, o telefone celular 1400 recebe o sinal transmitido a partir da estação base na unidade de circuito de transmissão / recepção 1463 via a antena 1414, o amplifica, e ainda o submete ao processamento de conversão de frequência e processamento de conversão de analógico / digital. O telefone celular 1400 submete o sinal recebido ao processamento de espalhamento de espectro inverso na unidade de circuito de modulação / remodulação 1458 para recuperar os dados multiplexados originais. O telefone celular 1400 separa os dados multiplexados do mesmo na unidade de multiplexação / separação 1457 em dados de imagem e dados de áudio codificados.
[00637] O telefone celular 1400 decodifica os dados codificados de imagem no decodificador de imagem 1456 usando o formato de decodificação correspondendo a um pré-determinado formato de codificação tal como MPEG2, MPEG4, ou o similar, e por meio disso, gerando dados de reprodução de imagem em movimento, e os exibe no monitor de cristal líquido 1418 via a unidade de controle de LCD 1455. Assim sendo, os dados de imagem em movimento incluídos em arquivo de imagem em movimento associado com um simples sítio da web é exibido no monitor de cristal líquido 1418, por exemplo.
[00638] O telefone celular 1400 emprega os dispositivos de decodificação de imagem 151, 401, 501, ou 601 mencionados acima como um decodificador de imagem 1456 para efetuar tal processamento. Consequentemente, na mesma maneira que com os dispositivos de decodificação de imagem 151 e 401, o decodificador de imagem 1456 comuta coeficientes de filtro de acordo com o parâmetro de quantização e modo de predição, e efetua processamento de filtração dos pixels vizinhos, antes do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de decodificação de imagem 501 e 601, o decodificador de imagem 1456 controla se é ou não para efetuar processamento de filtração dos pixels vizinhos efetuado antes intra-predição, com base no sinalizador de LIGA / DESLIGA. Assim sendo, eficiência de codificação pode ser melhorada.
[00639] Neste momento, de modo simultâneo, o telefone celular 1400 converte os dados de áudio digital em um sinal de áudio analógico no codec de áudio 1459, e os emite a partir do alto-falante 1417. Assim sendo, dados de áudio incluídos em um arquivo de imagem em movimento associado com um simples sítio da web é executado, por exemplo.
[00640] Note que, na mesma maneira que com o caso de correio eletrônico, o telefone celular 1400 pode gravar (armazenar) os dados recebidos associados com um sítio da web ou o similar na unidade de armazenamento 1423 via a unidade de execução / gravação 1462.
[00641] Além disso, o telefone celular 1400 analisa o código bidimensional fotografado obtido pela câmera de CCD 1416 na unidade de controle principal 1450, e por meio disso, informação gravada no código bidimensional pode ser obtida.
[00642] Adicionalmente, o telefone celular 1400 pode se comunicar com um dispositivo externo na unidade de comunicação de infra-vermelho 1481 usando raios de infra-vermelho.
[00643] O telefone celular 1400 emprega os dispositivos de codificação de imagem 51, 351, 451, ou 551 como o codificador de imagem 1453, e por meio disso, a eficiência de codificação dos dados codificados a serem gerados codificando os dados de imagem gerados na câmera de CCD 1416 pode ser melhorada, por exemplo. Como um resultado, o telefone celular 1400 pode fornecer dados codificados (dados de imagem) com excelente eficiência de codificação para um outro dispositivo.
[00644] Além disso, o telefone celular 1400 emprega os dispositivos de decodificação de imagem 151, 401, 501, ou 601 como o decodificador de imagem 1456, e por meio disso, uma imagem de predição com alta precisão pode ser gerada. Como um resultado do mesmo, o telefone celular 1400 pode obter uma imagem decodificada com maior precisão a partir de um arquivo de imagem em movimento associado com um simples sítio da web, e a exibe, por exemplo.
[00645] Note que descrição foi feita até agora caracterizada pelo fato de que o telefone celular 1400 emprega a câmera de CCD 1416, mas o telefone celular 1400 pode empregar um sensor de imagem (sensor de imagem de CMOS) usando CMOS (Semicondutor de Óxido de Metal Complementar) em vez desta câmera de CCD 1416. Da mesma forma, neste caso, o telefone celular 1400 pode fotografar um objeto e gerar os dados de imagem de uma imagem do objeto na mesma maneira que com o caso de empregar a câmera de CCD 1416.
[00646] Além disso, descrição foi feita até agora considerando o telefone celular 1400, mas os dispositivos de codificação de imagem 51, 351, 451, e 551, e os dispositivos de decodificação de imagem 151, 401, 501, e 601 podem ser aplicados a qualquer tipo de dispositivo na mesma maneira que com o caso do telefone celular 1400 enquanto ele é um dispositivo tendo a mesma função de fotografar e função de comunicação que aquelas do telefone celular 1400, por exemplo, tal como um PDA (Assistente Digital Pessoal), telefone inteligente, UMPC (Ultra Computador Pessoal Móvel), netbook, computador pessoal do tamanho de notebook, ou o similar.
[00647] A Fig. 48 é um diagrama em bloco ilustrando um principal exemplo de configuração de um gravador de disco rígido que emprega o dispositivo de codificação de imagem e o dispositivo de decodificação de imagem aos quais a presente invenção foi aplicada.
[00648] Um gravador de disco rígido (gravador de HDD) 1500 mostrado na Fig. 48 é um dispositivo que armazena, em um disco rígido embutido, dados de áudio e dados de vídeo de uma transmissão por difusão programa incluída nos sinais de onda de transmissão por difusão (sinais de televisão) recebidos por um sintonizador e transmitidos a partir de um satélite ou um antena Terrestre ou o similar, e fornece os dados armazenados para o usuário no tempo de acordo com as instruções do usuário.
[00649] O gravador de disco rígido 1500 pode extrair dados de áudio e dados de vídeo dos sinais de onda de transmissão por difusão, decodificar esses dados conforme apropriado, e armazenar no disco rígido embutido, por exemplo. Além disso, o gravador de disco rígido 1500 pode também obter dados de áudio e dados de vídeo de um outro dispositivo via uma rede, decodificar esses dados conforme apropriado, e armazenar no disco rígido embutido, por exemplo.
[00650] Adicionalmente, o gravador de disco rígido 1500 decodifica dados de áudio e dados de vídeo gravados no disco rígido embutido, os supre para um monitor 1560, e exibe uma imagem dos mesmos na tela do monitor 1560, por exemplo. Além disso, o gravador de disco rígido 1500 pode emitir áudio dos mesmos a partir do alto-falante do monitor 1560.
[00651] O gravador de disco rígido 1500 decodifica dados de áudio e dados de vídeo extraídos a partir dos sinais de onda de transmissão por difusão obtidos via o sintonizador, ou os dados de áudio e dados de vídeo obtidos a partir de um outro dispositivo via a rede, os supre para o monitor 1560, e exibe uma imagem dos mesmos na tela do monitor 1560, por exemplo. Além disso, o gravador de disco rígido 1500 pode emitir áudio dos mesmos a partir do alto-falante do monitor 1560.
[00652] Não é necessário dizer que operações outras do que essas podem ser efetuadas.
[00653] Conforme mostrado na Fig. 48, o gravador de disco rígido 1500 inclui uma unidade de recepção 1521, uma unidade de remodulação 1522, um demultiplexador 1523, um decodificador de áudio 1524, um decodificador de vídeo 1525, e uma unidade de controle de gravador 1526. O gravador de disco rígido 1500 ainda inclui memória de dados de EPG 1527, memória de programa 1528, memória de trabalho 1529, um conversor de exibição 1530, uma unidade de controle de OSD (Exibição na Tela) 1531, uma unidade de controle de exibição 1532, uma unidade de execução / gravação 1533, um conversor de D / A 1534, e uma unidade de comunicação 1535.
[00654] Além disso, o conversor de exibição 1530 inclui um codificador de vídeo 1541. A unidade de execução / gravação 1533 inclui um codificador 1551 e um decodificador 1552.
[00655] A unidade de recepção 1521 recebe o sinal de infra-vermelho do controle remoto (não mostrado), o converte em um sinal elétrico, e o emite para a unidade de controle de gravador 1526. A unidade de controle de gravador 1526 é configurada de, por exemplo, um microprocessador e assim por diante, e executa vários tipos de processamento de acordo com o programa armazenado na memória de programa 1528. Neste momento, a unidade de controle de gravador 1526 usa a memória de trabalho 1529 de acordo com a necessidade.
[00656] A unidade de comunicação 1535, que é conectado à rede, efetua processamento de comunicação com um outro dispositivo via a rede. Por exemplo, a unidade de comunicação 1535 é controlada pela unidade de controle de gravador 1526 para se comunicar com um sintonizador (não mostrado), e para principalmente emitir um sinal de controle de seleção de canal para o sintonizador.
[00657] A unidade de remodulação 1522 demodula do sinal fornecido a partir do sintonizador, e o emite para o demultiplexador 1523. O demultiplexador 1523 separa os dados fornecidos a partir da unidade de remodulação 1522 nos dados de áudio, dados de vídeo, e dados de EPG, e os emite para o decodificador de áudio 1524, para o decodificador de vídeo 1525, e para a unidade de controle de gravador 1526, respectivamente.
[00658] O decodificador de áudio 1524 decodifica a entrada dados de áudio, por exemplo, usando o formato de MPEG, e o emite para a unidade de execução / gravação 1533. O decodificador de vídeo 1525 decodifica os dados de vídeo entrados, por exemplo, usando o formato de MPEG, e os emite para o conversor de exibição 1530. A unidade de controle de gravador 1526 supre os dados de EPG entrados para a memória de dados de EPG 1527 para armazenamento.
[00659] O conversor de exibição 1530 codifica os dados de vídeo fornecidos a partir do decodificador de vídeo 1525 ou da unidade de controle de gravador 1526 em, por exemplo, dados de vídeo em conformidade com o formato do NTSC (Comitê de Padrões de Televisão Nacional) usando o codificador de vídeo 1541, e emite para a unidade de execução / gravação 1533. Além disso, o conversor de exibição 1530 converte o tamanho da tela dos dados de vídeo fornecidos a partir do decodificador de vídeo 1525 ou da unidade de controle de gravador 1526 no tamanho correspondendo ao tamanho do monitor 1560. O conversor de exibição 1530 ainda converte os dados de vídeo dos quais um tamanho de tela foi convertido em dados de vídeo em conformidade com o formato de NTSC usando o codificador de vídeo 1541, converte em um sinal analógico, e emite para a unidade de controle de exibição 1532.
[00660] A unidade de controle de exibição 1532 sobrepõe, sob o controle da unidade de controle de gravador 1526, o sinal de OSD emitido a partir da unidade de controle de OSD (Exibição em Tela) 1531 no sinal de vídeo entrado a partir do conversor de exibição 1530, e o emite para a tela do monitor 1560 para exibição.
[00661] Além disso, os dados de áudio emitidos a partir do decodificador de áudio 1524 foram convertidos em um sinal analógico usando o conversor de D / A1534, e fornecido para o monitor 1560. O monitor 1560 emite este sinal de áudio a partir de uma alto-falante embutido.
[00662] A unidade de execução / gravação 1533 inclui um disco rígido como um meio de gravação no qual dados de vídeo, dados de áudio, e assim por diante são gravados.
[00663] A unidade de execução / gravação 1533 codifica os dados de áudio fornecidos a partir do decodificador de áudio 1524 pelo codificador 1551 usando o formato de MPEG, por exemplo. Além disso, a unidade de execução / gravação 1533 codifica os dados de vídeo fornecidos a partir do codificador de vídeo 1541 do conversor de exibição 1530 através do codificador 1551 usando o formato de MPEG. A unidade de execução / gravação 1533 sintetiza os dados codificados dos dados de áudio dos mesmos, e os dados codificados dos dados de vídeo dos mesmos usando o multiplexador. A unidade de execução / gravação 1533 amplifica os dados sintetizados por codificação de canal e escreve os dados dos mesmos no disco rígido via uma cabeça de gravação.
[00664] A unidade de execução / gravação 1533 executa os dados gravados no disco rígido via uma cabeça de reprodução, os amplifica, e os separa em dados de áudio e dados de vídeo usando o demultiplexador. A unidade de execução / gravação 1533 decodifica os dados de áudio e dados de vídeo pelo decodificador 1552 usando o formato de MPEG. A unidade de execução / gravação 1533 converte os dados de áudio decodificados de digital para analógico, e os emite para o alto-falante do monitor 1560. Além disso, a unidade de execução / gravação 1533 converte os dados de vídeo decodificados de digital para analógico, e os emite para a tela do monitor 1560.
[00665] A unidade de controle de gravador 1526 lê os últimos dados de EPG a partir da memória de dados de EPG 1527 com base nas instruções do usuário indicado pelo sinal de infra-vermelho a partir do controle remoto que é recebido via a unidade de recepção 1521, e os supre para a unidade de controle de OSD 1531. A unidade de controle de OSD 1531 gera dados de imagem correspondendo aos dados de EPG entrados, e os emite para a unidade de controle de exibição 1532. A unidade de controle de exibição 1532 emite os dados de vídeo entrados a partir da unidade de controle de OSD 1531 para a tela do monitor 1560 para exibição. Assim sendo, EPG (Guia de Programa Eletrônico) é exibido na tela do monitor 1560.
[00666] Além disso, o gravador de disco rígido 1500 pode obter vários tipos de dados tais como dados de vídeo, dados de áudio, dados de EPG, e assim por diante fornecidos a partir de um outro dispositivo via a rede tal como a Internet ou o similar.
[00667] A unidade de comunicação 1535 é controlada pela unidade de controle de gravador 1526 para obter dados codificados tais como dados de vídeo, dados de áudio, dados de EPG, e assim por diante transmitidos a partir de um outro dispositivo via a rede, e para fornecê-los para a unidade de controle de gravador 1526. A unidade de controle de gravador 1526 supre os dados codificados dos dados de vídeo e dados de áudio obtidos para a unidade de execução / gravação 1533, e os armazena no disco rígido, por exemplo. Neste momento, a unidade de controle de gravador 1526 e unidade de execução / gravação 1533 podem efetuar processamento tal como re- codificação ou o similar de acordo com a necessidade.
[00668] Além disso, a unidade de controle de gravador 1526 decodifica os dados codificados dos dados de vídeo e dados de áudio obtidos, e supre os dados de vídeo obtidos para o conversor de exibição 1530. O conversor de exibição 1530 processa, na mesma maneira que os dados de vídeo fornecidos a partir do decodificador de vídeo 1525, os dados de vídeo fornecidos a partir da unidade de controle de gravador 1526, os supre para o monitor 1560 via a unidade de controle de exibição 1532 para exibir uma imagem do mesmo.
[00669] Alternativamente, um arranjo pode ser feito caracterizado pelo fato de que de acordo com esta exibição de imagem, a unidade de controle de gravador 1526 supre os dados de áudio decodificados para o monitor 1560 via o conversor de D / A 1534, e emite áudio do mesmo a partir do alto-falante.
[00670] Adicionalmente, a unidade de controle de gravador 1526 decodifica os dados codificados dos dados de EPG obtidos, e supre os dados de EPG decodificados para a memória de dados de EPG 1527.
[00671] O gravador de disco rígido 1500 assim sendo configurado emprega os dispositivos de decodificação de imagem 151, 401, 501, ou 601 como o decodificador de vídeo 1525, decodificador 1552, e um decodificador acondicionado na unidade de controle de gravador 1526. Consequentemente, na mesma maneira que com os dispositivos de decodificação de imagem 151 e 401, o decodificador de vídeo 1525, decodificador 1552, e decodificador acondicionado na unidade de controle de gravador 1526 comutam coeficientes de filtro de acordo com o parâmetro de quantização e o modo de predição, e efetuam processamento de filtração dos pixels vizinhos, antas do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de decodificação de imagem 501 e 601, o decodificador de vídeo 1525, decodificador 1552, e decodificador acondicionado na unidade de controle de gravador 1526 controla se é para efetuar ou não processamento de filtração dos pixels vizinhos efetuado antes do intra-predição, com base no sinalizador de LIGA / DESLIGA. Assim sendo, eficiência de codificação pode ser melhorada.
[00672] Consequentemente, o gravador de disco rígido 1500 pode gerar uma imagem de predição com alta precisão. Como um resultado do mesmo, o gravador de disco rígido 1500 pode obter uma imagem decodificada com maior precisão, por exemplo, a partir dos dados codificados dos dados de vídeo recebidos via o sintonizador, dos dados codificados dos dados de vídeo lidos do disco rígido da unidade de execução / gravação 1533, ou dos dados codificados dos dados de vídeo obtidos via a rede, e a exibe no monitor 1560.
[00673] Além disso, o gravador de disco rígido 1500 emprega os dispositivos de codificação de imagem 51, 351, 451, ou 551 como o codificador 1551. Consequentemente, na mesma maneira que com os dispositivos de codificação de imagem 51 e 351, o codificador 1551 configura coeficientes de filtro de acordo com o parâmetro de quantização e o modo de predição, e efetua processamento de filtração dos pixels vizinhos, antes do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de codificação de imagem 451 e 551, o codificador 1551 controla se é para efetuar ou não processamento de filtração dos pixels vizinhos efetuado antes do intra-predição. Assim sendo, eficiência de codificação pode ser melhorada.
[00674] Consequentemente, o gravador de disco rígido 1500 pode melhorar a eficiência de codificação dos dados codificados a serem gravados no disco rígido, por exemplo. Como um resultado do mesmo, o gravador de disco rígido 1500 pode usar a região de armazenamento do disco rígido em uma maneira mais efetiva.
[00675] Note que descrição foi feita até agora considerando o gravador de disco rígido 1500 para gravar dados de vídeo e dados de áudio no disco rígido, mas não é necessário dizer que qualquer tipo de meio de gravação pode ser empregado. Por exemplo, mesmo com um gravador para o qual um meio de gravação outro do que um disco rígido, tal como memória flash, disco óptico, uma fita de vídeo, ou o similar, é aplicado, na mesma maneira que com o caso do gravador de disco rígido 1500 mencionado acima, os dispositivos de codificação de imagem 51, 351, 451, e 551, e os dispositivos de decodificação de imagem 151, 401, 501, e 601 podem se aplicados a ele.
[00676] A Fig. 49 é um diagrama em bloco ilustrando um principal exemplo de configuração de uma câmera empregando o dispositivo de decodificação de imagem e dispositivo de codificação de imagem para os quais a presente invenção foi aplicada.
[00677] A câmera 1600 mostrada na Fig. 49 fotografa um objeto, exibe uma imagem do objeto em um LCD 1616, e a grava em um meio de gravação 1633 como dados de imagem.
[00678] Um bloco de lente 1611 entra luz (i.e., vídeo de um objeto) para um CCD / CMOS 1612. O CCD / CMOS 1612 é um sensor de imagem empregando um CCD ou CMOS, converte a intensidade de luz recebida em um sinal elétrico, e o supre para a unidade de processamento de sinal de câmera 1613.
[00679] A unidade de processamento de sinal de câmera 1613 converte o sinal elétrico fornecido a partir do CCD / CMOS 1612 em sinais de diferença de cor de Y, Cr, e Cb, e os supre para uma unidade de processamento de sinal de imagem 1614. A unidade de processamento de sinal de imagem 1614 submete, sob o controle de um controlador 1621, o sinal de imagem fornecido a partir da unidade de processamento de sinal de câmera 1613 para pré-determinado processamento de imagem, ou codifica o sinal de imagem do mesmo através de um codificador 1641 usando o formato de MPEG por exemplo. A unidade de processamento de sinal de imagem 1614 supre dados codificados gerados através da codificação de um sinal de imagem, para um decodificador 1615. Adicionalmente, a unidade de processamento de sinal de imagem 1614 obtém dados para exibir gerados em uma exibição em tela (OSD) 1620, e os supre para o decodificador 1615.
[00680] Com o processamento mencionado acima, a unidade de processamento de sinal de câmera 1613 apropriadamente toma vantagem da DRAM (Memória de Acesso Randômico Dinâmica) 1618 conectada via um cabo de múltiplas vias de comunicação 1617 para manter dados de imagem, dados codificados, codificados a partir dos dados de imagem da mesma, e assim por diante na DRAM 1618 da mesma de acordo com necessidade.
[00681] O decodificador 1615 decodifica os dados codificados fornecidos a partir da unidade de processamento de sinal de imagem 1614, e supre os dados de imagem obtidos (dados da imagem decodificada) para o LCD 1616. Além disso, o decodificador 1615 supre os dados para exibição fornecidos a partir da unidade de processamento de sinal de imagem 1614 para o LCD 1616. O LCD 1616 sintetiza a imagem dos dados de imagem decodificados, e a imagem dos dados para exibição, fornecida a partir do decodificador 1615 conforme apropriado, e exibe uma imagem de síntese da mesma.
[00682] A exibição em tela 1620 emite, sob o controle do controlador 1621, dados para exibição tal como uma tela de menu ou ícone ou o similar composto de um símbolo, caracteres, ou uma figura para a unidade de processamento de sinal de imagem 1614 via o cabo de múltiplas vias de comunicação 1617.
[00683] Com base em um sinal indicando o conteúdo comandado pelo usuário usando uma unidade de operação 1622, o controlador 1621 executa vários tipos de processamento, e também controla a unidade de processamento de sinal de imagem 1614, a DRAM 1618, a interface externa 1619, a exibição em tela 1620, o mecanismo de operação de mídia 1623, e assim por diante via o cabo de múltiplas vias de comunicação 1617. Um programa, dados, e assim por diante necessários para o controlador 1621 executar vários tipos de processamento são armazenados na ROM FLASH 1624.
[00684] Por exemplo, o controlador 1621 pode codificar dados de imagem armazenados na DRAM 1618, ou decodificar dados codificados armazenados na DRAM 1618 em vez da unidade de processamento de sinal de imagem 1614 e do decodificador 1615. Neste momento, o controlador 1621 pode efetuar processamento de codificação e de decodificação usando o mesmo formato que o formato de codificação e formato de decodificação da unidade de processamento de sinal de imagem 1614 e decodificador 1615, ou pode efetuar processamento de codificação e de decodificação usando o formato que nem a unidade de processamento de sinal de imagem 1614 nem o decodificador 1615 pode tratar.
[00685] Além disso, por exemplo, no evento que início de impressão de imagem foi instruído a partir da unidade de operação 1622, o controlador 1621 lê os dados de imagem a partir da DRAM 1618, e os supre para uma impressora 1634 conectada à interface externa 1619 via o cabo de múltiplas vias de comunicação 1617 para impressão.
[00686] Adicionalmente, por exemplo, no evento que gravação da imagem foi instruída a partir da unidade de operação 1622, o controlador 1621 lê dados codificados a partir da DRAM 1618, e os supre para um meio de gravação 1633 montado no mecanismo de operação de mídia 1623 via o cabo de múltiplas vias de comunicação 1617 para armazenamento.
[00687] O meio de gravação 1633 é um meio removível legível / passível de gravar opcional, por exemplo, tal como um disco magnético, um disco magnético óptico, um disco óptico, memória de semicondutor, ou o similar. Não é necessário dizer que o meio de gravação 1633 é também opcional considerando o tipo de um meio removível, e consequentemente pode ser um dispositivo de fita, ou pode ser um disco, ou pode ser um cartão de memória. Não é necessário dizer que o meio de gravação 1633 pode ser um cartão de IC de não contato ou o similar.
[00688] Alternativamente, o mecanismo de operação de mídia 1623 e o meio de gravação 1633 podem ser configurados a fim de serem integrados em um meio de gravação de não transportabilidade, por exemplo, tal como um mecanismo de operação de disco rígido embutido, SSD (Mecanismo de Operação em Estado Sólido), ou o similar.
[00689] A interface externa 1619 é configurada de, por exemplo, um terminal de entrada / saída de USB e assim por diante, e é conectado à impressora 1634 no evento de efetuar impressão de uma imagem. Além disso, um mecanismo de operação 1631 é conectado à interface externa 1619 de acordo com a necessidade, no qual o meio removível 1632 tal como um disco magnético, disco óptico, ou disco magnético óptico é montado conforme apropriado, e um programa de computador lido dele é instalado na ROM FLASH 1624 de acordo com a necessidade.
[00690] Adicionalmente, a interface externa 1619 inclui uma interface de rede a ser conectada a uma pré-determinada rede tal como uma LAN, a Internet, ou o similar. Por exemplo, de acordo com as instruções a partir da unidade de operação 1622, o controlador 1621 pode ler dados codificados a partir da DRAM 1618, e os fornece a partir da interface externa 1619 para um outro dispositivo conectado via a rede. Além disso, o controlador 1621 pode obter, via a interface externa 1619, dados codificados ou dados de imagem fornecidos a partir de um outro dispositivo via a rede, e os mantém na DRAM 1618, ou os fornece para a unidade de processamento de sinal de imagem 1614.
[00691] A câmera 1600 assim sendo configurada emprega os dispositivos de decodificação de imagem 151, 401, 501, ou 601 como o decodificador 1615. Consequentemente, na mesma maneira que com os dispositivos de decodificação de imagem 151 e 401, o decodificador 1615 comuta coeficientes de filtro de acordo com o parâmetro de quantização e o modo de predição, e efetua processamento de filtração de pixels vizinhos, antes do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de decodificação de imagem 501 e 601, to decodificador 1615 controla se é para efetuar ou não processamento de filtração de pixels vizinhos efetuado antes do intra-predição, com base no sinalizador de LIGA / DESLIGA. Assim sendo, eficiência de codificação pode ser melhorada.
[00692] Consequentemente, a câmera 1600 pode gerar uma imagem de predição com alta precisão. Como um resultado do mesmo, a câmera 1600 pode obter uma imagem decodificada com maior precisão, por exemplo, a partir dos dados de imagem gerados no CCD / CMOS 1612, dos dados codificados de dados de vídeo lidos da DRAM 1618 ou meio de gravação 1633, ou dos dados codificados de dados de vídeo obtidos via a rede, e exibe no LCD 1616.
[00693] Além disso, a câmera 1600 emprega os dispositivos de codificação de imagem 51, 351, 451, ou 551, com o codificador 1641. Consequentemente, na mesma maneira que com os dispositivos de codificação de imagem 51 e 351, o codificador 1641 configura coeficientes de filtro de acordo com o parâmetro de quantização e modo de predição, e efetua processamento de filtração de pixels vizinhos, antes do intra-predição. Alternativamente, na mesma maneira que com os dispositivos de codificação de imagem 451 e 551, o codificador 1641 controla se é para efetuar ou não processamento de filtração de pixels vizinhos efetuado antes do intra- predição. Assim sendo, eficiência de codificação pode ser melhorada.
[00694] Consequentemente, a câmera 1600 pode melhorar eficiência de codificação de dados codificados a serem gravados no disco rígido, por exemplo. Como um resultado do mesmo, a câmera 1600 pode usar a região de armazenamento do DRAM 1618 ou meio de gravação 1633 em uma maneira mais efetiva.
[00695] Note que o método de decodificação dos dispositivos de decodificação de imagem 151, 401, 501, e 601 pode ser aplicado ao processamento de decodificação que o controlador 1621 efetua. De forma similar, o método de codificação dos dispositivos de codificação de imagem 51, 351, 451, e 551 pode ser aplicado ao processamento de codificação que o controlador 1621 efetua.
[00696] Além disso, os dados de imagem que a câmera 1600 fotografa pode ser uma imagem em movimento, ou pode ser uma imagem fixa.
[00697] Não é necessário dizer que os dispositivos de codificação de imagem 51, 351, 451, e 551, e os dispositivos de decodificação de imagem 151, 401, 501, e 601 pode ser aplicado a um dispositivo ou sistema outro do que os dispositivos mencionados acima.Lista de Sinais de Referência 51 dispositivo de codificação de imagem 66 unidade de codificação sem perda 74 unidade de intra-predição 75 unidade de comutação de filtro de interpolação de pixel vizinho 81 unidade de configuração de pixel vizinho 82 unidade de geração de imagem de predição 83 unidade de determinação de modo de predição ótimo 91 modo de predição de armazenamento temporário 92 parâmetro de quantização de armazenamento temporário 93 unidade de configuração de filtro passa baixa 94 quadro coeficiente memória 111 unidade de configuração de imagem vizinha 112 unidade de geração de imagem de predição 113 unidade de determinação de modo de predição ótimo 121 modo de predição de armazenamento temporário 122 unidade de cálculo de filtro ótimo 93 unidade de configuração de filtro passa baixa 151 dispositivo de decodificação de imagem 162 unidade de decodificação sem perda 171 unidade de intra-predição 172 unidade de comutação de filtro de interpolação de pixel vizinho 181 unidade de geração de imagem de predição 182 unidade de configuração de pixel vizinho 191 modo de predição de armazenamento temporário 192 parâmetro de quantização de armazenamento temporário 193 unidade de configuração de filtro passa baixa 194 memória de coeficiente de filtro 202 unidade de configuração de filtro passa baixa 251 dispositivo de treinamento 261 unidade de cálculo de filtro de interpolação de vizinho 271 unidade de armazenamento de coeficiente de filtro 351 dispositivo de codificação de imagem 361 unidade de predição de segunda ordem 362 unidade de comutação de filtro de interpolação de pixel vizinho 401 dispositivo de decodificação de imagem 411 unidade de predição de segunda ordem 412 unidade de comutação de filtro de interpolação de pixel vizinho 451 dispositivo de codificação de imagem 461 unidade de controle de filtro de interpolação de pixel vizinho 501 dispositivo de decodificação de imagem 511 unidade de controle de filtro de interpolação de pixel vizinho 551 dispositivo de codificação de imagem 561 unidade de controle de filtro de interpolação de pixel vizinho 601 dispositivo de decodificação de imagem 611 unidade de controle de filtro de interpolação de pixel vizinho

Claims (11)

1. Dispositivo de processamento de imagem (501), caracterizado pelo fato de compreender: - unidade de filtragem configurada para efetuar processamento de filtração em pixels vizinhos que são localizados adjacentes a um bloco atual para intra-predição usando coeficientes de filtro com valores definidos de acordo com um tamanho de bloco do bloco atual para a intra-predição; - unidade de controle de filtro (511) configurada para controlar o processamento de filtração de forma a efetuar o processamento de filtração ligado ou desligado com relação aos pixels vizinhos com base em um modo de intra-predição; e - unidade de intra-predição (171) configurada para efetuar intra-predição em um pixel atual dentro do bloco atual usando os pixels vizinhos como pixels de referência para a intra-predição para gerar uma imagem de predição; e - unidade de decodificação (162) configurada para decodificar dados de imagem usando a imagem de predição em que o unidade de controle de filtro (511) determina se o processamento de filtragem está ligado ou desligado para os pixels vizinhos com base em um número de modo do modo de intra-predição; e em que a unidade de filtragem, a unidade de controle de filtro (511), a unidade de intra-predição (171) e a unidade de decodificação (162) são implementadas por meio de pelo menos um processador, cada.
2. Dispositivo de processamento de imagem, de acordo com a reivindicação 1, caracterizado por compreender adicionalmente: uma unidade de configuração configurada para definir os valores dos coeficientes de filtro de acordo com o tamanho de bloco do bloco atual para a intra-predição, em que a unidade de configuração é implementada por meio de pelo menos um processador.
3. Dispositivo de processamento de imagem, de acordo com a reivindicação 1, caracterizado pelo fato de que o tamanho do bloco atual inclui 16x16 ou 32x32.
4. Método de processamento de imagem, caracterizado pelo fato de compreender as etapas de: - efetuar processamento de filtração em pixels vizinhos que são localizados adjacentes a um bloco atual para intra-predição usando coeficientes de filtro com valores definidos de acordo com um tamanho de bloco do bloco atual para a intra-predição; - controlar o processamento de filtração de forma a efetuar o processamento de filtração ligado ou desligado com relação aos pixels vizinhos com base em um modo de intra-predição; e - efetuar intra-predição em um pixel atual dentro do bloco atual usando os pixels vizinhos como pixels de referência para a intra- predição para gerar uma imagem de predição; e - decodificar dados de imagem codificados usando a imagem de predição, em que o processamento de filtração é determinado se está ligado ou desligado em relação aos pixels vizinhos com base em um número de modo do modo de intra-predição.
5. Método de processamento de imagem, de acordo com a reivindicação 4, caracterizado pelo fato de que o tamanho do bloco atual inclui 16 x 16 ou 32 x 32.
6. Meio não-transitório legível por computador, caracterizado por conter instruções legíveis por computador que, quando lidas por um computador, fazem com que o computador efetue as etapas de: - efetuar processamento de filtração em pixels vizinhos que são localizados adjacentes a um bloco atual para intra-predição usando coeficientes de filtro com valores definidos de acordo com um tamanho de bloco do bloco atual para a intra-predição; - controlar o processamento de filtração de forma a efetuar o processamento de filtração ligado ou desligado com relação aos pixels vizinhos com base em um modo de intra-predição; e - efetuar intra-predição em um pixel atual dentro do bloco atual usando os pixels vizinhos como pixels de referência para a intra- predição para gerar uma imagem de predição; e - decodificar dados de imagem codificados usando a imagem de predição, em que o processamento de filtração é determinado se está ligado ou desligado em relação aos pixels vizinhos com base em um número de modo do modo de intra-predição.
7. Meio não-transitório legível por computador de acordo com a reivindicação 6, caracterizado pelo fato de que o tamanho do bloco atual inclui 16 x 16 ou 32 x 32.
8. Dispositivo de processamento de imagem, caracterizado pelo fato de compreender: circuitos configurados para: - efetuar processamento de filtração em pixels vizinhos que são localizados adjacentes a um bloco atual para intra-predição usando coeficientes de filtro com valores definidos de acordo com um tamanho de bloco do bloco atual para a intra-predição; - controlar o processamento de filtração de forma a efetuar o processamento de filtração ligado ou desligado com relação aos pixels vizinhos com base em um modo de intra-predição; e - efetuar intra-predição em um pixel atual dentro do bloco atual usando os pixels vizinhos como pixels de referência para a intra- predição para gerar uma imagem de predição; e - decodificar dados de imagem codificados usando a imagem de predição, em que o processamento de filtração é determinado se está ligado ou desligado em relação aos pixels vizinhos com base em um número de modo do modo de intra-predição
9. Dispositivo de processamento de imagem, de acordo com a reivindicação 8 caracterizado pelo fato de que os circuitos são adicionalmente configurados para: definir os coeficientes de filtro de acordo com o tamanho de bloco do bloco atual para a intra-predição.
10. Dispositivo de processamento de imagem, de acordo com a reivindicação 8, caracterizado pelo fato de que o tamanho de bloco do bloco atual inclui 16 x 16 ou 32 x 32.
11. Dispositivo de processamento de imagem, de acordo com a reivindicação 8 caracterizado pelo fato de que os pixels vizinhos não estão incluídos dentro do bloco atual.
BRPI1011906-0A 2009-07-01 2010-06-23 dispositivo de processamento de imagem, método de processamento de imagem e meio não-transitório legível por computador BRPI1011906B1 (pt)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR122013014095-6A BR122013014095B1 (pt) 2009-07-01 2010-06-23 dispositivo e método de processamento de imagem, e, meio de armazenamento não transitório legível por computador

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2009-156563 2009-07-01
JP2009156563 2009-07-01
JP2009244753A JP5597968B2 (ja) 2009-07-01 2009-10-23 画像処理装置および方法、プログラム、並びに記録媒体
JP2009-244753 2009-10-23
PCT/JP2010/060605 WO2011001865A1 (ja) 2009-07-01 2010-06-23 画像処理装置および方法

Publications (2)

Publication Number Publication Date
BRPI1011906A2 BRPI1011906A2 (pt) 2016-04-19
BRPI1011906B1 true BRPI1011906B1 (pt) 2021-02-23

Family

ID=43410941

Family Applications (2)

Application Number Title Priority Date Filing Date
BR122013014095-6A BR122013014095B1 (pt) 2009-07-01 2010-06-23 dispositivo e método de processamento de imagem, e, meio de armazenamento não transitório legível por computador
BRPI1011906-0A BRPI1011906B1 (pt) 2009-07-01 2010-06-23 dispositivo de processamento de imagem, método de processamento de imagem e meio não-transitório legível por computador

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR122013014095-6A BR122013014095B1 (pt) 2009-07-01 2010-06-23 dispositivo e método de processamento de imagem, e, meio de armazenamento não transitório legível por computador

Country Status (14)

Country Link
US (7) US8885956B2 (pt)
EP (1) EP2451162A4 (pt)
JP (1) JP5597968B2 (pt)
KR (7) KR101765429B1 (pt)
CN (4) CN104125468B (pt)
BR (2) BR122013014095B1 (pt)
CA (1) CA2763887C (pt)
MX (3) MX2011013711A (pt)
MY (2) MY176882A (pt)
RU (4) RU2542945C2 (pt)
TR (1) TR201112794T1 (pt)
TW (6) TWI577179B (pt)
WO (1) WO2011001865A1 (pt)
ZA (1) ZA201106207B (pt)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1995967A4 (en) * 2006-03-16 2009-11-11 Huawei Tech Co Ltd METHOD AND DEVICE FOR REALIZING AN ADAPTIVE QUANTIZATION IN THE CODING PROCESS
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2011121938A1 (ja) * 2010-03-31 2011-10-06 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム、ならびに画像復号装置、画像復号方法及び画像復号プログラム
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
TWI508534B (zh) * 2010-05-18 2015-11-11 Sony Corp Image processing apparatus and image processing method
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
US9462272B2 (en) * 2010-12-13 2016-10-04 Electronics And Telecommunications Research Institute Intra prediction method and apparatus
US8917950B2 (en) * 2011-01-18 2014-12-23 Sony Corporation Simplifying parametric loop filters
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
JP2013034162A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
JP2012253722A (ja) * 2011-06-07 2012-12-20 Sony Corp 画像符号化装置と画像復号装置およびその方法とプログラム
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
JP5789172B2 (ja) * 2011-10-20 2015-10-07 日本放送協会 画像処理装置及びプログラム
CN107071444B (zh) 2011-10-24 2020-03-27 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
KR101947657B1 (ko) * 2011-10-24 2019-02-14 (주)대가람 인트라 예측 정보 부호화 방법 및 장치
PL3588949T3 (pl) * 2011-10-28 2021-03-08 Samsung Electronics Co., Ltd. Sposób i urządzenie do predykcji wewnątrzramkowej wideo
BR112014010539A2 (pt) 2011-11-04 2017-04-18 Motorola Mobility Llc escalonamento de vetor de movimento para rede de vetor de movimento não uniforme
JP2013102297A (ja) 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
JP5871628B2 (ja) * 2011-11-07 2016-03-01 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
TWI581623B (zh) * 2012-04-06 2017-05-01 Sony Corp Image processing apparatus and method, program, and recording medium
MX347522B (es) * 2012-04-13 2017-04-27 Mitsubishi Electric Corp Dispositivo de codificación de imagen, dispositvo de decodificación de imagen, método de codificación de imagen, y método de decodificación de imagen.
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
CN104272738A (zh) * 2012-06-15 2015-01-07 英特尔公司 用于可扩展视频编码的自适应滤波
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
TWI618404B (zh) * 2012-06-27 2018-03-11 Sony Corp Image processing device and method
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
JPWO2014049981A1 (ja) * 2012-09-28 2016-08-22 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
US9503746B2 (en) * 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US10812826B2 (en) * 2012-11-30 2020-10-20 Sony Corporation Image processing apparatus and image processing method
JP6065613B2 (ja) * 2013-01-29 2017-01-25 富士通株式会社 動画像符号化装置
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
US9332150B2 (en) * 2014-08-25 2016-05-03 Kabushiki Kaisha Toshiba Text scanning system, image processing apparatus, and text scanning method
TWI561060B (en) * 2015-01-15 2016-12-01 Mstar Semiconductor Inc Signal processing apparatus and signal processing method including quantization or inverse-quantization process
JP2016146572A (ja) * 2015-02-09 2016-08-12 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム
WO2016129980A1 (ko) * 2015-02-13 2016-08-18 엘지전자(주) 변환 도메인 예측을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
EP3067889A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for signal-adaptive transform kernel switching in audio coding
JP6599552B2 (ja) * 2015-09-10 2019-10-30 エルジー エレクトロニクス インコーポレイティド ビデオコーディングシステムにおけるイントラ予測方法及び装置
WO2017052174A1 (ko) * 2015-09-21 2017-03-30 엘지전자(주) 계수 유도 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
JPWO2017068856A1 (ja) * 2015-10-21 2018-08-09 シャープ株式会社 予測画像生成装置、画像復号装置および画像符号化装置
GB2552274A (en) 2015-11-09 2018-01-17 Sky Cp Ltd Television user interface
KR102791877B1 (ko) * 2015-11-12 2025-04-07 엘지전자 주식회사 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치
CN114189681B (zh) 2016-04-26 2025-09-09 杜比国际公司 图像解码方法、图像编码方法以及传输比特流的方法
US20200329232A1 (en) * 2016-05-27 2020-10-15 Lg Electronics Inc. Method and device for encoding or decoding video signal by using correlation of respective frequency components in original block and prediction block
WO2017222140A1 (ko) * 2016-06-24 2017-12-28 한국과학기술원 Cnn 기반 인루프 필터를 포함하는 부호화 방법과 장치 및 복호화 방법과 장치
KR101974261B1 (ko) 2016-06-24 2019-04-30 한국과학기술원 Cnn 기반 인루프 필터를 포함하는 부호화 방법과 장치 및 복호화 방법과 장치
US11647228B2 (en) 2016-07-15 2023-05-09 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal using transform domain prediction for prediction unit partition
JP2019534629A (ja) * 2016-09-30 2019-11-28 エルジー エレクトロニクス インコーポレイティド 画像処理方法及びこのための装置
US12184846B2 (en) 2017-01-02 2024-12-31 Industry-University Cooperation Foundation Hanyang University Intra prediction method and apparatus for performing adaptive filtering on reference pixel
KR102719084B1 (ko) * 2017-01-02 2024-10-16 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
WO2018124853A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
KR102053242B1 (ko) * 2017-04-26 2019-12-06 강현인 압축 파라미터를 이용한 영상 복원용 머신러닝 알고리즘 및 이를 이용한 영상 복원방법
WO2019107999A1 (ko) * 2017-11-30 2019-06-06 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR101998036B1 (ko) * 2017-12-06 2019-07-08 한국과학기술원 왜곡 제거 방법 및 장치
KR102606200B1 (ko) * 2018-03-06 2023-11-24 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102549936B1 (ko) * 2018-03-29 2023-07-03 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 패딩을 위한 화면내-예측 모드 선택을 위한 장치
US10687083B2 (en) * 2018-06-06 2020-06-16 Intel Corporation Loop restoration filtering for super resolution video coding
CN118945322A (zh) 2018-06-25 2024-11-12 有限公司B1影像技术研究所 用于编码/解码图像的方法和装置
CN112369036B (zh) 2018-07-02 2022-04-22 华为技术有限公司 视频编解码中的滤波装置和方法
MX2021002953A (es) 2018-09-16 2021-07-15 Huawei Tech Co Ltd Método y aparato para predicción.
JP7228980B2 (ja) * 2018-09-21 2023-02-27 日本放送協会 予測画像補正装置、画像符号化装置、画像復号装置、及びプログラム
CN119496891B (zh) * 2018-09-23 2025-10-28 华为技术有限公司 用于帧内参考样本插值滤波器切换的方法和装置
US10778972B1 (en) * 2019-02-27 2020-09-15 Google Llc Adaptive filter intra prediction modes in image/video compression
EP3975564A4 (en) * 2019-06-11 2022-08-03 Sony Group Corporation IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
RU2718426C9 (ru) * 2019-07-10 2020-12-29 федеральное государственное автономное образовательное учреждение высшего образования "Южный федеральный университет" (Южный федеральный университет) Устройство восстановления папиллярных узоров отпечатка пальца
TWI731579B (zh) * 2020-02-11 2021-06-21 日商東芝股份有限公司 傳輸裝置、通訊系統、傳輸方法及電腦程式產品

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608582B2 (ja) * 1995-07-07 2005-01-12 ソニー株式会社 画像符号化装置および方法、画像復号装置および方法
JP3493872B2 (ja) * 1996-02-29 2004-02-03 ソニー株式会社 画像データ処理方法およびその装置
JP3263807B2 (ja) * 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
ES2164412T3 (es) * 1997-01-31 2002-02-16 Siemens Ag Procedimiento y dispositivo para la codificacion y decodificacion de una imagen digitalizada.
JP3748489B2 (ja) * 1998-03-11 2006-02-22 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体
FI117533B (fi) * 2000-01-20 2006-11-15 Nokia Corp Menetelmä digitaalisten videokuvien suodattamiseksi
EP1137267A3 (en) * 2000-02-07 2005-09-14 Sony Corporation Device and method for image processing
US6654503B1 (en) * 2000-04-28 2003-11-25 Sun Microsystems, Inc. Block-based, adaptive, lossless image coder
JP2002073541A (ja) * 2000-08-31 2002-03-12 Sony Corp コンテンツ配信方法およびコンテンツ供給システム
US20020146074A1 (en) * 2001-02-20 2002-10-10 Cute Ltd. Unequal error protection of variable-length data packets based on recursive systematic convolutional coding
US20020157058A1 (en) * 2001-02-20 2002-10-24 Cute Ltd. System and method for feedback-based unequal error protection coding
US7450641B2 (en) * 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
JP2003304538A (ja) * 2002-04-11 2003-10-24 Matsushita Electric Ind Co Ltd 画像符号化装置、画像復号化装置及びそれらの方法
KR100958982B1 (ko) 2001-11-29 2010-05-20 파나소닉 주식회사 코딩 왜곡 제거 방법
US20030103523A1 (en) * 2001-11-30 2003-06-05 International Business Machines Corporation System and method for equal perceptual relevance packetization of data for multimedia delivery
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
JP4120301B2 (ja) * 2002-04-25 2008-07-16 ソニー株式会社 画像処理装置およびその方法
US6907079B2 (en) * 2002-05-01 2005-06-14 Thomson Licensing S.A. Deblocking filter conditioned on pixel brightness
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US7321565B2 (en) * 2003-08-29 2008-01-22 Ineoquest Technologies System and method for analyzing the performance of multiple transportation streams of streaming media in packet-based networks
CN1233171C (zh) * 2004-01-16 2005-12-21 北京工业大学 一种用于视频编码的简单化环路滤波方法
JP4082383B2 (ja) * 2004-05-20 2008-04-30 ソニー株式会社 撮像装置、画像処理方法および色領域設定プログラム
KR100813958B1 (ko) * 2004-06-07 2008-03-14 세종대학교산학협력단 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치
JP4763422B2 (ja) * 2004-12-03 2011-08-31 パナソニック株式会社 イントラ予測装置
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
US20060258991A1 (en) * 2005-04-29 2006-11-16 Lin Edward D Portable needle uncapping and recapping device
US20090034857A1 (en) * 2005-07-22 2009-02-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
JP2007150913A (ja) * 2005-11-29 2007-06-14 Matsushita Electric Ind Co Ltd 画像符号化装置
US7570704B2 (en) * 2005-11-30 2009-08-04 Intel Corporation Transmitter architecture for high-speed communications
US8049798B2 (en) * 2005-12-27 2011-11-01 Kyocera Corporation Imaging device and image processing method
KR101246294B1 (ko) * 2006-03-03 2013-03-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR101353689B1 (ko) 2006-03-27 2014-01-21 파나소닉 주식회사 화상 부호화 장치 및 화상 복호화 장치
EP1841230A1 (en) * 2006-03-27 2007-10-03 Matsushita Electric Industrial Co., Ltd. Adaptive wiener filter for video coding
KR100745765B1 (ko) 2006-04-13 2007-08-02 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
CN100578622C (zh) 2006-05-30 2010-01-06 北京中星微电子有限公司 一种自适应麦克阵列系统及其语音信号处理方法
US8243815B2 (en) * 2006-06-16 2012-08-14 Via Technologies, Inc. Systems and methods of video compression deblocking
FR2903253A1 (fr) * 2006-06-29 2008-01-04 Thales Sa Procede permettant de determiner des parametres de compression et de protection pour la transmission de donnees multimedia sur un canal sans fil.
EP2039171B1 (en) * 2006-07-07 2016-10-05 Telefonaktiebolaget LM Ericsson (publ) Weighted prediction for video coding
JP4747975B2 (ja) * 2006-07-14 2011-08-17 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
CN101554058B (zh) * 2006-11-07 2011-09-21 三星电子株式会社 基于帧内预测进行编码和解码的方法和装置
US9961372B2 (en) * 2006-12-08 2018-05-01 Nxp Usa, Inc. Adaptive disabling of deblock filtering based on a content characteristic of video information
US9445128B2 (en) * 2006-12-08 2016-09-13 Freescale Semiconductor, Inc. System and method of determining deblocking control flag of scalable video system for indicating presentation of deblocking parameters for multiple layers
US8942505B2 (en) 2007-01-09 2015-01-27 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filter representation
JP4847890B2 (ja) * 2007-02-16 2011-12-28 パナソニック株式会社 符号化方式変換装置
JP5089214B2 (ja) * 2007-03-27 2012-12-05 キヤノン株式会社 画像処理方法及びその装置、コンピュータプログラム及び記憶媒体
JP4790843B2 (ja) * 2007-03-30 2011-10-12 富士通株式会社 能動消音装置および能動消音方法
US20080253467A1 (en) * 2007-04-13 2008-10-16 Nokia Corporation System and method for using redundant pictures for inter-layer prediction in scalable video coding
US8406299B2 (en) 2007-04-17 2013-03-26 Qualcomm Incorporated Directional transforms for intra-coding
US8139875B2 (en) * 2007-06-28 2012-03-20 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
BRPI0813904B1 (pt) * 2007-06-29 2020-12-08 Velos Media International Limited dispositivo de codificação de imagem para codificar imagens de entrada e dispositivo de decodificação de imagem para decodificar dados de imagens codificados
CN100562114C (zh) 2007-08-30 2009-11-18 上海交通大学 视频解码方法与解码装置
JP2009194617A (ja) * 2008-02-14 2009-08-27 Sony Corp 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
WO2009110160A1 (ja) * 2008-03-07 2009-09-11 株式会社 東芝 動画像符号化/復号化方法及び装置
US8831086B2 (en) * 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
EP2266321B1 (en) * 2008-04-23 2017-12-13 Telefonaktiebolaget LM Ericsson (publ) Template-based pixel block processing
WO2009133845A1 (ja) * 2008-04-30 2009-11-05 株式会社 東芝 動画像符号化/復号化装置及び方法
WO2009133844A1 (ja) * 2008-04-30 2009-11-05 株式会社 東芝 エッジを考慮したフィルタリング機能を備えた動画像符号化/復号化方法及び装置
CA2729771A1 (en) * 2008-07-04 2010-01-07 Kabushiki Kaisha Toshiba Moving-picture encoding/decoding method and apparatus
CN101321290B (zh) * 2008-07-17 2010-12-15 北京数码视讯科技股份有限公司 基于数字信号处理器的去块滤波方法
TWI386068B (zh) * 2008-10-22 2013-02-11 Nippon Telegraph & Telephone 解塊處理方法、解塊處理裝置、解塊處理程式及記錄該程式之可由電腦讀取之記錄媒體
CN102282850A (zh) * 2009-01-05 2011-12-14 株式会社东芝 运动图像编码方法以及运动图像解码方法
KR20110001990A (ko) * 2009-06-30 2011-01-06 삼성전자주식회사 영상 데이터의 인 루프 필터링 장치 및 방법과 이를 이용한 영상 부호화/복호화 장치
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US8306355B2 (en) * 2009-07-13 2012-11-06 Sharp Laboratories Of America, Inc. Methods and systems for reducing compression artifacts
JP2011050001A (ja) * 2009-08-28 2011-03-10 Sony Corp 画像処理装置および方法
US20110249741A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Methods and Systems for Intra Prediction
CN105721867B (zh) * 2010-04-13 2019-07-19 三星电子株式会社 对视频解码的方法
DE102011006036B4 (de) * 2011-01-14 2012-12-27 Siemens Aktiengesellschaft Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
US20160073107A1 (en) * 2013-04-15 2016-03-10 Intellectual Discovery Co., Ltd Method and apparatus for video encoding/decoding using intra prediction
WO2017155334A1 (ko) * 2016-03-11 2017-09-14 디지털인사이트 주식회사 비디오 코딩 방법 및 장치
CN117221603A (zh) * 2016-06-22 2023-12-12 Lx 半导体科技有限公司 图像编码/解码设备以及传输图像数据的设备
WO2018066863A1 (ko) * 2016-10-04 2018-04-12 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP3646599A1 (en) * 2017-06-30 2020-05-06 Telefonaktiebolaget LM Ericsson (PUBL) Encoding and decoding a picture block using a curved intra-prediction mode

Also Published As

Publication number Publication date
US20220335657A1 (en) 2022-10-20
AU2010267185A1 (en) 2012-01-12
US10614593B2 (en) 2020-04-07
KR101765429B1 (ko) 2017-08-07
CN104125468A (zh) 2014-10-29
CN104125468B (zh) 2018-07-03
US20140376631A1 (en) 2014-12-25
CN106331710A (zh) 2017-01-11
BR122013014095B1 (pt) 2021-03-09
TWI651965B (zh) 2019-02-21
CA2763887A1 (en) 2011-01-06
KR101696950B1 (ko) 2017-01-16
MY176882A (en) 2020-08-25
US20120093426A1 (en) 2012-04-19
RU2542945C2 (ru) 2015-02-27
CN106385583A (zh) 2017-02-08
US20180005408A1 (en) 2018-01-04
KR101772851B1 (ko) 2017-08-29
KR20120036847A (ko) 2012-04-18
US20200202577A1 (en) 2020-06-25
CN106385583B (zh) 2019-04-19
CA2763887C (en) 2016-08-30
JP2011030175A (ja) 2011-02-10
KR20160143871A (ko) 2016-12-14
ZA201106207B (en) 2012-06-27
CN102474617A (zh) 2012-05-23
US9710930B2 (en) 2017-07-18
MX349898B (es) 2017-08-18
US9830716B2 (en) 2017-11-28
TWI650007B (zh) 2019-02-01
BR122013014095A2 (pt) 2016-05-10
CN106254876A (zh) 2016-12-21
BRPI1011906A2 (pt) 2016-04-19
TW201717637A (zh) 2017-05-16
TW201116069A (en) 2011-05-01
JP5597968B2 (ja) 2014-10-01
RU2011152881A (ru) 2013-06-27
MX2011013711A (es) 2012-02-22
AU2010267185B2 (en) 2015-09-24
AU2010267185A8 (en) 2016-02-25
TW201440501A (zh) 2014-10-16
US11328452B2 (en) 2022-05-10
TW201907722A (zh) 2019-02-16
MY156869A (en) 2016-04-15
KR102161394B1 (ko) 2020-10-05
EP2451162A1 (en) 2012-05-09
TW201904298A (zh) 2019-01-16
TWI705702B (zh) 2020-09-21
US8885956B2 (en) 2014-11-11
US20140376630A1 (en) 2014-12-25
KR20150024440A (ko) 2015-03-06
KR20160142409A (ko) 2016-12-12
CN106254876B (zh) 2019-10-11
RU2019115874A (ru) 2020-11-23
KR20190006082A (ko) 2019-01-16
TR201112794T1 (tr) 2012-05-21
RU2665885C2 (ru) 2018-09-04
EP2451162A4 (en) 2013-01-16
TW201717638A (zh) 2017-05-16
TWI577179B (zh) 2017-04-01
RU2014141292A3 (pt) 2018-07-09
WO2011001865A1 (ja) 2011-01-06
MX349900B (es) 2017-08-18
CN102474617B (zh) 2016-11-16
KR102051266B1 (ko) 2019-12-03
RU2014141292A (ru) 2016-05-10
TWI699996B (zh) 2020-07-21
KR20190133800A (ko) 2019-12-03
KR101765430B1 (ko) 2017-08-07
US20130330014A1 (en) 2013-12-12
TWI475891B (zh) 2015-03-01
RU2690211C1 (ru) 2019-05-31
KR20170065686A (ko) 2017-06-13
US8675978B2 (en) 2014-03-18
KR101938316B1 (ko) 2019-01-15

Similar Documents

Publication Publication Date Title
BRPI1011906B1 (pt) dispositivo de processamento de imagem, método de processamento de imagem e meio não-transitório legível por computador
RU2541881C2 (ru) Устройство и способ обработки изображений
JP6048774B2 (ja) 画像処理装置および方法
AU2016200566B2 (en) Image processing device and method
AU2010267185B8 (en) Image processing device and method
CN106331710B (zh) 图像处理装置和方法

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B25A Requested transfer of rights approved

Owner name: VELOS MEDIA INTERNATIONAL LIMITED (IE)

B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 19/11

Ipc: H04N 19/11 (2014.01), H04N 19/117 (2014.01), H04N

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 23/02/2021, OBSERVADAS AS CONDICOES LEGAIS.

B25A Requested transfer of rights approved

Owner name: SONY GROUP CORPORATION (JP)