[go: up one dir, main page]

BRPI0721077A2 - Método de codificação e método de decodificação de vídeo, aparelhos para os mesmos, programas para os mesmos, e meio de armazenamento o qual armazena os programas - Google Patents

Método de codificação e método de decodificação de vídeo, aparelhos para os mesmos, programas para os mesmos, e meio de armazenamento o qual armazena os programas Download PDF

Info

Publication number
BRPI0721077A2
BRPI0721077A2 BRPI0721077-9A2A BRPI0721077A BRPI0721077A2 BR PI0721077 A2 BRPI0721077 A2 BR PI0721077A2 BR PI0721077 A BRPI0721077 A BR PI0721077A BR PI0721077 A2 BRPI0721077 A2 BR PI0721077A2
Authority
BR
Brazil
Prior art keywords
image
decoding
decoded
camera image
camera
Prior art date
Application number
BRPI0721077-9A2A
Other languages
English (en)
Inventor
Shinya Shimizu
Masaki Kitahara
Kazuto Kamikura
Yoshiyuki Yashima
Original Assignee
Nippon Telegraph & Telephone
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph & Telephone filed Critical Nippon Telegraph & Telephone
Publication of BRPI0721077A2 publication Critical patent/BRPI0721077A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO DE CODIFICAÇÃO E MÉTODO DE DECODIFICAÇÃO DE VÍDEO, APARELHOS PARA OS MESMOS, PROGRAMAS PARA OS MESMOS, E MEIO DE ARMAZENAMENTO O QUAL ARMAZENA OS PROGRAMAS".
CAMPO DA TÉCNICA
A presente invenção refere-se a técnicas de codificação e decodificação para imagens de vídeo de múltiplos pontos de vista.
Prioridade é reivindicada sobre o Pedido de Patente Japonesa Número 2006-353628, depositado em 28 de Dezembro de 2006, o conteúdo do qual está aqui incorporado por referência.
ANTECEDENTES DA TÉCNICA
As imagens de vídeo de múltiplos pontos de vista são uma pluralidade de imagens de vídeo obtidas fotografando o mesmo objeto e o seu fundo utilizando uma pluralidade de câmeras. Abaixo, uma imagem de vídeo obtida por uma única câmera é denominada uma "imagem de vídeo bidimensional", e um conjunto de múltiplas imagens de vídeo bidimensionais obtidas fotografando o mesmo objeto e o seu fundo é denominada uma "imagem de vídeo de múltiplos pontos de vista".
Existe uma forte correlação temporal na imagem de vídeo bidimensional de cada câmera, a qual está incluída em uma imagem de vídeo de múltiplos pontos de vista. Além disso, quando as câmeras estão sincronizadas umas com as outras, as imagens (feitas pelas câmeras) ao mesmo tempo capturam o objeto e o seu fundo inteiramente no mesmo estado de diferentes posições, de modo que existe uma forte correlação entre as câmeras. A eficiência de codificação de codificação de vídeo pode ser aperfeiçoada utilizando esta correlação.
Primeiro, as técnicas convencionais relativas à codificação de imagens de vídeo bidimensionais serão mostradas.
Em muitos métodos conhecidos de codificação de imagens de vídeo bidimensionais, tais como H.264, MPEG-2, MPEG-4 (os quais são padrões de codificação internacionais), e similares, uma codificação altamente eficiente é executada por meio de compensação de movimento, transformação ortogonal, quantização, codificação de entropia, ou similares. Por exemplo, em H.264, é possível executar a codificação utilizando uma correlação temporal entre o quadro presente e quadros passados ou futuros.
O Documento Não-patente 1 descreve técnicas detalhadas de 5 compensação de movimento utilizadas em H.264. Suas explicações gerais seguem.
De acordo com a compensação de movimento em H.264, um quadro-alvo de codificação é dividido em blocos de qualquer tamanho, e cada bloco pode ter um vetor de movimento inicial, por meio disto atingindo um alto nível de eficiência de codificação mesmo para uma mudança local em uma imagem de vídeo.
Além disso, como candidatas para uma imagem de referência, quadros passados e futuros (com relação ao quadro presente), os quais já foram codificados, podem ser preparados de modo que cada bloco possa ter 15 um quadro de referência individual, por meio disto implementando um alto nível de eficiência de codificação mesmo para uma imagem de vídeo na qual uma oclusão ocorre devido a uma mudança temporal.
A seguir, um método de codificação de imagens de vídeo de múltiplos pontos de vista convencional será explicado. Como a codificação 20 de imagens de vídeo de múltiplos pontos de vista utiliza uma correlação entre as câmeras, as imagens de vídeo de múltiplos pontos de vista são codificadas altamente eficientemente em um método conhecido o qual utiliza uma "compensação de disparidade" na qual uma compensação de movimento é aplicada a imagens obtidas por diferentes câmeras ao mesmo tempo. Aqui, 25 a disparidade é a diferença entre as posições, nas quais o mesmo ponto sobre um objeto de imagem formada é projetado, sobre os planos de imagem de câmeras as quais estão dispostas em diferentes posições.
A Figura 7 é uma vista esquemática que mostra o conceito de disparidade gerado entre tais câmeras. Isto é, a Figura 7 mostra um estado no qual um observador olha para baixo sobre os planos de imagem de câmeras AeB, cujos eixos geométricos óticos são paralelos um ao outro, de seu lado superior, geralmente, tais pontos, nos quais o mesmo ponto de um objeto de imagem formada é projetado, sobre os planos de diferentes câmeras, são denominados "pontos correspondentes". Na codificação baseada em compensação de disparidade, com base na relação correspondente acima, cada valor de pixel de um quadro-alvo de codificação é predito utilizando 5 um quadro de referência, e as informações residuais e de disparidade de predição relevantes as quais indicam a relação correspondente são codificadas.
Para cada quadro em uma imagem de vídeo de múltiplos pontos de vista, uma redundância temporal e uma redundância entre as câmeras 10 estão presentes ao mesmo tempo. O Documento Não-patente 2 e o Documento Não-patente 1 (que descreve um aparelho de codificação de imagem de múltiplos pontos de vista) cada um descreve um método para remover ambas as redundâncias simultaneamente.
Nos métodos relevantes, uma predição temporal de uma imagem diferencial entre uma imagem original e uma imagem de disparidade compensada é executada, e ura resíduo de compensação de movimento na imagem diferencial é codificado.
De acordo com tais métodos, a redundância temporal, a qual não pode ser removida por uma compensação de disparidade para remover 20 a redundância intercâmeras, pode ser removida utilizando a compensação de movimento. Portanto, uma predição de resíduo, o qual é finalmente codificado, é reduzida, de modo que um alto nível de eficiência de codificação pode ser atingido.
Documento Não-patente 1: ITU-T Rec. H.264/ISO/IEC 11496-10, "Editor’s Proposed Draft Text Modifications for Joint Video Specification (ITUT Rec. H.264/ISO/IEC 11496-10 AVC), Draft 7" Final Committee Draft, Document JVT-022, pp. 10-13, e 62-68, Setembro de 2002.
Documento Não-patente 2: Shinya SHIMIZU, Masaki KITAHARA, Kazuto KAMIKURA e Yoshiyuki YASHIMA, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings os Picture Coding Symposium 2006, SS3-6, Abril de 2006
Documento de Patente 1: Pedido de Patente Não-Examinada Japonesa, Primeira Publicação Número H10-191393.
DESCRIÇÃO DA INVENÇÃO
PROBLEMA A SER RESOLVIDO PELA INVENÇÃO
De acordo com o método de codificação de vídeo de múltiplos pontos de vista convencional que aplica uma compensação de movimento a uma imagem diferencial, o resíduo de predição em uma parte que tem tanto a redundância temporal quanto intercâmeras pode ser reduzida, de modo que a codificação possa ser eficientemente executada.
No entanto, se uma oclusão ocorrer entre os objetos de imagem formada como mostrado na Figura 8, então a presença / ausência de redundância intercâmeras para um único objeto pode mudar dependendo do tempo.
A Figura 8 mostra um exemplo de oclusão interobjetos em imagens as quais são obtidas pelas câmeras A e B em cada um dos tempos a e b.
A Figura 9 mostra um exemplo da imagem de resíduo de compensação de disparidade quando existe uma oclusão.
De acordo com o método descrito no Documento Não-patente 2, para cada pixel de um quadro de referência utilizado em compensação de 20 disparidade, as informações de disparidade as quais indicam um ponto correspondente em outro quadro estão providas. Portanto, se a imagem da câmera B for compensada em disparidade da imagem da câmera A (ver Figura 8), uma imagem diferencial como mostrado na Figura 9 é obtida.
Na Figura 9, a profundidade de cor indica o valor do sinal diferencial, de modo que quanto mais próximo do branco, menor a diferença relevante.
Aqui, as informações de disparidade, as quais indicam a qual parte na imagem da câmera B cada pixel no quadro de referência (isto é, a imagem da câmera A) corresponde, são utilizadas. Portanto, nenhuma com30 pensação de disparidade é executada em cada parte a qual está presente a imagem da câmera B mas não está presente na imagem da câmera A. Consequentemente, a cor de cada parte (na imagem relevante) para a qual um ponto correspondente pode ser obtido torna-se próxima de branco. Em contraste, na parte R (dentro de um círculo tracejado na Figura 9) para a qual nenhum ponto correspondente pode ser obtido, a imagem original permanece não-mudada como o sinal diferencial.
5 No entanto, devido a uma diferença em sensibilidade entre as
câmeras ou uma influência de reflexão, o sinal diferencial não torna-se completamente zero mesmo em cada parte para a qual um ponto correspondente pode ser obtido. Em uma área tal como R na Figura 9, é óbvio que o resíduo de predição não pode ser reduzido mesmo por compensação de movi10 mento executada de uma imagem diferencial em outro tempo tal como o tempo a na Figura 9.
Em um método simples para resolver o problema acima, cada bloco refere a um quadro diferente. Isto é, como o quadro de referência, não somente a imagem decodificada da imagem diferencial, mas também a ima15 gem decodificada de uma imagem de câmera final obtida pela adição de uma imagem compensada em disparidade à imagem diferencial pode ser utilizada, e uma das duas imagens decodificadas pode ser intercambiavelmente referida em cada bloco.
Consequentemente, mesmo na área R da Figura 9 em que a imagem de câmera original permanece, o resíduo de predição pode ser reduzido pela execução de compensação de movimento da imagem decodificada da imagem de câmera.
No entanto, em tal método, é necessário codificar as informações para indicar o quadro de referência de cada bloco, o que causa um aumento na quantidade de código.
Além disso, o método acima é ineficaz se uma parte que tem uma oclusão e uma parte que não tem oclusão estiverem simultaneamente presentes em um bloco.
Por outro lado, o método descrito no Documento Não-patente 1, quando codificando um quadro-alvo de codificação, ao invés de codificar o quadro inteiro sujeitando a imagem diferencial à compensação de movimento, é possível selecionar para cada bloco se (i) a imagem diferencial é sujeita à compensação de movimento, (ii) somente uma compensação de disparidade é executada, ou (iii) somente uma compensação de movimento é executada.
Consequentemente, mesmo uma parte onde uma oclusão ocorre 5 entre as câmeras, o resíduo de predição pode ser eficientemente reduzido se existir uma redundância temporal.
No entanto, no método acima, é necessário codificar as informações para indicar qual método de predição foi utilizado em cada bloco, isto é, codificar uma grande quantidade de informações adicionais apesar do resíduo de predição poder ser reduzido. Portanto, é impossível atingir um alto nível de eficiência de codificação.
Mais ainda, como somente um método de predição pode ser selecionado em cada bloco, o método relevante é ineficaz se a presença / ausência de oclusão não for fixada em cada parte de um bloco.
À Iuz das circunstâncias acima, um objeto da presente invenção
é prover novas técnicas de codificação e de decodificãção de vídeo para atingir um alto nível de eficiência de codificação pela implementação de uma predição apropriada sem aumentar a quantidade de código requerida para a predição.
MEIOS PARA RESOLVER O PROBLEMA
De modo a resolver os problemas acima, a presente invenção provê um método de codificação de vídeo para gerar, com base nas informações de disparidade entre uma imagem de câmera de referência já codificada e uma imagem de câmera-alvo de codificação que corresponde à ima25 gem de câmera de referência, uma imagem compensada em disparidade por meio de predição de imagem intercâmeras; e codificar uma imagem diferencial entre a imagem de câmera-alvo de codificação e a imagem compensada em disparidade. O método tem uma etapa de selecionar, para cada unidade de seção predeterminada (por exemplo, cada pixel) sobre a imagem diferen30 ciai, um dos seguintes dois grupos de imagem como um alvo de referência, determinando se existe ou não uma imagem compensada em disparidade na posição correspondente, em outras palavras se o pixel correspondente na imagem compensada em disparidade tem ou não um valor efetivo:
(i) um grupo de imagens diferenciais decodificadas, o qual é obtido pela decodificação de uma imagem diferencial entre a imagem de câmera já codificada e a imagem compensada em disparidade (isto é, um conjun
to de imagens diferenciais decodificadas o qual inclui uma imagem diferencial decodificada a qual foi obtida em outro momento e já foi codificada, ou uma imagem diferencial decodificada de uma parte já codificada da imagem diferencial para a imagem de câmera-alvo de codificação); e
(ii) um grupo de imagens de câmera decodificadas, o qual é obtido pela decodificação da imagem de câmera já codificada (um conjunto de
imagens de câmera decodificadas as quais são cada uma representada pela soma de cada imagem diferencial decodificada (a qual pode ser uma imagem diferencial decodificada em outro momento) e uma imagem compensada em disparidade correspondente).
De acordo com o método acima, uma codificação preditiva que
utrHza uma imagem de referência apropriada para cada unidade de seção desejada pode ser executada sem acrescentar novas informações adicionais sobre a seleção para o modo ou a imagem de referência. Isto é, é possível reduzir o elemento residual a ser codificado, sem aumentar a quantidade de 20 código requerida para as informações adicionais, por meio disto implementando um alto nível de eficiência de codificação.
No método acima, as informações de disparidade podem ser providas como um vetor de disparidade, ou representadas como informações geométricas tais como uma distância da câmera para o objeto de ima25 gem formada, isto é, estas podem ser providas em qualquer formato pelo qual as relações correspondentes entre as imagens relevantes podem ser obtidas.
Quando codificando a imagem diferencial utilizando um alvo de referência designado, a codificação pode ser executada utilizando um método de predição de sinal em um bloco de processamento de codificação.
Na codificação preditiva geral, diferentes alvos de referência provavelmente têm diferentes métodos de predição ótimos. Portanto, se um bloco de processamento de codificação incluir pixels ou áreas as quais têm diferentes alvos de referência, o método de predição é selecionado para cada alvo de referência, e informações adicionais as quais indicam uma pluralidade de métodos de predição são codificadas.
5 No entanto, se a codificação for executada utilizando um único
método de predição em um bloco de processamento de codificação, como acima descrito, as informações as quais indicam somente um método de predição deveriam ser codificadas para cada bloco de processamento de codificação, por meio disto reduzindo a quantidade de código requerida para 10 a codificação inteira. Neste caso, para uma degradação prevista na eficiência de predição, a eficiência de predição não deve ser consideravelmente degradada em consideração de um caso como mostrado na Figura 9, isto é, quando executando uma predição de vídeo pela aplicação de um único método (isto é, uma compensação de movimento que utiliza um único vetor de 15 movimento) mesmo em uma parte de limite.
Além disso, em consideração do equilíbrio entre a eficiência de predição e a quantidade de código requerida para as informações adicionais, é possível selecionar se um único método de predição é utilizado em cada bloco, ou um método de predição individual é atribuído a cada alvo de refe20 rência. Quando considerando tal equilíbrio entre a eficiência de predição e a quantidade de código requerida para as informações adicionais, é possível implementar uma codificação mais flexível que tem um nível mais alto de eficiência de codificação.
Neste caso, o lado de decodificação pode determinar dos dados codificados se o método de predição foi mudado ou não, de modo que o lado de decodificação possa decodificar apropriadamente a imagem relevante. EFEITO DA INVENÇÃO
De acordo com a presente invenção, quando sujeitando uma imagem diferencial obtida por compenàação de disparidade a uma codificação preditiva, nenhuma informação nova adicional é utilizada, e uma imagem de referência apropriada é utilizada através de uma operação de troca para cada pixel. Portanto, o resíduo para o alvo de codificação pode ser reduzido sem aumentar a quantidade de código requerida para as informações adicionais, por meio disto implementando uma codificação de vídeo eficiente da imagem de vídeo de múltiplos pontos de vista.
BREVE DESCRIÇÃO DOS DESENHOS Figura 1 é um diagrama que mostra um aparelho de codificação
de vídeo como uma modalidade da presente invenção.
Figura 2 é um fluxograma de codificação de vídeo executado na
modalidade.
Figura 3 é um fluxograma detalhado para a determinação de modo de predição na modalidade.
Figura 4 é um diagrama que mostra um aparelho de decodificação de vídeo como uma modalidade da presente invenção.
Figura 5 é um fluxograma de decodificação de vídeo executado na modalidade.
Figura 6 é um fluxograma detalhado da decodificação de dados
codificados para a imagem diferencial na modalidade.
Figura 7 é um diagrama esquemático que mostra o conceito de disparidade gerado entre as câmeras.
Figura 8 é um diagrama que mostra um exemplo no qual uma oclusão ocorre entre objetos de imagem formada.
Figura 9 é um diagrama que mostra um exemplo da imagem residual de compensação de disparidade quando existe uma oclusão. LISTAGEM DE REFERÊNCIA
100 aparelho de codificação de vídeo
101 unidade de entrada de imagem
102 unidade de entrada de imagem de referência
103 unidade de entrada de informações de disparidade
104 gerador de imagem compensada em disparidade
105 codificador preditivo de imagem diferencial 106 unidade de ajuste de imagem de referência
107 memória de imagem de câmera decodificada
108 memória de imagem diferencial decodificada 109 chave de referência
110 decodificador de imagem diferencial
200 aparelho de decodificação de vídeo
201 unidade de entrada de dados codificados
202 unidade de entrada de imagem de referência
203 unidade de entrada de informações de disparidade
204 gerador de imagem compensada em disparidade
205 unidade de ajuste de imagem de referência
206 memória de imagem de câmera decodificada 207 memória de imagem diferencial decodificada
208 chave de referência
209 decodificador de imagem diferencial MELHOR MODO PARA EXECUTAR A INVENÇÃO
Antes da explicação de modalidades da presente invenção, um sumário da presente invenção será descrito.
Em técnicas convencionais para a codificação de múltiplos pontos de vista, é necessário codificar e transmitir as informações as quais indicam a imagem selecionada. Em contraste, a presente invenção está caracterizada pelo fato de que as informações as quais indicam a imagem selecio20 nada podem ser decodificadas utilizando outras informações. Consequentemente, quando a presente invenção tem a mesma quantidade de código que as técnicas convencionais, a presente invenção tem uma melhor qualidade de imagem em comparação com as técnicas convencionais.
De modo a codificar uma imagem de vídeo de múltiplos pontos 25 de vista, se uma diferença entre uma imagem de vídeo obtida por uma câmera e uma imagem correspondente gerada por meio de compensação de disparidade de outra câmera for obtida, e a codificação é executada em consideração de correlação temporal com relação à imagem de vídeo diferencial, então nas técnicas convencionais, uma parte de oclusão tal como R na 30 Figura 9 não pode ser eficientemente codificada.
Em contraste, na presente invenção, uma parte de oclusão tal como R na Figura 9 pode ser eficientemente codificada sujeitando a parte relevante à codificação preditiva a qual utiliza, não uma imagem de vídeo diferencial de uma imagem gerada por compensação de disparidade, mas uma imagem decodificada da imagem de vídeo original.
Além disso, em um método facilmente previsto para resolver um 5 problema tal que a parte de oclusão não pode ser eficientemente codificada, uma técnica de referência de múltiplos quadros empregada em H.264 é utilizada de modo que uma codificação preditiva é executada atribuindo uma imagem de referência individual a cada bloco.
No entanto, em tal caso, (i) as informações para designar uma 10 imagem de referência para cada bloco são codificadas, o que causa um aumento na quantidade de código, e (ii) a troca da imagem de referência pode ser executada somente por uma unidade de bloco. Portanto, o método relevante é ineficaz quando um bloco tem tanto uma parte de oclusão quanto uma parte de não oclusão.
Em contraste, na presente invenção, a troca da imagem de refe
rência é executada utilizando as informações obtidas quando gerando uma imagem por compensação de disparidade. Portanto, é desnecessário codificar novas informações. Mais ainda, de acordo com as informações utilizadas, a presença / ausência de oclusão pode ser determinada para cada pi20 xel. Portanto, a troca da imagem de referência pode ser executada por uma unidade de pixel.
De modo a implementar as funções acima, na presente invenção, as informações Ref as quais indicam se uma imagem compensada em disparidade Syn de um alvo de codificação pode ou não ser gerada utilizando uma imagem obtida por outra câmera são geradas, e a troca da imagem de referência é executada utilizando as informações Ref.
Um resultado de determinação de que uma imagem compensada em disparidade Syn pode ser gerada significa que o mesmo objeto aparece em uma imagem de outra câmera, e assim nenhuma oclusão ocorreu. Em contraste, um resultado de determinação de que uma ima
gem compensada em disparidade Syn não pode ser gerada significa que o mesmo objeto não aparece em uma imagem de outra câmera, e assim uma oclusão ocorreu.
Isto é, a troca da imagem de referência é executada utilizando as informações as quais indicam se a imagem compensada em disparidade Syn pode ser gerada ou não, de modo que é possível resolver o problema 5 que nenhuma predição apropriada pode ser executada em uma parte de oclusão tal como R na Figura 9.
A técnica de referência de múltiplos quadros utilizada em H.264 é também conhecida como um método para selecionar uma imagem de referência utilizada para a codificação dentre um pluralidade de candidatas de imagem de referência. Neste método conhecido, é necessário codificar e transmitir as informações que indicam qual imagem foi selecionada.
Em contraste, na presente invenção, as informações utilizadas para selecionar uma imagem de referência são geradas utilizando as informações as quais são utilizadas para gerar uma imagem compensada em 15 disparidade e a qual deve ser transmitida também quando utilizando o método conhecido acima. Portanto, é desnecessário transmitir as informações adicionais utilizadas para trocar a imagem de referência, por meio disto reduzindo a quantidade de código.
Nas modalidades posteriormente mostradas, as informações as 20 quais são utilizadas para selecionar uma imagem de referência e são geradas com base em informações utilizadas para gerar uma imagem compensada em disparidade são representadas como as informações Ref, e as mesmas informações podem ser utilizadas nos lados de codificação e de decodificação (por exemplo, as informações no lado de codificação são ge25 radas na etapa A6 na Figura 2, e as informações no lado de decodificação são geradas na etapa C4 na Figura 5).
Além disso, se a imagem de referência for selecionada para cada pixel em um método conhecido tal como a técnica de referência de múltiplos quadros em H.264 ou similares, a quantidade de código requerida para 30 um sinal de erro de predição a ser codificado pode ser reduzida. No entanto, em tal caso, é necessário codificar as informações utilizadas para trocar a imagem de referência para cada pixel, o que causa um aumento na quantidade de código. Isto é, neste caso, a imagem de referência pode ser trocada somente por uma unidade de bloco de modo a reduzir a quantidade total de código.
Em contraste, na presente invenção, as informações para trocar 5 a imagem de referência não são umas a serem adicionalmente transmitidas como acima descrito. Portanto, quando gerando tais informações em correspondência com cada pixel, a troca da imagem de referência para cada pixel pode ser executada sem aumentar a quantidade de código, por meio disto reduzindo a quantidade de código requerida para o sinal de erro de predição. 10 Abaixo, a presente invenção será explicada em detalhes de a
cordo com as modalidades.
Nas modalidades, é assumido que uma imagem de vídeo de múltiplos pontos de vista obtida utilizando duas câmeras é codificada, em que a imagem da câmera B é codificada utilizando a imagem da câmera A como a imagem de referência.
A Figura 1 mostra um aparelho de codificação de vídeo 100 como uma modalidade da presente invenção.
O aparelho de codificação de vídeo 100 inclui uma unidade de entrada de imagem 101 para inserir uma imagem (como uma imagem-alvo de codificação) obtida pela câmera B no aparelho; uma unidade de entrada de imagem de referência 102 para inserir uma imagem decodificada (como uma imagem de referência) da câmera A no aparelho; uma unidade de entrada de informações de disparidade 103 para inserir as informações de disparidade, as quais indicam para qual posição sobre a imagem-alvo de codificação cada pixel na imagem de referência corresponde, no aparelho; um gerador de imagem compensada em disparidade 104 para gerar uma imagem compensada em disparidade na posição da câmera B pela utilização da imagem de referência e das informações de disparidade; um codificador preditivo de imagem diferencial 105 para sujeitar uma imagem diferencial entre a imagem-alvo de codificação e a imagem compensada em disparidade para uma codificação preditiva; uma unidade de ajuste de imagem de referência 106 para atribuir uma grupo de imagens de referência a cada pixel com base no estado da imagem compensada em disparidade; uma memória de imagem de câmera decodificada 107 para armazenar as imagens decodificadas (como um grupo de imagens de referência) de imagens obtidas pela câmera B; uma memória de imagem diferencial decodificada 108 para arma5 zenar as imagens decodificadas (como outro grupo de imagens de referência) das imagens diferenciais codificadas; uma chave de referência 109 para trocar a imagem de memória de referência com base nas informações de ajuste sobre o grupo de imagens de referência; e um decodificador de imagem diferencial 110 para decodificar cada imagem diferencial codificada.
As Figuras 2 e 3 são fluxogramas executados pelo aparelho de
codificação de vídeo 100 que tem a estrutura acima. Referindo aos fluxogramas, a operação executada pelo aparelho de codificação de vídeo 100 serão explicadas em detalhes.
Como mostrado no fluxo de operação da Figura 2 a qual mostra uma operação de codificação geral, uma imagem da câmera B é inserida pela unidade de entrada de imagem 101 no aparelho de codificação de vídeo 100 (ver etapa A1).
Aqui, uma imagem decodificada da câmera A, a qual tem o mesmo tempo de exibição (isto é, o mesmo tempo de formação de imagem) 20 que a imagem de entrada da câmera B, é inserida pela unidade de entrada de imagem de referência 102, e as informações de disparidade entre as imagens no tempo relevante são inseridas pela unidade de entrada de informações de disparidade 103.
Abaixo, a imagem de entrada da câmera B é denominada uma "imagem de câmera-alvo de codificação", e a imagem decodificada da câmera A é denominada uma "imagem de câmera de referência".
Com base na entrada de imagem de câmera de referência pela unidade de entrada de imagem de referência 102 e nas informações de disparidade inseridas pela unidade de entrada de informações de disparidade 103, uma imagem compensada em disparidade é gerada pelo gerador de imagem compensada em disparidade 104 (ver etapa A2).
A geração de imagem compensada em disparidade é executada em um modo tal que o valor de pixel de cada pixel sobre a imagem de câmera de referência é utilizado como o valor de pixel de um pixel correspondente sobre a imagem compensada em disparidade.
Neste processo, se uma pluralidade de pontos sobre a imagem 5 de câmera de referência corresponder ao mesmo ponto sobre a imagem compensada em disparidade, então relações de frente para trás entre os objetos de imagem formada são determinadas, e o valor de pixel de um ponto sobre um objeto de imagem formada mais próximo da câmera é utilizado. Por exemplo, se as câmeras têm eixos geométricos óticos paralelos, é pos10 sível determinar que quanto maior a disparidade, mais próximo o ponto relevante está da câmera.
Além disso, como as informações de disparidade indicam um ponto correspondente sobre a imagem de câmera-alvo de codificação para cada pixel sobre a imagem de câmera de referência, não existe nenhuma imagem compensada em disparidade para uma parte a qual está ausente na imagem de câmera de referência.
Pela utilização da imagem compensada em disparidade acima obtida, a imagem de câmera-alvo de codificação é codificada para cada bloco de processamento de codificação (ver etapas A3 até A13).
No fluxo corrente, "blk" é um índice para cada bloco, e maxBlk
indica o número total de blocos em uma imagem. Isto é, após blk ser inicializado para zero (ver etapa A3), o processo seguinte (etapas A4 até A11) é repetidamente executado enquanto blk é incrementado por 1 (ver etapa A12), até blk atingir o número total de blocos maxBlk (ver etapa A13).
Primeiro, é definido para o bloco blk que Org indica a imagem de
câmera-alvo de codificação e Syn indica a imagem compensada em disparidade (ver etapa A4). A diferença Org-Syn é computada para cada pixel que pertence ao bloco blk, de modo que uma imagem diferencial Sub é gerada (ver etapa A5).
Para cada parte de pixel que não tem uma imagem compensada
em disparidade, o valor de pixel de Syn é ajustado para 0 quando computando a imagem diferencial. A seguir, a unidade de ajuste de imagem de referência 106 ajusta as informações Ref1 as quais indicam uma referência utilizada quando sujeitando a imagem diferencial de cada pixel no bloco blk a uma codificação preditiva como abaixo mostrado (ver etapa A6).
Vpixe{0, 1.....maxPix-1}
Ref[pix]=0 Quando nenhuma imagem compensada em disparidade está armazenada em Syn[pix]
Ref[pix]=1 Quando uma imagem compensada em disparidade está armazenada em Syn[pix]
em que pix é um índice que indica cada pixel no bloco blk, maxPix indica o número total de pixels no bloco blk. Além disso, as informações de unidade de bloco ao qual "[pix]" está anexado indicam as informações do pixel na posição de índice de pixel pix.
Além disso, apesar de qualquer método poder ser utilizado para determinar se uma imagem compensada em disparidade é ajustada como Syn de modo a geFar Ref, um seu exemplo será abaixo mostrado.
Antes de gerar a imagem compensada em disparidade Syn, o valor de pixel de cada pixel é inicializado a um valor absolutamente inatingível (por exemplo, -1). A imagem compensada em disparidade Syn é gerada 20 pela atualização do valor de pixel em um modo tal que o valor de pixel de cada pixel na imagem de câmera de referência é determinado como o valor de pixel na posição correspondente sobre a imagem compensada em disparidade. Ref é então gerado em um modo tal que se Syn atribuído a cada pixel for -1, Ref é ajustado para 0, e se Syn tiver um valor outro que -1, Ref é 25 ajustado para 1. Consequentemente, o Ref alvo pode ser gerado em uma correspondência para Syn de um para um.
No método acima na computação da imagem diferencial Sub na etapa A5 acima descrita, em cada parte em que Syn é -1, o valor de pixel é considerado como 0 e Sub é ajustado para o valor de Org.
Em outro método, antes de computar a imagem diferencial Sub,
Ref é gerado de acordo com o método acima descrito ou similar; em cada parte em que Syn é -1, Syn é reescrito como 0; e então a imagem diferencial Sub é computada computando Org-Syn.
Aqui, para conveniência de explicações, o Syn total, o qual também inclui cada parte em que nenhuma imagem compensada em disparidade está presente e o valor de pixel é considerado como 0, é denominado a imagem compensada em disparidade.
A seguir, um modo de predição, o qual provê o custo de distorção de taxa mínimo quando sujeitando a imagem diferencial Sub à codificação preditiva pela utilização do Ref acima, é obtido e ajustado como PMODE (ver etapa A7).
Quando "sad" é a soma de valores absolutos de erros de predi
ção em um modo de predição, e "bin" é um valor predito da quantidade de código requerida para codificar as informações as quais indicam o modo de predição, o custo de distorção de taxa denominado "cost" é computado pela seguinte fórmula, em que λ é um multiplicador de Lagrange não identificado
e é um valor predeterminado.
cost = sad + λ. bin
Pela utilização do PMODE acima determinado, a imagem diferencial Sub do bloco blk é realmente sujeita à codificação preditiva (ver etapa A8)
A determinação de modo de predição e a codificação real são
executadas no codificador preditivo de imagem diferencial 105. O resultado de codificação inclui, não somente os dados codificados da imagem relevante, mas também os dados codificados de informações (por exemplo, PMODE) requeridos para a codificação.
O resultado de codificação é emitido do aparelho de codificação
de vídeo 100, e também decodificado no decodificador de imagem diferencial 110 (ver etapa A9).
Aqui, Dec indica a imagem decodificada da imagem diferencial Sub do bloco blk, e é armazenado na memória de imagem diferencial deco
dificada 108 de modo a utilizar Dec na predição intraquadro executada quando codificando outro bloco ou na predição interquadros executada quando codificando um quadro em outro tempo (ver etapa A10). Além disso, a imagem de câmera decodificada do bloco blk é gerada pela computação da soma de Dec e Syn1 e é armazenada na memória de imagem de câmera decodificada 107 (ver etapa A11).
A operação acima descrita é aplicada a cada bloco.
5 A Figura 3 mostra um fluxo de operação detalhado do processo
de determinação de modo de predição (etapa A7) executado no codificador preditivo de imagem diferencial 105.
No fluxo de operação, um custo de distorção de taxa denominado "cost" indicado pela fórmula seguinte é computado para cada modo de predição, e um modo de predição o qual provê o valor mínimo é determinado.
cost = SAD + À.code(pmode) em que SAD é a soma de diferenças absolutas para cada pixel entre a imagem predita e a imagem original; pmode indica um índice de modo de predi15 ção; e code(a) é uma função a qual retorna um valor predito da quantidade de código requerida para representar as informações sobre o modo de predição provido a.
Como mostrado no fluxo de operação, após o índice de modo de predição pmode ser inicializado para 0 (ver etapa B1), o seguinte processo 20 (etapas B2 até B16) é repetidamente executado enquanto pmode é incrementado por 1 (ver etapa B17), até pmode atingir o número "maxPmode" de modos de predição (ver etapa B18), por meio disto determinando um modo de predição o qual minimize "cost".
No processo seguinte, cada modo de predição é estimado utili25 zando um custo de distorção de taxa, em que maxCost é definido como o valor máximo o qual é inatingível como o valor estimado. Mais ainda, de modo a executar estimativas repetitivas, os melhores valores estimados nas condições individuais abaixo explicadas são respectivamente indicados por minCost, minCostl, e minCost2, e os índices de modo de predição atribuí30 dos a estes são respectivamente indicados por best_mode, best_mode1, e best_mode2.
As variáveis minCost e bestjnode representam o melhor valor estimado e o índice de modo de predição correspondente quando predizendo todos os pixels no bloco relevante; as variáveis minCostl e best_mode1 representam o melhor valor estimado e o índice de modo de predição correspondente quando predizendo somente os pixels cujo Ref correspondente 5 tem um valor de 0; e as variáveis minCost2 e best_mode2 representam o melhor valor estimado e o índice de modo de predição correspondente quando predizendo somente os pixels cujo Ref correspondente tem um valor de 1.
Após inicializar cada um de minCost, minCostl, e mínCost2 em maxCost (ver etapa B1), uma imagem predita para o modo de predição pmode é gerada para cada pixel (ver etapas B2 até B8).
Na geração de imagem predita, após o índice de pixel "pix" no bloco relevante ser inicializado para zero (ver etapa B2), o seguinte processo (etapa B3 até B6) é repetidamente executado enquanto pix é incrementado 15 por 1 (ver etapa B7), até pix atingir o número "maxPix" de pixels no bloco (ver etapa B8), por meio disto determinando um modo de predição o qual minimiza "cost".
Primeiro, de acordo com Ref[pix], é determinado se existe ou não uma imagem compensada em disparidade no pixel correspondente (ver etapa B3).
Se nenhuma imagem compensada em disparidade estiver presente, a chave de referência 109 é operada de modo que o codificador preditivo de imagem diferencial 105 refira à memória de imagem de câmera decodificada 107 (ver etapa B4). Em contraste, se existir uma imagem com25 pensada em disparidade, a chave de referência 109 é operada de modo que o codificador preditivo de imagem diferencial 105 refira à memória de imagem diferencial decodificada 108 (ver etapa B5).
Então, pela utilização da imagem de referência ajustada, um valor predito Pred[pix] para o pixel relevante é computado no modo de predição pmode (ver etapa B6).
Após a geração de imagem predita ser completada para todos os pixels no bloco, três tipos da soma de diferenças absolutas entre a imagem predita e a imagem original são computados pelas seguintes fórmulas.
SAD1 = Z|Sub[Pix]-Pred[Pix]|.(1-Ref[Pix])
SAD2 = E|Sub[Pix]-Pred[Pix]|.Ref[Pix]
SAD = SAD1 + SAD2 5 em que SAD1 indica a soma das diferenças absolutas para os pixels os quais cada um não tem uma imagem compensada em disparidade; SAD2 indica a soma das diferenças absolutas para os pixels os quais cada um tem uma imagem compensada em disparidade; e SAD indica a soma das diferenças absolutas para todos os pixels no bloco. Além disso, Σ indica compu10 tar a soma total para pix=0 até maxPix-1. Apesar das fórmulas acima empregarem operações de multiplicação, a computação da soma de diferenças absolutas pode ser implementada utilizando uma simples ramificação na condição porque os pixels para computar SAD1 e SAD2 são exclusivos um para o outro.
Pela utilização de SAD, SAD1 E SAD2 acima, e pmode, os cus
tos de distorção de taxa denominados cost, costl e cost2 são computados de acordo com a fórmula acima descrita (ver etapa B10).
Os resultados computados são respectivamente comparados com os melhores custos de distorção de taxa os quais já foram computados 20 (ver etapas B11, B13, e B15). Para cada caso, se o modo de predição pmode puder realizar um custo menor, a variável a qual indica o melhor modo de predição e o melhor valor de custo são atualizadas (ver etapas B12, B14, e B16).
Após a estimativa de todos os modos de predição ser completada, é determinado se diferentes modos de predição estão atribuídos a cada pixel que tem uma imagem compensada em disparidade e cada pixel que não tem compensação de disparidade, ou o mesmo modo de predição é atribuído a todos os pixels (ver etapas B19 a B21).
Primeiro, é determinado se bestjnode, best_mode1, e best_mode2 são todos os mesmos (ver etapa B19).
Se todos os elementos acima forem os mesmos, isto indica que um único modo pode ser utilizado no bloco, e assim bestjnode é armazenado como o modo de predição PMODE utilizado na codificação preditiva (ver etapa B22). A operação é então terminada.
Se pelo menos um dos três indicar um modo diferente, então a soma de minCostl, minCost2, e OHCost é comparada a minCost (ver etapa B20).
Aqui, a primeira (soma) indica o custo requerido quando diferentes modos são utilizados no bloco relevante, e OHCost representa um custo de extra em consideração que dois modos de predição são codificados.
Se a primeira prover um melhor custo, o conjunto de best_mode1, e best_mode2 é armazenado como PMODE (ver etapa B21). A operação é então terminada.
Se a última prover um melhor custo, best mode é armazenado como PMODE (ver etapa B22), e a operação é terminada.
Na presente modalidade, se um modo de predição é utilizado ou dois modos de predição são utilizados no bloco é selecionado.
No entanto, um modo de predição pode sempre ser utilizado. Em tal caso, somente "cost" é computado na etapa B10; as etapas B13 até B16 e B19 até B22 são omitidas; e PMODE pode ser utilizado ao invés de bestjnode.
Por outro lado, dois modos de predição podem sempre ser utili
zados. Em tal caso, a computação de SAD na etapa B9, a computação de Cost na etapa B10, e as etapas B11 até B12, B19 até B20, e B22 são desnecessárias; e se o resultado da determinação na etapa B18 for SIM, a operação prossegue para a etapa B21.
O modo de predição na presente modalidade indica como predi
zer o valor de pixel.
Como o método de predição, existe a predição intraquadro para predizer o valor de pixel utilizando um bloco periférico o qual pertence ao mesmo quadro que o presente bloco e já foi codificado e decodificado, e a 30 predição interquadros para predizer o valor dé pixel utilizando outro quadro o qual já foi codificado e decodificado, e os modos de predição acima descritos incluem ambos os métodos. Um vetor de movimento requerido na predição interquadros também funciona como um modo de predição. Além disso, qualquer método o qual possa predizer o valor de pixel utilizando dados os quais já foram codificados e decodificados pode funcionar como um modo de predição.
5 A Figura 4 mostra um aparelho de decodificação de vídeo 200
como uma modalidade da presente invenção.
O aparelho de decodificação de vídeo 200 inclui uma unidade de entrada de dados codificados 201 para inserir os dados codificados no aparelho; uma unidade de entrada de imagem de referência 202 para inserir uma imagem decodificada da câmera A no aparelho; uma unidade de entrada de informações de disparidade 203 para inserir as informações de disparidade, as quais indicam para qual posição sobre a imagem como o alvo de decodificação cada pixel na imagem decodificada da câmera A corresponde, no aparelho; um gerador de imagem compensada em disparidade 204 para gerar uma imagem compensada em disparidade na posição da câmera B; uma unidade de ajuste de imagem de referência 205 para atribuir um grupo de imagens de referência para cada pixel com base no estado da imagem compensada em disparidade; uma memória de imagem de câmera decodificada 206 para armazenar as imagens decodificadas (como um grupo de imagens de referência) de imagens obtidas pela câmera B; uma memória de imagem diferencial decodificada 207 para armazenar as imagens decodificadas (como outro grupo de imagens de referência) das imagens diferenciais; uma chave de referência 208 para trocar a memória de imagem de referência com base nas informações de ajuste sobre o grupo de imagens de referência; e um decodificador de imagem diferencial para decodificar os dados codificados inseridos.
As Figuras 5 e 6 são fluxogramas executados pelo aparelho de decodificação de vídeo 200 que tem a estrutura acima, e mostram um fluxo de operação para decodificar um quadro de dados codificados da câmera B. O fluxo de operação será abaixo explicado em detalhes.
Aqui, é assumido que um quadro da câmera A ao mesmo tempo em que o quadro de decodificação-alvo já foi decodificado, e as informações de disparidade relevantes também foram obtidas.
Primeiro, os dados codificados da câmera B são inseridos na unidade de entrada de dados codificados 201 (ver etapa C1). Aqui, uma imagem decodificada da câmera A, a qual tem o mesmo tempo de exibição que a imagem de entrada da câmera B, é inserida pela unidade de entrada de imagem de referência 202.
A seguir, uma imagem compensada em disparidade é gerada no gerador de imagem compensada em disparidade 204 com base na imagem decodificada da câmera A e nas informações de disparidade (ver etapa C2).
O processo nesta etapa é igual àquele executado na etapa A2 acima explicada na Figura 2.
Os dados codificados inseridos de cada bloco são decodificados utilizando a imagem compensada em disparidade, de modo que uma imagem decodificada da câmera B é obtida (ver etapas C3 até C9).
Neste processo, "blk" é um índice para cada bloco, e maxBlk
indica o número total de blocos em uma imagem. Após blk ser inicializado para zero (ver etapa C3), o processo seguinte (etapas C4 até C7) é repetidamente executado enquanto blk é incrementado por 1 (ver etapa C12), até blk atingir o número total de blocos maxBlk (ver etapa C9).
Primeiro, a unidade de ajuste de imagem de referência 205 gera
as informações Ref para cada pixel no bloco blk de acordo com um método similar àquele na etapa A6 acima descrita, em que Ref indica uma referência utilizada quando a imagem diferencial foi sujeita a uma codificação preditiva (ver etapa C4).
Os dados codificados de entrada são decodificados no decodifi
cador de imagem diferencial 209 pela utilização das informações acima, de modo que cada valor decodificado Dec da imagem diferencial seja obtido (ver etapa C5).
O valor decodificado Dec é diretamente utilizado para decodificar
um quadro em outro tempo ou outro bloco, e é assim armazenado na memória de imagem diferencial decodificada 207. (ver etapa C6).
Além disso, uma imagem decodificada da imagem obtida pela câmera B é adquirida pela computação da soma de Dec e da imagem compensada em disparidade Syn para cada pixel no bloco blk.
A imagem decodificada adquirida é emitida do aparelho de decodificação de vídeo 200, e é simultaneamente armazenada na memória de imagem de câmera decodificada 206. (ver etapa C7).
A Figura 6 mostra um fluxo de operação detalhado do processo (na etapa C5) de decodificação da imagem diferencial para cada bloco, o qual é executado no decodificador de imagem diferencial 209.
Primeiro, as informações de modo de predição são decodifica10 das dos dados codificados, e são ajustadas como pmode[0] (ver etapa D1). Neste processo, se outro item de informações de modo de predição for incluído nos dados codificados (ver etapa D2), o item é também decodificado e ajustado como pmode[1] (ver etapa D3). Se nenhum outro item de informações de modo de predição estiver incluído (etapa D2), pmode[1] é ajustado 15 para o mesmo valor de pmode[0] (ver etapa D4).
A seguir, o resíduo de predição para cada pixel, o qual está incluído nos dados codificados, é decodificado e ajustado como Dres (ver etapa D5).
A operação após D5 é executada para cada pixel no bloco. Isto é, após o índice de pixel "pix" ser inicializado para zero (ver etapa D6), o seguinte processo (etapas D7 até D11) é repetidamente executado enquanto pix é incrementado por 1 (ver etapa D12), até pix atingir o número "maxPix'’ de pixels no bloco (ver etapa D13).
Na operação aplicada a cada pixel, primeiro, a chave de referência 208 é operada de acordo com o valor de Ref[pix] (ver etapa D7), de modo que o armazenamento temporário de referência seja determinado para a memória de imagem de câmera decodificada 206 (ver etapa D8) ou a memória de imagem diferencial decodificada 207 (ver etapa D9).
A seguir, o valor Pred de pixel pix é predito no modo de predição pmode[Ref[pix]] (ver etapa D10).
Então, o valor decodificado Dec[pix] da imagem diferencial é obtido pela soma de Dres[pix] e Pred (ver etapa D11). Na presente modalidade, as informações de disparidade, as quais indicam para qual posição sobre a imagem da câmera B cada pixel sobre a imagem de câmera de referência corresponde, são obtidas fora do aparelho de codificação de vídeo 100 ou do aparelho de decodificação de 5 vídeo 200, e as informações são codificadas, transmitidas, e decodificadas.
No entanto, as informações de disparidade podem ser obtidas e codificadas no aparelho de codificação de vídeo 100, e as informações codificadas podem ser emitidas juntamente com os dados codificados da imagem diferencial. Similarmente, as informações de disparidade podem ser 10 recebidas no aparelho de decodificação de vídeo 200, e as informações recebidas podem ser decodificadas e utilizadas.
Além disso, as informações, as quais não indicam diretamente para qual posição sobre a imagem da câmera B cada pixel sobre a imagem de câmera de referência corresponde, mas provê a relação correspondente 15 acima descrita devido a uma conversão aplicada nas informações, podem ser inseridas e convertidas para informações de disparidade (as quais indicam a relação correspondente) no aparelho de codificação de vídeo 100 e no aparelho de decodificação de vídeo 200.
Como um exemplo de tais informações, existe as informações 20 que consistem em informações tridimensionais de um objeto de imagem formada e parâmetros de câmera. As informações tridimensionais podem ser coordenadas tridimensionais de cada parte do objeto de imagem formada, ou podem indicar uma distância do objeto de imagem formada para a câmera relevante.
Além disso, nas modalidades, a troca do grupo de imagens de
referência como o alvo de referência pode ser executada para cada pixel na imagem de câmera-alvo de codificação. No entanto, a troca pode ser executada para uma unidade de seção específica a qual inclui uma pluralidade de pixels. Por exemplo, quando a troca pode ser executada para cada bloco 30 que tem um tamanho específico, um alvo de referência adequado para um número de pixels no bloco pode ser selecionado, ou o grupo de imagens de câmera decodificado pode ser selecionado se o bloco incluir pelo menos um pixel cujo valor de pixel da imagem compensada em disparidade for ineficaz. Uma seleção baseada em uma unidade de seção apropriada pode reduzir o tempo de processamento.
Os processos de codificação e de decodificação de vídeo como 5 acima descritos podem ser implementados utilizando um recurso de hardware ou de software, e podem também ser implementados utilizando um computador e um programa de software. O programa de computador pode ser provido armazenando-o em um meio de armazenamento legível por computador, ou por meio de uma rede.
APLICABILIDADE INDUSTRIAL
De acordo com a presente invenção, quando sujeitando uma imagem diferencial obtida por compensação de disparidade para codificação preditiva, nenhuma nova informação adicional é utilizada, e uma imagem de referência apropriada é utilizada através de uma operação de troca para ca15 da pixel. Portanto, o resíduo para o alvo de codificação pode ser reduzido sem aumentar a quantidade de código requerida para as informações adicionais, por meio disto implementando uma codificação de vídeo eficiente da imagem de vídeo de múltiplos pontos de vista inteira.

Claims (16)

1. Método de codificação de vídeo para codificar uma imagem de vídeo de múltiplos pontos de vista pela utilização de compensação de disparidade, o método compreendendo as etapas de: gerar, com base nas informações de disparidade entre uma imagem de câmera de referência, a qual é obtida pela decodificação de uma imagem de câmera já codificada, e uma imagem de câmera-alvo de codificação que corresponde à imagem de câmera de referência, uma imagem compensada em disparidade para a imagem de câmera-alvo de codificação; ajustar as informações de alvo de referência, as quais indicam um grupo de imagens de referência como o alvo de referência, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de codificação de acordo com um estado da imagem compensada em disparidade; selecionar, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de codificação, um de um grupo de imagens diferenciais decodificadas, o qual é obtido pela decodificação de uma imagem diferencial entre a imagem de câmera já codificada e a imagem compensada em disparidade, e um grupo de imagens de câmera decodificadas, o qual é obtido pela decodificação da imagem de câmera já codificada como o alvo de referência com base nas informações de alvo de referência ajustadas; codificar preditivamente uma imagem diferencial entre a imagem de câmera-alvo de codificação e a imagem compensada em disparidade referindo a uma imagem de referência incluída no grupo de imagens selecionado como o alvo de referência; armazenar uma imagem diferencial decodificada, a qual é obtida pela decodificação da imagem diferencial codificada, como um constituinte do grupo de imagens diferenciais decodificadas; e armazenar uma imagem de câmera decodificada, a qual é obtida pela decodificação da imagem de câmera já codificada com base na imagem diferencial decodificada, como um constituinte do grupo de imagens de câmera decodificadas,
2. Método de codificação de vídeo de acordo com a reivindicação 1, em que: a etapa de codificar preditivamente a imagem diferencial inclui computar um custo de codificação que ocorre quando cada um dos métodos de predição predeterminados é aplicado a cada bloco de processamento de codificação o qual pertence à imagem diferencial e consiste em uma pluralidade de pixels, em que a predição de vídeo de um bloco de processamento de codificação é executada utilizando um único método de predição o qual provê o custo de codificação mínimo.
3. Método de codificação de vídeo de acordo com a reivindicação 1, em que: a etapa de codificar preditivamente a imagem diferencial inclui computar um custo de codificação que ocorre quando cada um dos métodos de predição predeterminados é aplicado a cada grupo de pixels em cada bloco de processamento de codificação o qual pertence à imagem diferencial e consiste em uma pluralidade de pixels, em que cada grupo de pixels tem uma imagem de referência individual, e a codificação é executada enquanto selecionando se a predição de vídeo de um bloco de processamento de codificação é executada utilizando um único método de predição ou uma pluralidade de métodos de predição, de acordo com os custos computados.
4. Método de codificação de vídeo de acordo com a reivindicação 1, em que a unidade de seção predeterminada é um pixel.
5. Método de decodificação de vídeo para decodificar uma imagem de vídeo de múltiplos pontos de vista pela utilização de compensação de disparidade, o método compreendendo as etapas de: gerar, com base nas informações de disparidade entre uma imagem de câmera de referência já decodificada e uma imagem de câmera-alvo de decodificação que corresponde à imagem de câmera de referência, uma imagem compensada em disparidade para a imagem de câmera-alvo de decodificação; ajustar as informações de alvo de referência, as quais indicam um grupo de imagens de referência como o alvo de referência, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de decodificação de acordo com um estado da imagem compensada em disparidade; selecionar, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de decodificação, um de um grupo de imagens diferenciais decodificadas que tem a imagem diferencial entre a imagem de câmera já decodificada e a imagem compensada em disparidade, e um grupo de imagens de câmera decodificadas que tem a imagem de câmera já decodificada, como o alvo de referência com base nas informações de alvo de referência ajustadas; decodificar uma imagem diferencial entre a imagem de câmeraalvo de decodificação e a imagem compensada em disparidade referindo a uma imagem de referência incluída no grupo de imagens selecionado como o alvo de referência, com base em um resíduo de predição de cada pixel, o qual é obtido pela decodificação de dados codificados de entrada; armazenar a imagem diferencial decodificada como um constituinte do grupo de imagens diferenciais decodificadas; e adicionar a imagem diferencial decodificada à imagem compensada em disparidade, emitindo a soma destas como uma imagem de câmera decodificada da imagem de vídeo de múltiplos pontos de vista, e armazenar a imagem de câmera decodificada como um constituinte do grupo de imagens de câmera decodificadas.
6. Método de decodificação de vídeo de acordo com a reivindicação 5, em que: a etapa de decodificar a imagem diferencial inclui decodificar a imagem diferencial em um modo tal que um único método de predição designado é aplicado a cada bloco de processamento de decodificação o qual pertence à imagem de câmera-alvo de decodificação e consiste em uma pluralidade de pixels.
7. Método de decodificação de vídeo de acordo com a reivindicação 5, em que: a etapa de decodificar a imagem diferencial inclui decodificar a imagem diferencial enquanto selecionando para cada bloco de processamento de decodificação o qual pertence à imagem de câmera-alvo de decodificação e consiste em uma pluralidade de pixels, se um único método de predição designado ou uma pluralidade de métodos de predição designados são utilizados.
8. Método de decodificação de vídeo de acordo com a reivindicação 5, em que a unidade de seção predeterminada é um pixel.
9. Aparelho de codificação de vídeo para codificar uma imagem de vídeo de múltiplos pontos de vista pela utilização de compensação de disparidade, o aparelho compreendendo: um dispositivo para gerar, com base nas informações de disparidade entre uma imagem de câmera de referência, a qual é obtida pela decodificação de uma imagem de câmera já codificada, e uma imagem de câmera-alvo de codificação que corresponde à imagem de câmera de referência, uma imagem compensada em disparidade para a imagem de câmera-alvo decodificação; um dispositivo para ajustar as informações de alvo de referência, as quais indicam um grupo de imagens de referência como o alvo de referência, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de codificação de acordo com um estado da imagem compensada em disparidade; um dispositivo para selecionar, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de codificação, um de um grupo de imagens diferenciais decodificadas, o qual é obtido pela decodificação de uma imagem diferencial entre a imagem de câmera já codificada e a imagem compensada em disparidade, e um grupo de imagens de câmera decodificadas, o qual é obtido pela decodificação da imagem de câmera já codificada como o alvo de referência com base nas informações de alvo de referência ajustadas; um dispositivo para codificar preditivamente uma imagem diferencial entre a imagem de câmera-alvo de codificação e a imagem compensada em disparidade referindo a uma imagem de referência incluída no grupo de imagens selecionado como o alvo de referência; um dispositivo para armazenar uma imagem diferencial decodificada, a qual é obtida pela decodificação da imagem diferencial codificada, como um constituinte do grupo de imagens diferenciais decodificadas; e um dispositivo para armazenar uma imagem de câmera decodificada, a qual é obtida pela decodificação da imagem de câmera já codificada com base na imagem diferencial decodificada, como um constituinte do grupo de imagens de câmera decodificadas.
10. Aparelho de codificação de vídeo de acordo com a reivindicação 9, em que a unidade de seção predeterminada é um pixel.
11. Aparelho de decodificação de vídeo para decodificar uma imagem de vídeo de múltiplos pontos de vista pela utilização de compensação de disparidade, o método compreendendo as etapas de: um dispositivo para gerar, com base nas informações de disparidade entre uma imagem de câmera de referência já decodificada e uma imagem de câmera-alvo de decodificação que corresponde à imagem de câmera de referência, uma imagem compensada em disparidade para a imagem de câmera-alvo de decodificação; um dispositivo para ajustar as informações de alvo de referência, as quais indicam um grupo de imagens de referência como o alvo de referência, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de decodificação de acordo com um estado da imagem compensada em disparidade; um dispositivo para selecionar, para cada unidade de seção predeterminada sobre a imagem de câmera-alvo de decodificação, um de um grupo de imagens diferenciais decodificadas que tem a imagem diferencial entre a imagem de câmera já decodificada e a imagem compensada em disparidade, e um grupo de imagens de câmera decodificadas que tem a imagem de câmera já decodificada, como o alvo de referência com base nas informações de alvo de referência ajustadas; um dispositivo para decodificar uma imagem diferencial entre a imagem de câmera-alvo de decodificação e a imagem compensada em disparidade referindo a uma imagem de referência incluída no grupo de imagens selecionado como o alvo de referência, com base em um resíduo de predição de cada pixel, o qual é obtido pela decodificação de dados codificados de entrada; um dispositivo para armazenar a imagem diferencial decodificada como um constituinte do grupo de imagens diferenciais decodificadas; e um dispositivo para adicionar a imagem diferencial decodificada à imagem compensada em disparidade, emitindo a soma destas como uma imagem de câmera decodificada da imagem de vídeo de múltiplos pontos de vista, e armazenar a imagem de câmera decodificada como um constituinte do grupo de imagens de câmera decodificadas.
12. Aparelho de decodificação de vídeo de acordo com a reivindicação 11, em que a unidade de seção predeterminada é um pixel.
13. Programa de codificação de vídeo pelo qual um computador executa um processo para implementar o método de codificação de vídeo como definido na reivindicação 1.
14. Programa de decodific-ação de vídeo pelo qual um computador executa um processo para implementar o método de decodificação de vídeo como definido na reivindicação 5.
15. Meio de armazenamento legível por computador o qual armazena um programa de codificação de vídeo pelo qual um computador executa um processo para implementar o método de codificação de vídeo como definido na reivindicação 1.
16. Meio de armazenamento legível por computador o qual armazena um programa de decodificação de vídeo pelo qual um computador executa um processo para implementar o método de decodificação de vídeo como definido na reivindicação 1.
BRPI0721077-9A2A 2006-12-28 2007-12-26 Método de codificação e método de decodificação de vídeo, aparelhos para os mesmos, programas para os mesmos, e meio de armazenamento o qual armazena os programas BRPI0721077A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006-353628 2006-12-28
JP2006353628 2006-12-28
PCT/JP2007/074941 WO2008081810A1 (ja) 2006-12-28 2007-12-26 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体

Publications (1)

Publication Number Publication Date
BRPI0721077A2 true BRPI0721077A2 (pt) 2014-07-01

Family

ID=39588493

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0721077-9A2A BRPI0721077A2 (pt) 2006-12-28 2007-12-26 Método de codificação e método de decodificação de vídeo, aparelhos para os mesmos, programas para os mesmos, e meio de armazenamento o qual armazena os programas

Country Status (11)

Country Link
US (1) US9066096B2 (pt)
EP (1) EP2099226B1 (pt)
JP (1) JP4999864B2 (pt)
KR (1) KR101059178B1 (pt)
CN (1) CN101563930B (pt)
BR (1) BRPI0721077A2 (pt)
CA (1) CA2672924C (pt)
ES (1) ES2535314T3 (pt)
RU (1) RU2446618C2 (pt)
TW (1) TWI351883B (pt)
WO (1) WO2008081810A1 (pt)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5614902B2 (ja) 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3dvのレイヤ間依存関係情報
KR101792967B1 (ko) 2010-04-13 2017-11-02 지이 비디오 컴프레션, 엘엘씨 샘플 배열 멀티트리 세부분할에서 계승
DK2947884T3 (da) 2010-04-13 2019-10-28 Ge Video Compression Llc Videokodning ved anvendelse af multitræsunderinddeling af billeder
CN106303523B (zh) 2010-04-13 2020-09-11 Ge视频压缩有限责任公司 解码器及方法、编码方法
BR122020007922B1 (pt) 2010-04-13 2021-08-31 Ge Video Compression, Llc Predição interplano
US9485492B2 (en) 2010-09-14 2016-11-01 Thomson Licensing Llc Compression methods and apparatus for occlusion data
JP5281632B2 (ja) * 2010-12-06 2013-09-04 日本電信電話株式会社 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
WO2012097376A1 (en) 2011-01-14 2012-07-19 General Instrument Corporation Spatial block merge mode
US9445092B2 (en) * 2011-03-18 2016-09-13 Sony Corporation Image processing apparatus, image processing method, and program
CN103493493A (zh) * 2011-04-28 2014-01-01 索尼公司 编码装置和编码方法以及解码装置和解码方法
JP5649523B2 (ja) * 2011-06-27 2015-01-07 日本電信電話株式会社 映像符号化方法,装置,映像復号方法,装置およびそれらのプログラム
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
IN2014KN00990A (pt) 2011-11-11 2015-10-09 Fraunhofer Ges Forschung
WO2013072484A1 (en) 2011-11-18 2013-05-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with efficient residual handling
US9531990B1 (en) 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US8737824B1 (en) * 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
KR101966920B1 (ko) * 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
KR102445274B1 (ko) 2012-10-01 2022-09-20 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9544566B2 (en) 2012-12-14 2017-01-10 Qualcomm Incorporated Disparity vector derivation
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
JP2014192702A (ja) * 2013-03-27 2014-10-06 National Institute Of Information & Communication Technology 複数の入力画像をエンコーディングする方法、プログラムおよび装置
JP5926451B2 (ja) * 2013-04-11 2016-05-25 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
KR102114346B1 (ko) * 2013-08-30 2020-05-22 삼성전자주식회사 스테레오 컨버전스 제어 방법 및 이를 적용한 스테레오 이미지 프로세서
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US11323733B2 (en) * 2014-05-23 2022-05-03 Qualcomm Incorporated Predictor palette initialization in palette-based video coding
US10382749B2 (en) * 2014-05-23 2019-08-13 Qualcomm Incorporated Coding run values based on palette index in palette-based video coding
US10291940B2 (en) 2014-05-23 2019-05-14 Qualcomm Incorporated Coding runs with escape in palette-based video coding
JP7168848B2 (ja) * 2018-11-21 2022-11-10 日本電信電話株式会社 評価装置、評価方法、及びプログラム。
US20250227279A1 (en) * 2024-01-08 2025-07-10 Qualcomm Incorporated Inter-eye prediction models for xr

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3086585B2 (ja) * 1994-02-25 2000-09-11 三洋電機株式会社 ステレオ画像符号化装置
US5790086A (en) 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
JP3693407B2 (ja) 1996-04-04 2005-09-07 シャープ株式会社 多視点画像符号化装置および復号装置
US6173087B1 (en) * 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
JPH10191393A (ja) 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JPH10191394A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JP4608136B2 (ja) 2001-06-22 2011-01-05 オリンパス株式会社 動きベクトル及び視差ベクトル検出装置
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
US7379496B2 (en) * 2002-09-04 2008-05-27 Microsoft Corporation Multi-resolution video coding and decoding
CN100414566C (zh) * 2003-06-19 2008-08-27 邓兴峰 平面图像全景重建立体图像的方法
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
US7728878B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
EP1835747B1 (en) * 2005-01-07 2019-05-08 Nippon Telegraph And Telephone Corporation Video encoding method and device, video decoding method and device, program thereof, and recording medium containing the program
KR100728009B1 (ko) * 2005-08-22 2007-06-13 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding

Also Published As

Publication number Publication date
RU2446618C2 (ru) 2012-03-27
WO2008081810A1 (ja) 2008-07-10
CN101563930B (zh) 2011-05-25
EP2099226A1 (en) 2009-09-09
US20100034260A1 (en) 2010-02-11
RU2009122983A (ru) 2010-12-27
CA2672924C (en) 2014-07-22
TW200910977A (en) 2009-03-01
CN101563930A (zh) 2009-10-21
CA2672924A1 (en) 2008-07-10
US9066096B2 (en) 2015-06-23
TWI351883B (en) 2011-11-01
ES2535314T3 (es) 2015-05-08
JPWO2008081810A1 (ja) 2010-04-30
KR101059178B1 (ko) 2011-08-25
EP2099226A4 (en) 2012-02-22
EP2099226B1 (en) 2015-01-21
JP4999864B2 (ja) 2012-08-15
KR20090091174A (ko) 2009-08-26

Similar Documents

Publication Publication Date Title
BRPI0721077A2 (pt) Método de codificação e método de decodificação de vídeo, aparelhos para os mesmos, programas para os mesmos, e meio de armazenamento o qual armazena os programas
CN110741640B (zh) 用于视频代码化中的运动补偿预测的光流估计
JP4999854B2 (ja) 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
CA2692250C (en) Video encoding and decoding methods using residual prediction, and corresponding apparatuses
BR112019027821A2 (pt) emparelhamento de gabarito com base em reconstrução parcial para derivação de vetor de movimento
JP4414379B2 (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
CN108141606B (zh) 用于全局运动估计和补偿的方法和系统
BR112015030508B1 (pt) Dispositivos e métodos de codificação de imagem e de decodificação de imagem
JP6232076B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
BRPI0714233A2 (pt) mÉtodos e aparelho para filtragem de referÊncia adaptativa
KR20090083290A (ko) 어파인 변환 기반의 움직임 보상을 이용한 비디오 부호화 및 복호화 방법 및 장치
WO2009084340A1 (ja) 動画像符号化装置、および、動画像復号装置
US20130243085A1 (en) Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
WO2011013253A1 (ja) 幾何変換動き補償予測を用いる予測信号生成装置、動画像符号化装置及び動画像復号化装置
BRPI0706214A2 (pt) método de codificação e decodificação de vìdeo, aparelhos para os mesmos, programas para os mesmos e meios de armazenamento para armazenar os programas
US20150365698A1 (en) Method and Apparatus for Prediction Value Derivation in Intra Coding
JP5219199B2 (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
US20160037172A1 (en) Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP2010273110A (ja) 画像符号化装置および画像符号化方法
JP4851563B2 (ja) 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2014156647A1 (ja) 複数の入力画像をエンコーディングする方法、プログラムを格納する記憶媒体および装置
CN118077203A (zh) 具有明确信示的扩展旋转的经扭曲的运动补偿
JP5531282B2 (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 9A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]
B15K Others concerning applications: alteration of classification

Ipc: H04N 19/103 (2014.01), H04N 19/146 (2014.01), H04N