[go: up one dir, main page]

BRPI0903881B1 - Dispositivo de processamento de informação, método de processamento de informação, e, meio de armazenagem armazenando um programa de computador - Google Patents

Dispositivo de processamento de informação, método de processamento de informação, e, meio de armazenagem armazenando um programa de computador Download PDF

Info

Publication number
BRPI0903881B1
BRPI0903881B1 BRPI0903881-7A BRPI0903881A BRPI0903881B1 BR PI0903881 B1 BRPI0903881 B1 BR PI0903881B1 BR PI0903881 A BRPI0903881 A BR PI0903881A BR PI0903881 B1 BRPI0903881 B1 BR PI0903881B1
Authority
BR
Brazil
Prior art keywords
image
receiving party
call
information processing
video
Prior art date
Application number
BRPI0903881-7A
Other languages
English (en)
Inventor
Shuichi Takizawa
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of BRPI0903881A2 publication Critical patent/BRPI0903881A2/pt
Publication of BRPI0903881B1 publication Critical patent/BRPI0903881B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/57Arrangements for indicating or recording the number of the calling subscriber at the called subscriber's set
    • H04M1/575Means for retrieving and displaying personal data about calling party
    • H04M1/576Means for retrieving and displaying personal data about calling party associated with a pictorial or graphical representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/27475Methods of retrieving data using interactive graphical means or pictorial representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

dispositivo de processamento de informação, metodo de processamento de informação, e, meio de armazenagem armazenando um programa de computador. é provido um dispositivo de processamento de informação, incluindo uma porção de gravação de informação de receptora que grava informação de parte receptora, uma porção de gravação de imagem que grava imagens da parte receptora, capturadas no lado da parte receptora durante uma chamada, uma porção de extração de imagem que extrai uma imagem em um ponto predeterminado no tempo a partir das imagens gravadas na porção de gravação de imagem, e uma porção de registro que, após a chamada ser terminada, associa a imagem extraída pela porção de extração de imagem à informação de parte receptora, e registra a imagem associada na porção de gravação de imagem de parte receptora.

Description

“DISPOSITIVO DE PROCESSAMENTO DE INFORMAÇÃO, MÉTODO DE PROCESSAMENTO DE INFORMAÇÃO, E, MEIO DE ARMAZENAGEM ARMAZENANDO UM PROGRAMA DE COMPUTADOR” FUNDAMENTOS DA INVENÇÃO
Campo da Invenção
A presente invenção relaciona-se a um dispositivo de processamento de informação, um método de processamento de informação e um meio de armazenagem armazenando um programa de computador. Mais especificamente, a presente invenção relaciona-se a um dispositivo de processamento de informação, um método de processamento de informação e um meio de armazenagem armazenando um programa de computador que possui funções de vídeo fone.
Descrição da Técnica Relacionada
Alguns telefones possuem uma função para exibir uma imagem de uma parte receptora em uma tela (uma função de vídeo fone) com base na informação a partir da parte receptora. Tais telefones usam mutuamente um dispositivo de geração de imagem compacto, para obter vídeo de uma parte chamadora e o vídeo é transmitido juntamente com áudio da parte chamadora para a parte receptora, obtendo então funções de vídeo fone.
Alguns destes telefones são providos de uma função de livro de endereço que armazena informação, tal como um nome, um número de telefone e um endereço de correio eletrônico, etc., em correspondência um com o outro (informação de livro de endereço). Ainda mais, recentemente, registrando e armazenando imagens em informação de livro de endereço individual, é agora possível exibir imagens como informação de livro de endereço. Um usuário utilizando um telefone com funções de vídeo fone pode colocar uma chamada telefônica a uma parte receptora, a partir de um livro de endereço, verificando informação registrada no livro de endereço.
SUMÁRIO DA INVENÇÃO
Entretanto, na técnica conhecida, é difícil registrar uma imagem na informação de livro de endereço individual, sem armazenar a imagem antecipadamente no telefone. Ainda mais, para registrar um vídeo na informação de livro de endereço individual é necessário editar o vídeo em um dispositivo diferente do telefone.
À luz do precedente, é desejável prover um dispositivo de processamento de informação novo e melhorado, método de processamento de informação e meio de armazenagem armazenando um programa de computador que permite o registro fácil de uma imagem em um livro de endereço, armazenando um vídeo que é transmitido de uma parte receptor, durante uma chamada usando as funções de vídeo fone e registrando após a chamada ser finalizada, uma imagem na informação de livro de endereço usando o vídeo armazenado.
De acordo com uma realização da presente invenção, é provido um dispositivo de processamento de informação incluindo uma porção de gravação de informação de receptor que grava informação da parte receptora, uma porção de gravação de imagem que grava imagens da parte receptora obtidas no lado da parte receptora durante uma chamada, uma porção de extração de imagem que extrai uma imagem em um ponto predeterminado no tempo, a partir das imagens gravadas na porção de gravação de imagem, e uma porção de registro que, após a chamada ser terminada, associa a imagem extraída pela porção de extração de imagem com a informação de parte receptora e registra a imagem associada na porção de gravação de informação de parte receptora.
De acordo com tal configuração, uma porção de gravação de informação de receptor grava informação de parte receptora, uma porção de gravação de imagem grava imagens da parte receptora obtidas no lado da parte receptora durante uma chamada, uma porção de extração de imagem extrai uma imagem em um ponto predeterminado no tempo, a partir das imagens gravadas na porção de gravação de imagem, uma porção de registro que, após a chamada ser terminada, associa a imagem extraída pela porção de extração de imagem à informação de parte receptora e registra a imagem associada na porção de gravação de informação de parte receptora. Como um resultado, o dispositivo de processamento de informação permite o fácil registro de uma imagem em um livro de endereço, armazenando em vídeo que é transmitido de um parte receptora e registrando, após a chamada ser terminada, uma imagem na porção de gravação de informação de receptora, usando o vídeo armazenado.
A porção de extração de imagem pode extrair uma imagem parada. E a porção de extração de imagem pode extrair, em um ponto no tempo no qual há uma instrução de um usuário, uma imagem parada a partir das imagens gravadas na porção de gravação de imagem. E a porção de extração de imagem pode extrair, em um certo intervalo de tempo, uma imagem parada a partir das imagens gravadas na porção de gravação de imagem.
A porção de extração de imagem pode extrair como uma imagem parada, a partir das imagens gravadas na porção de gravação de imagem, um quadro que inclui uma face.
A porção de extração de imagem pode detectar um grau de modificação entre quadros das imagens gravadas na porção de gravação de imagem, e extrai como uma imagem parada um quadro com um baixo grau de modificação.
A porção de extração de imagem pode extrair um vídeo. E a porção de extração de imagem pode extrair, em um ponto no tempo no qual há uma instrução de um usuário, um vídeo a partir das imagens gravadas na porção de gravação de imagem.
A porção de extração de imagem pode extrair, como um vídeo, a partir das imagens gravadas na porção de gravação de imagem, um quadro que inclui uma face.
A porção de extração de imagem pode detectar um grau de modificação entre quadros das imagens gravadas na porção de gravação de imagem, e extrai, como um vídeo, quadros com um baixo graus de modificação.
O dispositivo de processamento de informação inclui adicionalmente uma porção de gravação de áudio que grava áudio durante uma chamada com uma parte receptora. A porção de extração de imagem pode extrair, como um vídeo, quadros em um ponto no tempo no qual um volume de áudio gravado na porção de gravação de áudio é mais alto que um volume em um outro ponto no tempo.
O dispositivo de processamento de informação inclui adicionalmente uma porção de gravação de áudio que grava áudio de uma parte receptora, durante uma chamada, e uma porção de extração de áudio que extrai áudio em um ponto no tempo predeterminado, a partir do áudio gravado na porção de gravação de áudio. Depois da chamada ser terminada, a porção de registro pode registrar a imagem extraída pela porção de extração de imagem e o áudio extraído pela porção de extração de áudio em um livro de endereço.
De acordo com uma outra realização da presente invenção, é provido um método de processamento de informação, incluindo as etapas de gravar imagens de uma parte receptora, obtidas no lado da parte receptora durante uma chamada, extrair uma imagem em um ponto no tempo predeterminado, a partir das imagens gravadas na etapa de gravação de imagem, e após a chamada ser terminada, associar a imagem extraída na etapa de extração de imagem à informação de parte receptora e registrar a imagem associada em uma porção de gravação de informação de parte receptora que grava a informação de parte receptora.
De acordo com uma outra realização da presente invenção, é provido um meio de armazenagem armazenando um programa de computador que inclui instruções que comandam um computador para executar as etapas de gravar imagens de uma parte receptora obtidas nas imagens gravadas na etapa de gravação de imagem, e adicionalmente a chamada é terminada, associando a imagem extraída na etapa de extração de imagem à informação de parte receptora e registrando a imagem associada em uma porção de gravação de informação de parte receptora, que grava a informação de parte receptora.
Conforme descrito acima, de acordo com a presente invenção, armazenando vídeo transmitido a partir de uma parte receptora durante uma chamada usando funções de vídeo fone, e registrando vídeo na informação de livro de endereço usando o vídeo armazenado após a chamada ser terminada, um novo e melhorado dispositivo de processamento de informação, método de processamento de informação e meio de armazenagem armazenando um programa de computador, podem ser providas, as quais permitem o registro fácil de imagens em um livro de endereço.
BREVE DESCRIÇÃO DOS DESENHOS
Figura 1 é um diagrama explicativo ilustrando a configuração de um sistema de vídeo fone usando um telefone com funções de vídeo fone, de acordo com uma realização da presente invenção;
Figura 2 é um diagrama explicativo ilustrando a configuração de hardware de um vídeo fone 100 de acordo com a realização da presente invenção;
Figura 3 é um diagrama explicativo ilustrando a configuração funcional do vídeo fone 100 de acordo com a realização da presente invenção;
Figura 4 é um fluxograma ilustrando a operação do vídeo fone 100 de acordo com a realização da presente invenção;
Figura 5 é um diagrama explicativo mostrando um exemplo de uma tela de livro de endereço;
Figura 6 é um diagrama explicativo mostrando um exemplo de uma tela de chamada exibida em um visor 101;
Figura 7 é um diagrama explicativo mostrando um exemplo de uma tela de livro de endereço após terminar uma chamada;
Figura 8 é um fluxograma ilustrando a operação do vídeo fone 100 de acordo com uma realização da presente invenção.
DESCRIÇÃO DETALHADA DA INVENÇÃO
Posteriormente, realizações preferidas serão descritas em detalhe com referência aos desenhos anexos. Notar que, nesta especificação e desenhos anexos, elementos estruturais que possuem substancialmente a mesma função e estrutura são denotados pelos mesmos numerais de referência, e a explicação repetida destes elementos estruturais é omitida.
A realização preferida para praticar a presente invenção será explicada na ordem mostrada abaixo.
1. Configuração do sistema de vídeo fone de acordo com realização da presente invenção.
2. Configuração de hardware de vídeo fone de acordo com realização da presente invenção.
3. Configuração funcional do vídeo fone de acordo com realização da presente invenção.
4. Operação de vídeo fone de acordo com realização da presente invenção.
5. Exemplo modificado.
1. Configuração do sistema de vídeo fone de acordo com realização da presente invenção
Primeiramente, a configuração do sistema de vídeo fone usando um telefone com funções de vídeo fone de acordo com uma realização da presente invenção, será explicado. Figura 1 é um diagrama explicativo ilustrando a configuração do sistema de vídeo fone usando um telefone com funções de vídeo fone de acordo com a realização da presente invenção. Posteriormente, a configuração do sistema de vídeo fone usando o telefone com funções de vídeo fone de acordo com a realização da presente invenção será explicado com referência à Figura 1.
Conforme mostrado na Figura 1, em um sistema de vídeo fone 1 de acordo com a realização da presente invenção, um vídeo fone 100 e um vídeo fone 200 estão em um estado de conexão através de uma rede 10. Notar que a rede 10 pode ser com fio ou sem fio. Ainda mais, a rede 10 pode ser uma rede de Protocolo Internet (IP), uma rede telefônica comutada pública (PSTN) ou uma rede de comunicações móveis.
O vídeo fone 100 e o vídeo fone 200 são ambos telefones que possuem funções de vídeo fone. O vídeo fone 100 e o vídeo fone 200 podem ser um telefone que possui funções de vídeo fone incorporadas, e o telefone pode ser um telefone estacionário ou um telefone móvel. Em adição, o vídeo fone 100 e o vídeo fone 200 podem ser um computador pessoal ou um terminal de jogos que é conectado a uma câmera compacta e no qual uma aplicação é instalada, de tal modo que o computador pessoal ou o terminal de jogos pode executar funções de vídeo fone. Ainda mais, o vídeo fone 100 e o vídeo fone 200 podem ser um receptor de televisão que está conectado a uma câmera compacta e um dispositivo para realizar funções de vídeo fone.
Na seguinte explicação, o vídeo fone 100 é exemplificado por um receptor de televisão que está conectado a uma câmera compacta e a um dispositivo realizando funções de vídeo fone, porém não é preciso dizer que o vídeo fone 100 não está limitado a este exemplo. Adicionalmente, na explicação a seguir, um vídeo fone usado por um usuário é o vídeo fone 100 e um vídeo fone usado por uma parte receptora com quem o usuário está se comunicando é o vídeo fone 200.
A configuração do sistema de vídeo fone 1 usando um telefone que possui funções de vídeo fone de acordo com a realização da presente invenção, é explicada acima com referência à Figura 1. A seguir, a configuração de hardware do vídeo fone 100 de acordo com a realização da presente invenção será explicada.
2. Configuração de hardware do vídeo fone de acordo com realização da presente invenção
Figura 2 é um diagrama explicativo ilustrando a configuração de hardware do vídeo fone 100 de acordo com a realização da presente invenção. Posteriormente, a configuração de hardware do vídeo fone 100 de acordo com a realização da presente invenção será explicada com referência à Figura 2.
Conforme mostrado na Figura 2, o vídeo fone 100 de acordo com a realização da presente invenção inclui um visor 101, uma câmera 102, um microfone 103, um alto-falante 104, um fotorreceptor 105 e uma unidade de vídeo fone 110.
O visor 101 é conectado à unidade de vídeo fone 110 e, quando uma chamada é feita para a parte receptora usando funções de vídeo fone, o visor 101 exibe imagens da parte receptora que são transmitidas a partir do vídeo fone 200 do lado da parte receptora, via rede 10. Um monitor de CRT, um visor de cristal líquido, um visor de plasma, um visor EL orgânico ou um outro dispositivo de visualização pode ser usado como o visor 101.
A câmera 102 obtém imagens do usuário. O processamento de sinal é efetuado pela unidade de vídeo fone 110 sobre imagens do usuário obtidas pela câmera 102, e as imagens processadas são transmitidas ao vídeo fone 200 do lado da parte receptora, via rede 10. O microfone 103 coleta a voz do usuário. O processamento de sinal é efetuado pela unidade de vídeo fone 110 sobre a voz do usuário coletada pelo microfone 103 e a voz processada é transmitida ao vídeo fone 200 do lado da parte receptora, via rede 10. O alto-falante 104 emite a voz da parte receptora que é transmitida a partir do vídeo fone 200 do lado receptor, via rede 10. A câmera 102, o microfone 103 e o alto-falante 104 são conectados à unidade de vídeo fone 110.
O fotorreceptor 105 recebe sinais emitidos a partir de um controle remoto 150 que opera a unidade de vídeo fone 110, e transmite os sinais recebidos à unidade de vídeo fone 110. Por exemplo, quando um sinal para ligar uma fonte de alimentação da unidade de vídeo fone 110 é transmitido a partir do controle remoto 150, o fotorreceptor 105 recebe o sinal e o transmite à unidade de vídeo fone 110, e então a fonte de alimentação da unidade de vídeo fone 110 é ligada. Os sinais do controle remoto 150 podem ser transmitidos por raios infravermelhos, ou podem ser transmitidos sem fio.
A unidade de vídeo fone 110 é um dispositivo no qual hardware e software que realizam funções de vídeo fone são instalados. Conforme mostrado na Figura 2, a unidade de vídeo fone 110 de acordo com a realização da presente invenção inclui uma memória não volátil 112, uma memória principal 114, uma memória de vídeo 116, uma CPU (Unidade de Processamento Central) 118 e um DSP (Processador de Sinal Digital) 120. Todos os componentes incluídos na unidade de vídeo fone 110 são mutuamente conectados através de um barramento de sistema 130.
A memória não volátil 112 armazena principalmente programas de computador que realizam funções de vídeo fone. Os programa de computador que realizam funções de vídeo fone são, por exemplo, um programa de chamada de vídeo fone para efetuar funções de chamada entre o vídeo fone 100 e o vídeo fone 200 do lado receptor. Software armazenado na memória não volátil 112 é lido pela CPU 118 e executado seqüencialmente. Adicionalmente, a memória não volátil 112 armazena informação de livro de endereço. Selecionando livremente uma parte receptora a partir da informação de livro de endereço armazenada na memória não volátil 112, o usuário pode fazer uma chamada usando funções de vídeo fone (ou usando funções de telefone somente com áudio).
Quando o software armazenado na memória não volátil 112 é lido e executado pela CPU 118, a memória principal 114 é usada como uma área de trabalho para cada tipo de processamento. A memória de vídeo 116 armazena sinais de imagem transmitidos a partir do vídeo fone 200 do lado da parte receptora e dados gráficos que são exibidos no visor 101, tal como uma GUI (Interface Gráfica de Usuário) usada para executar funções de vídeo fone. Em adição, quando uma chamada usando funções de vídeo fone está sendo feita entre o vídeo fone 100 e o vídeo fone 200, a memória de vídeo 116 armazena temporariamente imagens e áudio transmitidos do vídeo fone 200.
A CPU 118 é um circuito eletrônico que executa cálculos numéricos, processamento de informação e controle de instrumento. De acordo com a presente realização, a CPU 118 lê e executa seqüencialmente programas de computador que são armazenados na memória não volátil 112 e que realizam funções de vídeo fone. Executando seqüencialmente os programas de computador pela CPU 118, a unidade de vídeo fone 110 pode realizar funções de vídeo fone.
O DSP 120 é um microprocessador adequado para processamento de sinal digital e, de acordo com a presente realização, o DSP 120 codifica e gera fluxo contínuo de mídia de entrada a partir da câmera 102 e sinais de áudio inseridos a partir do microfone 103. O fluxo gerado pelo DSP 120 é transmitido pelo vídeo fone 200 do lado da parte receptora, via rede 10, e é emitido no vídeo fone 200 como imagens e áudio. Adicionalmente, um fluxo transmitido a partir do vídeo fone 200 do lado da parte receptora é decodificado pelo DSP 120 e convertido para sinais de imagem e sinais de áudio.
A configuração de hardware do vídeo fone 100 de acordo com a realização da presente invenção é explicada acima. A seguir, a configuração funcional do vídeo fone 100 de acordo com a realização da presente invenção será explicada.
1. Configuração funcional do vídeo fone de acordo com realização da presente invenção
Figura 3 é um diagrama explicativo ilustrando a configuração funcional do vídeo fone 100 de acordo com a realização da presente invenção. Posteriormente, a configuração funcional do vídeo fone 100 de acordo com a realização da presente invenção será explicada com referência à Figura 3.
Conforme mostrado na Figura 3, o vídeo fone 100 de acordo com a realização da presente invenção inclui uma porção de processamento de transmissão 122, uma porção de processamento de recepção 124, um bloco principal 126 a uma interface de usuário 128.
A porção de processamento de transmissão 122 efetua transmissão de dados para o vídeo fone 200 do lado da parte receptora. Por exemplo, de acordo com a presente realização, quando o usuário do vídeo fone 100 inicia uma chamada com a parte receptora usando funções de vídeo fone o bloco principal 126 (a ser descrito mais tarde) executa controle de chamada com o vídeo fone 200 do lado da parte receptora. Informação de chamada usada ao efetuar o controle de chamada é enviada a partir da porção de processamento de transmissão 122 para a rede 10. Quando é estabelecida comunicação com o vídeo fone 200 do lado da parte receptora, a porção de processamento de transmissão 122 codifica sinais de imagem digitalizados inseridos a partir da câmera 102 e sinais de áudio digitalizados inseridos a partir do microfone 103. Então, a porção de processamento de transmissão 122 efetua codificação de canal dos dados codificados, tal como correção de erro e assim por diante. Em adição, a porção de processamento de transmissão 122 efetua empacotamento para transmissão para o vídeo fone 200 do lado da parte receptora e transmite à rede 10.
A porção de processamento de recepção 124 executa recepção de dados a partir do vídeo fone 200 do lado da parte receptora. Por exemplo, de acordo com a presente realização, quando o usuário do vídeo fone 100 começa uma chamada com a parte receptora usando funções de vídeo fone, o bloco principal 126 (a ser descrito mais tarde) efetua controle de chamada com o vídeo fone 200 do lado da parte receptora. Ao executar o controle de chamada, informação de controle de chamada transmitida a partir do vídeo fone 200 do lado da parte receptora é recebida por uma porção de processamento de recepção 124. Adicionalmente, quando comunicação com o vídeo fone 200 do lado da parte receptora é estabelecida, quando dados de imagem empacotados e dados de áudio são recebidos do vídeo fone 200 do lado da parte receptora, a porção de processamento de recepção 124 efetua decodificação de canal, decodificação de imagem e decodificação de áudio. Os sinais de imagem e sinais de áudio obtidos como um resultado da decodificação são transmitidos à interface de usuário 128.
O bloco principal 126 executa vários processos para realizar funções de vídeo fone. Por exemplo, de acordo com a presente realização, quando o usuário do vídeo fone 100 inicia uma chamada com a parte receptora usando funções de vídeo fone, controle de chamada é executado com o vídeo fone 200 do lado da parte receptora, pelo bloco principal 126. Em adição, o bloco principal 126 possui uma função para registrar imagens e áudio no livro de endereço armazenado na memória não volátil 112, usando os dados de imagem e dados de áudio da parte receptora que são recebidos pela porção de processamento de recepção 124.
Adicionalmente, conforme mostrado na Figura 3, o bloco principal 126 inclui uma porção de extração de imagem 132 e uma porção de registro de livro de endereço 134.
Durante um período através do qual uma chamada está sendo efetuada com o vídeo fone 200 usando funções de vídeo fone, a porção de extração de imagem 132 extrai uma imagem que é temporariamente armazenada na memória de vídeo 116 e que é transmitida a partir do vídeo fone 200 do lado da parte receptora, como uma imagem parada ou um vídeo. Uma temporização da extração pela porção de extração de imagem 132 pode ser uma temporização selecionada que é instruída pelo usuário ou pode ser uma temporização predeterminada que é estabelecida antecipadamente. Ainda mais, a porção de extração de imagem 132 pode analisar as imagens transmitidas a partir do vídeo fone 200 e pode extrair a imagem parada ou o vídeo, com base nos resultados da análise. A extração da imagem parada ou vídeo pela porção de extração de imagem 132 será explicada em detalhe mais tarde.
A porção de registro de livro de endereço 134 registra, no livro de endereço, a imagem parada ou o vídeo extraído pela porção de extração de imagem 132. Na presente realização, quando a chamada com o vídeo fone 200 usando funções de vídeo fone é terminada, a porção de registro de livro de endereço 134 registra a imagem parada ou o vídeo extraído pela porção de extração de imagem 132, associando a imagem registra à informação do livro de endereço da parte receptora, com quem a chamada foi feita.
A porção de interface de usuário 128 aceita entradas de operação do usuário do vídeo fone 200 e emite imagens e áudio transmitidos a partir do vídeo fone 200 do lado da parte receptora, para o visor 101 e altofalante 104.
A configuração funcional do vídeo fone 100 de acordo com a realização da presente invenção é explicada acima com referência à Figura 3. A seguir, operação do vídeo fone 200 de acordo com a realização da presente invenção será explicada.
4. Operação do vídeo fone de acordo com realização da presente invenção
Figura 4 é um fluxograma ilustrando a operação do vídeo fone
100 de acordo com a realização da presente invenção. Posteriormente, a operação do vídeo fone 100 de acordo com a realização da presente invenção será explicada com referência à Figura 4.
Ao usar o vídeo fone 100 para fazer uma chamada para a parte receptora, usando funções de vídeo fone, primeiramente, a parte receptora é selecionada por operação do usuário (etapa S102). Para selecionar a parte receptora, o vídeo fone 100 pode ser operado usando o controle remoto 150, etc., para inserir diretamente o número telefônico da parte receptora, ou a parte receptora pode ser selecionada do livro de endereço.
Figura 5 é um diagrama explicativo mostrando um exemplo de uma tela de livro de endereço no vídeo fone 100, de acordo com a realização da presente invenção. A tela do livro de endereço mostrada na Figura 5 é exibida no visor 101 como um resultado da operação do vídeo fone 100 usando o controle remoto 150. Em um estado no qual o tipo de tela mostrado na Figura 5 é exibido, o usuário do vídeo fone 100 pode usar o controle remoto 150 para operar o vídeo fone 100 e selecionar a parte receptora.
A seguinte explicação é um exemplo no qual uma chamada é colocada após selecionar o item superior “Vovô, Vovó” como a parte receptora no livro de endereço mostrado na Figura 5.
Quando a parte receptora é selecionada na etapa S102 acima descrita, é estabelecida uma conexão com a parte receptora selecionada na etapa S102 acima descrita, e uma chamada com a parte receptora é iniciada (etapa S104). A conexão com a parte receptora selecionada pode ser estabelecida, por exemplo, gerando informação de controle de chamada no bloco principal 126, transmitindo a informação de controle de chamada gerada a partir da porção de processamento de transmissão 122, e recebendo uma resposta do vídeo fone 200 do lado da parte receptora na porção de processamento de recepção 124.
Figura 6 é um diagrama explicativo mostrando um exemplo de uma tela de chamada no vídeo fone 100, de acordo com a realização da presente invenção. A tela de chamada mostrada na Figura 6 é exibida no visor 101 após a chamada ter sido iniciada com a parte receptora. Conforme mostrado na Figura 6, a tela de chamada inclui uma tela doméstica 162 e uma tela de parte receptora 164.
A tela doméstica 162 é uma tela na qual imagens obtidas pela câmera 102 são exibidas, e as imagens exibidas na tela doméstica 162 são também exibidas no vídeo fone 200 do lado da parte receptora. Adicionalmente, a tela de parte receptora 164 exibe imagens da parte receptora obtidas por uma câmera do vídeo fone 200 do lado da parte receptora. As imagens exibidas na tela de parte receptora 164 são imagens obtidas como resultado da decodificação pela porção de processamento de recepção 124, e são exibidas pela porção de interface de usuário 128. O usuário do vídeo fone 100 pode fazer uma chamada com a parte receptora usando funções de vídeo fone, enquanto olha o tipo de tela mostrado na Figura 6.
Então, na presente realização, usando as imagens transmitidas a partir do vídeo fone 200 do lado da parte receptora e obtidas como o resultado da decodificação pela porção de processamento de recepção 124, uma imagem é automaticamente registra no livro de endereço. Por este tipo de registro de automação da imagem no livro de endereço, a imagem é armazenada antecipadamente no telefone, economizando tempo e esforço para editar vídeo usando um dispositivo diferente do telefone, e a imagem pode ser facilmente registrada. Na explicação a seguir, é descrito um exemplo no qual uma imagem parada é registrada no livro de endereço.
Ao registrar uma imagem no livro de endereço, o usuário pode instruir uma temporização selecionada para captura de imagem e a porção de extração de imagem 132 pode extrair uma imagem na temporização instruída, a partir das imagens transmitidas a partir do vídeo fone 200 do lado da parte receptora. Então, a porção de registro de livro de endereço 134 registra no livro de endereço a imagem extraída pela porção de extração de imagem 132. A captura de imagem pode ser efetuada, por exemplo, pela operação do controle remoto 150 pelo usuário do vídeo fone 100. Ainda mais, o número de imagens capturadas pode ser ilimitado e capturado repetidamente. Quando há diversas imagens capturadas, a tela do livro de endereço pode exibir sucessivamente as imagens capturadas na tela do livro de endereço em um formato de apresentação de slides.
Por outro lado, ao registrar uma imagem no livro de endereço, durante a chamada com a parte receptora, imagens transmitidas a partir do vídeo fone 200 do lado da parte receptora pode ser analisadas pela porção de extração de imagem 132, uma imagem específica pode ser extraída a partir dos resultados da análise e a imagem extraída pode ser registrada no livro de endereço pela porção de registro de livro de endereço 134. Na presente realização, o seguinte processo de análise é executado.
A partir dos dados de imagem da parte receptora, a porção de extração de imagem 132 captura sucessivamente uma imagem fixa em um intervalo de tempo predeterminado e extrai uma imagem parada (etapa S106).
A porção de extração de imagem 132 efetua processamento de reconhecimento de face nos dados de imagem da parte receptora, captura um quadro no qual é mostrada uma pessoa na imagem do lado da parte receptora, e extrai o quadro como uma imagem parada (etapa SI08). A porção de extração de imagem 132 efetua processamento de reconhecimento de face, detectando característica faciais, tais como sobrancelhas, olhos, nariz, boca, etc., incluídos em uma imagem, e pode usar tecnologia descrita, por exemplo, na Publicação de Pedido de Patente Japonesa No. JP-A-2008-152530, por exemplo. Por exemplo, a porção de extração de imagem 132 pode efetuar processamento de reconhecimento de face nos dados de imagem da parte receptora, usar resultados do processamento de reconhecimento de face para identificar o tamanho da face da pessoa mostrada na câmera do lado da parte receptora, capturar um quadro no qual uma face grande é mostrada e extrair o quando como a imagem parada. Adicionalmente, por exemplo, a porção de extração de imagem 132 pode executar processamento de reconhecimento de face nos dados de imagem da parte receptora, e reconhecer uma expressão facial da pessoa mostrada na câmera do lado da parte receptora. Esta pode então capturar um quadro mostrando uma face sorridente e extrair o quadro como a imagem parada.
A porção de extração de imagem 132 executa processamento de reconhecimento de face nos dados de imagem da parte receptora e reconhece se a parte receptora é uma criança ou um adulto. E estabelecido antecipadamente priorizar o registro no livro de endereço para um adulto ou uma criança, e um homem ou uma mulher. Então, um quadro é capturado com base na configuração de prioridade, e processamento de extração de imagem parada é efetuado (etapa SI 10). Notar que pode ser determinado se as imagens incluídas nos dados de imagem do lado da parte receptora são de um adulto ou não, e o sexo da pessoa mostrada pode ser determinado, detectando a posição dos olhos, nariz e boca, etc., por exemplo, e com base nas relações de posição entre estas características faciais.
A porção de extração de imagem 132 calcula o grau de modificação entre quadros dos dados de imagem da parte receptora e reconhece a intensidade de movimento das imagens da parte receptora. Se uma imagem na qual há um alto grau de modificação entre quadros, a saber uma imagem com movimento intenso, é extraída como uma imagem parada, uma imagem parada limpa não pode ser obtida devido à agitação da câmera ou borrão de um objeto da imagem. Portanto, uma imagem na qual há um pequeno grau de modificação entre quadros é extraída como a imagem parada (etapa SI 12). Notar que, os métodos a seguir podem ser usados para medir o grau de modificação entre quadros. Cada um dos métodos listados abaixo pode ser usado separadamente, ou pode ser usado em combinação.
1. Quantidade de vetor de movimento da tela total
2. Diferença de quadro da tela total
3. Medição do grau de movimento pela detecção de movimento
4. Outra tecnologia de detecção de diferença/movimento de quadro
Notar que estes processos de análise são mostrados na Figura 4 como uma série de processos, porém na presente invenção os processos de análise podem ser executados separadamente ou diversos processos de análise podem ser efetuados em combinação.
Durante uma chamada com a parte receptora, quando o processamento de análise dos dados de imagem da parte receptora pela porção de extração de imagem 132 está completo e uma imagem parada é extraída, após a chamada ser finalizada, a imagem parada extraída pela porção de extração de imagem 132 é registrada no livro de endereço pela porção de registro de livro de endereço 134. Neste instante, a imagem parada é associada à informação de livro de endereço correspondente à parte receptora. Quando a chamada com a parte receptora é terminada (etapa SI 14), a porção de registro de livro de endereço 134 registra a imagem parada extraída pela porção de extração de imagem 132 no livro de endereço, de tal modo que a imagem parada é registrada em associação com a informação de livro de endereço correspondente à parte receptora (etapa SI 16).
Figura 7 é um diagrama explicativo mostrando um exemplo de uma tela exibida no visor 101 quando, com o vídeo fone 100 de acordo com a realização da presente invenção, o usuário instrui o vídeo fone 100 para exibir a tela do livro de endereço após uma chamada com a parte receptora ser terminada. Figura 7 mostra um caso em que uma imagem é “colada” pela porção de registro de livro de endereço 134 no item superior “Vovô, Vovó”.
Registrando automaticamente imagens no livro de endereço pela porção de registro de livro de endereço 134 deste modo, imagens podem ser facilmente “coladas” no livro de endereço.
A operação do vídeo fone 100 de acordo com a realização da presente invenção é explicada acima com referência à Figura 4. Na operação do vídeo fone 100 de acordo com a realização da presente invenção mostrada na Figura 4, a explicação descreve um exemplo no qual uma imagem é registrada no livro de endereço. Entretanto, um vídeo e não uma imagem parada pode ser registrado no livro de endereço. Figura 8 é um fluxograma ilustrando a operação do vídeo fone 100 de acordo com a realização da presente invenção. Posteriormente, a operação do vídeo fone 100 de acordo com a realização da presente invenção será explicada com referência à Figura 8.
Do mesmo modo como registro de uma imagem parada no livro de endereço, quando o vídeo fone 100 é usado para fazer uma chamada para a parte receptora usando funções de vídeo fone, primeiramente, a parte receptora é selecionada por operação do usuário (etapa S122). Para selecionar a parte receptora, o vídeo fone 100 pode ser operado usando o controle remoto 150, etc., para inserir diretamente o número telefônico da parte receptora, ou a parte receptora pode ser selecionada do livro de endereço.
Quando a parte receptora é selecionada na etapa S122 acima descrita, é estabelecida uma conexão com a parte receptora selecionada na etapa S122 acima descrita e uma chamada com a parte receptora é iniciada (etapa S124). A conexão com a parte receptora selecionada pode ser estabelecida, por exemplo, gerando informação de controle de chamada no bloco principal 126, transmitindo a informação de controle de chamada gerada a partir da porção de processamento de transmissão 122, e recebendo uma resposta do vídeo fone 200 do lado da parte receptora na porção de processamento de recepção 124.
Ao registrar um vídeo no livro de endereço, o usuário pode instruir uma temporização selecionada para captura de vídeo e a porção de extração de imagem 132 pode extrair um vídeo na temporização instruída a partir dos vídeos transmitidos a partir do vídeo fone 200 do lado da parte receptora. Então, a porção de registro de livro de endereço 134 registra o vídeo extraído pela porção de extração de imagem 132 no livro de endereço. A captura de vídeo pode ser executada, por exemplo, pela operação do controle remoto 150 pelo usuário do vídeo fone 100. Ainda mais, o número de vídeos capturados pode ser ilimitado. Quando há diversos vídeos capturados, a tela do livro de endereço pode exibir sucessivamente os vídeos capturados na tela do livro de endereço em um formato de apresentação de slides.
Por outro lado, ao registrar uma imagem no livro de endereço, durante a chamada com a parte receptora, vídeos transmitidos a partir do vídeo fone 200 do lado da parte receptora podem ser analisados pela porção de extração de imagem 132, um vídeo específico pode ser extraído a partir dos resultados da análise e o vídeo extraído pode ser registrado no livro de endereço pela porção de registro de livro de endereço 134. Na presente realização, o seguinte processo de análise é executado.
A partir dos dados de imagem da parte receptora, a porção de extração de imagem 132 captura sucessivamente um vídeo em um intervalo de tempo predeterminado e extrai um vídeo por um período de tempo selecionado (etapa S126).
A porção de extração de imagem 132 efetua processamento de reconhecimento de face nos dados de imagem da parte receptora (etapa S128). O processamento de reconhecimento de face pode reconhecer, por exemplo, que uma pessoa é mostrada na câmera do vídeo fone 200 do lado da parte receptora, capturar quadros nos quais uma pessoa é mostrada e extrair estes quadros como vídeo. Altemativamente, por exemplo, o processamento pode reconhecer o número de pessoas mostrado na câmera do vídeo fone 200 do lado da parte receptora, capturar quadros nos quais há muitas ou poucas pessoas e extrair estes quadros como o vídeo. Altemativamente, por exemplo, o processamento pode reconhecer o tamanho de uma face de uma pessoa mostrada na câmera no vídeo fone 200 do lado da parte receptora, capturar quadros nos quais uma face grande é mostrada e extrair estes quadros como o vídeo. Novamente de forma alternativa, por exemplo, o processamento pode reconhecer uma expressão facial de uma pessoa mostrada na câmera do vídeo fone 200 do lado da parte receptora, capturar quadros mostrando uma face sorridente e extrair estes quadros como o vídeo. Notar que pode ser determinado se as faces incluídas nos dados de imagem do lado da parte receptora são faces sorridentes ou não, detectando a posição e forma dos olhos, nariz e boca, etc., por exemplo, e as relações de posição e formas destas características faciais.
A porção de extração de imagem 132 executa processamento de reconhecimento de face nos dados de imagem da parte receptora e reconhece se a parte receptora é uma criança ou um adulto, e um homem ou uma mulher. Esta também reconhece o número de adultos ou crianças e o número de homens ou mulheres mostrados. E configurado antecipadamente priorizar um adulto ou uma criança e um homem ou uma mulher, e quadros incluindo um adulto ou quadros incluindo uma criança, ou quadros incluindo um homem ou quadros incluindo uma mulher são capturados e extraídos como o vídeo (etapa S130).
A porção de extração de imagem 132 calcula o grau de modificação entre quadros dos dados de imagem da parte receptora e reconhece até que grau as imagens da parte receptora são móveis (a intensidade do movimento). Quadros com um alto grau de movimento ou quadros com pequeno grau de movimento são capturados, e estes quadros são extraídos como o vídeo (etapa S132). Notar que os métodos para medir o grau de modificação entre quadros descritos na etapa Sl 12 acima podem ser usados aqui como métodos para medir o grau de modificação entre quadros.
Ainda mais, dados de voz da parte receptora incluídos nos dados de imagem da parte receptora podem ser analisados no bloco principal 126. Como resultado da análise pelo bloco principal 126, quadros nos quais a voz da parte receptora é alta são determinados para serem quadros nos quais a conversação é ao vivo, e os quadros relevantes são capturados pela porção de extração de imagem 132 e extraídos como o vídeo (etapa S134). Vários métodos podem ser usados para executar o processamento de análise de dados de voz na etapa S134, e a presente invenção não está limitada a um método particular.
Notar que estes processos de análise são mostrados na Figura 8 como uma série de processos, porém na presente invenção os processos de análise podem ser efetuados separadamente ou diversos processos de análise podem ser efetuados em combinação.
Durante uma chamada para a parte receptora, quando processamento de análise dos dados de imagem da parte receptora pela porção de extração de imagem 132 está completo e o vídeo é extraído, após a chamada ser terminada, o vídeo extraído pelo porção de extração de imagem 132 é registrado no livro de endereço pela porção de registro de livro de endereço 134. Neste instante, o vídeo é associado à informação de livro de endereço correspondente à parte receptora. Quando a chamada com a parte receptora é terminada (etapa S136) a porção de registro de livro de endereço 134 registra o vídeo extraído pela porção de extração de imagem 132 no livro de endereço, de tal modo que o vídeo é registrado em associação com a informação de livro de endereço correspondente à parte receptora (etapa S138).
A operação do vídeo fone 100 de acordo com a realização da presente invenção é explicada acima com referência à Figura 8. Deste modo, analisando os dados de imagem da parte receptora pela porção de extração de imagem 132, extraindo uma imagem parada ou um vídeo e registrar a imagem parada ou vídeo extraídos no livro de endereço, imagens podem ser registradas facilmente no livro de endereço, sem salvar antecipadamente imagens no vídeo fone 100, e sem executar edição do vídeo em um dispositivo separado.
Notar que, na explicação acima, os dados de imagem da parte receptora são analisados, uma imagem parada de um vídeo é extraída e a imagem parada ou vídeo extraídos são registrados no livro de endereço. Entretanto, quando o livro de endereço tem uma função de permitir audição de áudio, dados de áudio podem ser extraídos e os dados de áudio extraídos podem ser registrados no livro de endereço.
Geralmente, quando uma chamada é iniciada, a parte receptora freqüentemente usa uma frase de rotina, tal como “Alô” ou “XX (nome) falando”. Portanto, dados de áudio são extraídos pelo bloco principal 126 imediatamente após a chamada ter iniciado até um ponto predeterminado no tempo, e é registrado no livro de endereço. Registrando os dados de áudio acima descritos deste modo, o áudio pode ser reproduzido de volta na tela exibindo o livro de endereço, e o usuário pode chamar novamente a parte receptora.
O período registrado no livro de endereço, por exemplo, pode ser a partir de quando a parte receptora fala primeiro, imediatamente após a chamada ter iniciado, até o próximo período de silêncio. O período de silêncio pode ser determinado verificando o nível do microfone, ou verificando o conteúdo do pacote e determinando se está silencioso ou não.
Altemativamente, o período registrado no livro de endereço pode ser a partir do começo da chamada por um período de tempo predeterminado (3 ou 5 segundos, por exemplo). O período de tempo aproximadamente desta extensão é um período de tempo suficiente para incluir uma frase de rotina a partir da parte receptora, tal como “Alô” ou “XX (nome) falando”.
Notar que, ao registrar áudio no livro de endereço, um ícone indicando que áudio foi registrado (um ícone de microfone, por exemplo) pode ser exibido nas telas do livro de endereço mostradas na Figura 5 e Figura 7, até a esquerda da imagem ou até a direita da mesma, etc.
O presente pedido contém assunto relacionado ao descrito no Pedido de Patente de Prioridade Japonesa JP 2008-261020, depositada no Escritório de Patente do Japão em 07 de Outubro de 2008, cujo conteúdo inteiro é aqui incorporado por referência.
Deveria ser entendido pelos especialistas na técnica que várias modificações, combinações, sub combinações e alterações podem ocorrer, dependendo das exigências de projeto e outros fatores, enquanto estes estão dentro do escopo das reivindicações anexas ou equivalentes destas.
5. Exemplo modificado
Na presente realização, por exemplo, a porção de extração de imagem 132 executa processamento de análise nos dados de imagem a partir da parte receptora e extrai uma imagem parada ou vídeos. Entretanto, o número de imagens paradas e vídeos não está limitado a um.
Por exemplo, a porção de extração de imagem 132 efetua processamento de análise nos dados de imagem a partir da parte receptora, e quando diversas imagens paradas ou vídeos que coincidem com os pré requisitos podem ser extraídos, a porção de registro de livro de endereço 134 pode registrar todas as diversas imagens paradas ou vídeos extraídos no livro de endereço. Então, ao exibir o livro de endereço no qual as imagens paradas ou vídeos são registrados, as imagens paradas ou vídeos registrados podem ser exibidos em um assim chamado formato de apresentação de slides.
Então, ao exibir as imagens paradas ou vídeos no formato de apresentação de slides, uma ordem de prioridade para as imagens paradas ou vídeos extraídos pode ser estabelecida quando a porção de extração de imagem 132 extrai as imagens paradas ou vídeos. A explicação a seguir descreve um caso no qual o tamanho da face mostrada na câmera no lado da parte receptora na etapa SI08 acima descrita, é reconhecido, e quadros nos quais a face é grande são capturados e extraídos como imagem parada. Neste caso, a porção de extração de imagem 132 pode ser ajustada para atribuir a prioridade mais alta a um quadro no qual a face é maior, e reduzir o grau de prioridade, quanto menor a face.
Em adição, a explicação descreve um caso no qual a expressão da face da pessoa mostrada na câmera no lado da parte receptora, na etapa SI08 acima descrita, é reconhecida, e quadros mostrando uma face risonha são capturados e extraídos como imagens paradas. Neste caso, a porção de extração de imagem 132 pode ser configurada para atribuir prioridade mais alta a um quadro no qual a face tenha o sorriso maior e reduzir o grau de prioridade, quanto menor for o sorriso na face.
A presente invenção pode ser aplicada a um dispositivo de processamento de informação, um método de processamento de informação e um programa de computador. Em particular, esta pode ser aplicada a um dispositivo de processamento de informação, um método de processamento de informação e um programa de computador que possuam funções de vídeo fone.

Claims (13)

  1. REIVINDICAÇÕES
    1. Dispositivo de processamento de informação, caracterizado pelo fato de compreender:
    uma porção de gravação de informação de receptor que grava
    5 informação de parte receptora;
    uma porção de gravação de imagem que grava imagens da parte receptora capturadas no lado da parte receptora durante uma chamada;
    uma porção de extração de imagem que extrai uma imagem em um ponto predeterminado no tempo, a partir das imagens gravadas na 10 porção de gravação de imagem; e uma porção de registro que, após a chamada ser terminada, associa a imagem extraída pela porção de extração de imagem à informação de parte receptora e registra a imagem associada na porção de gravação de informação de parte receptora.
    15
  2. 2. Dispositivo de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que a porção de extração de imagem extrai uma imagem parada.
  3. 3. Dispositivo de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que
    20 a porção de extração de imagem extrai, em um ponto no tempo no qual há uma instrução de um usuário, uma imagem parada a partir das imagens gravadas na porção de gravação de imagem.
  4. 4. Dispositivo de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que
    25 a porção de extração de imagem extrai, em um certo intervalo de tempo, uma imagem parada a partir das imagens gravadas na porção de gravação de imagem.
  5. 5. Dispositivo de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que a porção de extração de imagem extrai em uma imagem parada, a partir das imagens gravadas na porção de gravação de imagem, um quadro que inclui uma face.
  6. 6. Dispositivo de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que a porção de extração de imagem detecta um grau de mudança entre quadros das imagens gravadas na porção de gravação de imagem, e extrai como uma imagem parada um quadro com um baixo grau de modificação.
  7. 7. Dispositivo de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que a porção de extração de imagem extrai um vídeo.
  8. 8. Dispositivo de processamento de informação de acordo com a reivindicação 7, caracterizado pelo fato de que a porção de extração de imagem extrai, em um ponto no tempo no qual há uma instrução de um usuário, um vídeo a partir das imagens gravadas na porção de gravação de imagem.
  9. 9. Dispositivo de processamento de informação de acordo com a reivindicação 7, caracterizado pelo fato de que a porção de extração de imagem detecta um grau de mudança entre quadros das imagens gravadas na porção de gravação de imagem, e extrai, como um vídeo, quadros com um baixo grau de mudança.
  10. 10. Dispositivo de processamento de informação de acordo com a reivindicação 7, caracterizado pelo fato de compreender adicionalmente:
    uma porção de gravação de áudio que grava áudio durante uma chamada com uma parte receptora, onde a porção de extração de imagem extrai, como um vídeo, quadros em um ponto no tempo no qual um volume do áudio gravado na porção de gravação de áudio é mais alto que um volume de um outro ponto no tempo.
  11. 11. Dispositivo de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente:
    uma porção de gravação de áudio que grava áudio de uma parte receptora durante uma chamada; e uma porção de extração de áudio que extrai áudio em um ponto predeterminado no tempo, a partir do áudio gravado na porção de gravação de áudio, onde após a chamada ser terminada, a porção de registro registra a imagem extraída pela porção de extração de imagem e o áudio detectado pela porção de extração de áudio está em um livro de endereço.
  12. 12. Método de processamento de informação, caracterizado pelo fato de compreender as etapas de:
    gravar imagens de uma parte receptora obtidas no lado da parte receptora durante uma chamada;
    extrair uma imagem em um ponto predeterminado no tempo a partir das imagens gravadas na etapa de gravação imagem; e após a chamada ser terminada, associar a imagem extraída na etapa de extração de imagem a informação de parte receptora e registrar a imagem associada em uma porção de gravação de informação de parte receptora que grava a informação de parte receptora.
  13. 13. Meio de armazenagem armazenando um programa de computador, caracterizado pelo fato de que compreende instruções que comandam um computador para executar as etapas de:
    gravar imagens de uma parte receptora obtidas no lado da parte receptora durante uma chamada;
    extrair uma imagem em um ponto predeterminado no tempo a partir das imagens gravadas na etapa de gravação de imagem; e após a chamada ser terminada, associar a imagem extraída na etapa de extração de imagem a informação de parte receptora, e registrar a
    5 imagem associada em uma porção de gravação de informação de parte receptora que grava a informação de parte receptora.
BRPI0903881-7A 2008-10-07 2009-09-30 Dispositivo de processamento de informação, método de processamento de informação, e, meio de armazenagem armazenando um programa de computador BRPI0903881B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008261020A JP4844614B2 (ja) 2008-10-07 2008-10-07 情報処理装置、情報処理方法およびコンピュータプログラム
JPP2008-261020 2008-10-07

Publications (2)

Publication Number Publication Date
BRPI0903881A2 BRPI0903881A2 (pt) 2011-02-01
BRPI0903881B1 true BRPI0903881B1 (pt) 2019-02-12

Family

ID=41531707

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0903881-7A BRPI0903881B1 (pt) 2008-10-07 2009-09-30 Dispositivo de processamento de informação, método de processamento de informação, e, meio de armazenagem armazenando um programa de computador

Country Status (6)

Country Link
US (1) US8319818B2 (pt)
EP (1) EP2175622B1 (pt)
JP (1) JP4844614B2 (pt)
CN (1) CN101715101B (pt)
BR (1) BRPI0903881B1 (pt)
RU (1) RU2500081C2 (pt)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6904229B1 (en) * 1999-08-20 2005-06-07 Canon Kabushiki Kaisha Apparatus for recording signals on disk recording medium
US8943410B2 (en) 2006-12-22 2015-01-27 Apple Inc. Modified media presentation during scrubbing
US8020100B2 (en) * 2006-12-22 2011-09-13 Apple Inc. Fast creation of video segments
TWI447658B (zh) * 2010-03-24 2014-08-01 Ind Tech Res Inst 人臉影像擷取方法與裝置
US9247306B2 (en) * 2012-05-21 2016-01-26 Intellectual Ventures Fund 83 Llc Forming a multimedia product using video chat
USD749601S1 (en) * 2013-11-21 2016-02-16 Microsoft Corporation Display screen with graphical user interface
KR20150059344A (ko) * 2013-11-22 2015-06-01 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
JP6024715B2 (ja) * 2014-08-01 2016-11-16 カシオ計算機株式会社 情報出力装置及びプログラム
CN105100432B (zh) * 2015-06-10 2018-02-06 小米科技有限责任公司 通话界面显示方法及装置
US11361380B2 (en) * 2016-09-21 2022-06-14 Allstate Insurance Company Enhanced image capture and analysis of damaged tangible objects

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0442654A (ja) * 1990-06-08 1992-02-13 Sony Corp テレビ電話装置
JPH04294667A (ja) * 1991-03-25 1992-10-19 Toshiba Corp マルチメディア端末
JPH0738868A (ja) * 1993-07-19 1995-02-07 Canon Inc テレビ会議用端末装置
JP2000253111A (ja) * 1999-03-01 2000-09-14 Toshiba Corp 無線携帯端末
JP2002158981A (ja) * 2000-11-17 2002-05-31 Nec Corp 画像情報付電話帳機能を有する電話機
JP2002281469A (ja) * 2001-03-21 2002-09-27 Canon Inc テレビ電話装置
US20030025786A1 (en) * 2001-07-31 2003-02-06 Vtel Corporation Method and system for saving and applying a video address from a video conference
JP2003244633A (ja) * 2002-02-21 2003-08-29 Canon Inc 通信装置およびその制御方法
US20040058714A1 (en) * 2002-06-28 2004-03-25 Rohm Co., Ltd. Portable communicating apparatus
JP4693629B2 (ja) * 2004-02-06 2011-06-01 ソフトバンクBb株式会社 テレビ電話システム、自営基地局装置、セットトップボックス及びテレビ電話方法
JP2007279776A (ja) 2004-07-23 2007-10-25 Matsushita Electric Ind Co Ltd Cgキャラクタエージェント装置
FI20041277L (fi) * 2004-10-01 2006-04-02 Nokia Corp Menetelmä audiovisuaalisen soittotunnuksen muodostamiseksi, kannettava viestintälaite ja soittotunnus
JP2006140871A (ja) 2004-11-15 2006-06-01 Mitsubishi Electric Corp アバターを使用したテレビ電話端末およびそのアバター画像表示方法
DE102005014772A1 (de) * 2005-03-31 2006-10-05 Siemens Ag Verfahren zur Darstellung eines einem Kommunikationsteilnehmer zugeordneten Bildes an einem Kommunikationsendgerät
JP2006352309A (ja) 2005-06-14 2006-12-28 Mitsubishi Electric Corp 電話機
JP5152774B2 (ja) * 2006-03-28 2013-02-27 株式会社メガチップス エレベータかご内の表示装置およびエレベータかご内の表示方法
JP2008152530A (ja) 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム
JP5151223B2 (ja) 2007-04-13 2013-02-27 Jfeスチール株式会社 スピニング加工性に優れたフェライト系ステンレス鋼板およびその製造方法
US8520817B2 (en) * 2007-09-13 2013-08-27 At&T Intellectual Property I, Lp System for identifying a calling party
JP4858875B2 (ja) * 2007-10-05 2012-01-18 Necカシオモバイルコミュニケーションズ株式会社 テレビ電話装置及びプログラム
US8073203B2 (en) * 2008-04-15 2011-12-06 Cyberlink Corp. Generating effects in a webcam application

Also Published As

Publication number Publication date
CN101715101B (zh) 2013-08-21
JP2010093506A (ja) 2010-04-22
RU2009137062A (ru) 2011-04-20
RU2500081C2 (ru) 2013-11-27
BRPI0903881A2 (pt) 2011-02-01
EP2175622B1 (en) 2018-07-18
EP2175622A1 (en) 2010-04-14
US20100091087A1 (en) 2010-04-15
US8319818B2 (en) 2012-11-27
JP4844614B2 (ja) 2011-12-28
CN101715101A (zh) 2010-05-26

Similar Documents

Publication Publication Date Title
BRPI0903881B1 (pt) Dispositivo de processamento de informação, método de processamento de informação, e, meio de armazenagem armazenando um programa de computador
CN108718378B (zh) 影像记录装置和方法
TWI496480B (zh) 偕同一可攜式電子裝置用於產生多頻道音訊之系統和方法
CN112261218B (zh) 视频控制方法、视频控制装置、电子设备和可读存储介质
JP5401420B2 (ja) 撮像装置
CN109981607A (zh) 媒体流处理方法及装置、电子设备和存储介质
WO2021031850A1 (zh) 图像处理的方法、装置、电子设备及存储介质
KR20100061582A (ko) 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법
KR102653751B1 (ko) 전자 기기, 시스템, 보존 제어 방법 및 프로그램
JP2012100216A (ja) カメラおよび動画撮影プログラム
US20180098025A1 (en) Apparatus and method for processing image
CN106997281A (zh) 共享虚拟对象的方法及智能设备
CN105898505A (zh) 视频即时通讯中测试音视频同步的方法、装置及系统
CN111524518B (zh) 增强现实处理方法及装置、存储介质和电子设备
US10447965B2 (en) Apparatus and method for processing image
CN103546677B (zh) 互动系统及互动方法
CN108600625A (zh) 图像获取方法及装置
JP5550114B2 (ja) 撮像装置
CN106205621A (zh) 关键词确定方法及装置
JP7525222B2 (ja) 遠隔会議システム、方法及びプログラム
WO2020006664A1 (zh) 拍摄装置的控制方法、拍摄装置、拍摄系统和存储介质
KR101230746B1 (ko) 음악데이터와 동시 출력을 위한 동기화된 영상데이터 생성방법과 그 동기화 출력을 위한 재생 방법
KR100593989B1 (ko) 휴대용 단말기의 동영상 표시방법
CN114007101B (zh) 融合显示设备的处理方法、设备及存储介质
JP4515005B2 (ja) 電子カメラ

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 30/09/2009, OBSERVADAS AS CONDICOES LEGAIS. (CO) 20 (VINTE) ANOS CONTADOS A PARTIR DE 30/09/2009, OBSERVADAS AS CONDICOES LEGAIS