[go: up one dir, main page]

BRPI0710211A2 - método e dispositivo para controlar um elemento de iluminação de ambiente, e, aplicativo embutido em um meio legìvel por computador configurado para controlar um elemento de iluminação de ambiente - Google Patents

método e dispositivo para controlar um elemento de iluminação de ambiente, e, aplicativo embutido em um meio legìvel por computador configurado para controlar um elemento de iluminação de ambiente Download PDF

Info

Publication number
BRPI0710211A2
BRPI0710211A2 BRPI0710211-9A BRPI0710211A BRPI0710211A2 BR PI0710211 A2 BRPI0710211 A2 BR PI0710211A2 BR PI0710211 A BRPI0710211 A BR PI0710211A BR PI0710211 A2 BRPI0710211 A2 BR PI0710211A2
Authority
BR
Brazil
Prior art keywords
ambient lighting
lighting data
audio
video
content
Prior art date
Application number
BRPI0710211-9A
Other languages
English (en)
Inventor
Nieuwlands Erik
Original Assignee
Koninklijke Philips Electronics N. V
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics N. V filed Critical Koninklijke Philips Electronics N. V
Publication of BRPI0710211A2 publication Critical patent/BRPI0710211A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

MéTODO E DISPOSITIVO PARA CONTROLAR UM ELEMENTO DE ILUMiNAçãO DE AMBIENTE, E, APLICATIVO EMBUTIDO EM UM MEIO LEGìVEL POR COMPUTADOR CONFIGURADO PARA CONTROLAR UM ELEMENTO DE ILUMINAçãO DE AMBIENTE Um método para controlar um elemento de iluminação de ambiente incluindo determinar dados de iluminação de ambiente para controlar um elemento de iluminação de ambiente. O método inclui processar dados de iluminação de ambiente combinados, onde os dados combinados de iluminação de ambiente são com base nas porções de conteúdo de vídeo correspondente e das porções de conteúdo de áudio correspondente. Os dados de iluminação de ambiente combinados processados podem então ser usados para controlar um elemento de iluminação de ambiente. Em uma modalidade, os dados de iluminação de ambiente combinados podem ser recebidos como um roteiro de iluminação de ambiente combinado. Os dados de iluminação de ambiente baseados em vídeo e dados de iluminação de ambiente baseados em áudio podem ser combinados para produzir os dados de iluminação de ambiente combinados. Combinar os dados de iluminação de ambientebaseados vídeo e baseados em áudio pode incluir modular os dados de iluminação de ambiente baseados em vídeo através dos dados de iluminação de ambiente baseados em áudio. O conteúdo de vídeo e/ou o conteúdo de áudio podem ser analizados para produzir os dados de iluminação de ambiente baseados em vídeo e/ou baseados em áudio.

Description

"MÉTODO E DISPOSITIVO PARA CONTROLAR UM ELEMENTO DEILUMINAÇÃO DE AMBIENTE, E, APLICATIVO EMBUTIDO EM UMMEIO LEGÍVEL POR COMPUTADOR CONFIGURADO PARACONTROLAR UM ELEMENTO DE ILUMINAÇÃO DE AMBIENTE"
Este pedido reivindica os benificios do Pedido de PatenteProvisório U.S. No. 60/788.467, depositado em 31 de Março de 2006.
O presente sistema se relaciona a efeitos de iluminação deambiente que são modulados pelas características de uma seqüência deconteúdo de vídeo e de áudio.
Koninklijke Philips Electronics N.V. (Philips) e outrascompanhias têm divulgado meios para mudar iluminação de ambiente e deperiferia para melhorar o conteúdo de vídeo para aplicativos típicosdomésticos ou para negócios. Iluminação de ambiente modulada peloconteúdo de vídeo que é fornecido junto com um visor de vídeo ou televisãotem sido mostrado para reduzir fadiga do observador e melhorar o realismo eprofundidade da experiência. Atualmente, a Philips tem uma linha detelevisões, incluindo televisores de tela plana com iluminação de ambiente,onde o quadro em torno da televisão inclui fontes de luz de ambiente naparede de trás que suporta ou está próxima da televisão. Ainda, fontes de luzseparada da televisão podem também ser moduladas relativa ao conteúdo devídeo para produzir luz de ambiente que pode ser controlada de forma similar.
Em um caso de uma única fonte de luz de cor, a modulação dafonte de luz pode somente ser uma modulação da luminosidade da fonte deluz. A fonte de luz capaz de produzir luz multicolorida fornece umaoportunidade, para modular muitos aspectos de fonte de luz multicoloridacom base nos vídeos prestados incluindo uma ampla faixa de cor selecionávelpor ponto.
E um objeto da presente sistema de superar as desvantagens naarte anterior e/ou fornecer uma maior imersão dimensional em umaexperiência de iluminação de ambiente.
O presente sistema fornece um método, programas edispositivo para determinar dados de iluminação de ambiente para controlarum elemento de iluminação de ambiente. O método inclui processar dados deiluminação de ambiente combinados, onde os dados de iluminação deambiente combinados são com base nas porções correspondentes de conteúdode vídeo e nas porções correspondentes de conteúdo de áudio. Os dados deiluminação de ambiente combinados processados podem então ser usadospara controlar um elemento de iluminação de ambiente. Em uma modalidade,os dados de iluminação de ambiente combinados podem ser recebidos comoum roteiro de iluminação de ambiente combinado ou como roteiros separadosde iluminação de ambiente baseado em vídeo ou baseado em áudio.
Os dados de iluminação de ambiente baseados em vídeo edados de iluminação de ambiente baseados em áudio podem ser combinadospara produzir os dados de iluminação de ambiente combinados. Combinar osdados de iluminação de ambiente baseados em vídeo e os baseados em áudiopode incluir modular os dados de iluminação de ambiente baseados em vídeoatravés do dados de iluminação de ambiente baseados em áudio.
Em uma modalidade, o conteúdo de vídeo e/ou o conteúdo deáudio podem ser analisados para produzir os dados de iluminação de ambientebaseados em vídeo e/ou os baseados em áudio. Analisar o conteúdo de vídeopode incluir analisar porções temporais do conteúdo de vídeo para produzirporções temporais de dados de iluminação de ambiente baseados em vídeo.Nesta modalidade, as porções temporais de dados de iluminação de ambientebaseados em vídeo podem ser combinadas para produzir um roteiro deiluminação de ambiente baseado em vídeo como os dados de iluminação deambiente baseados em vídeo.
O conteúdo de áudio pode ser analisado para produzir os dadosde iluminação de ambiente baseados em áudio. Analisar o conteúdo de áudiopode incluir analisar pelo menos, uma de uma freqüência, uma faixa defreqüência, e amplitude das correspondentes porções de conteúdo de áudio.Analisar o conteúdo de áudio pode identificar e utilizar outras característicasdo conteúdo de áudio incluindo batidas por minuto; chave, tal como chavesgrandes e pequenas, e chave absoluta do conteúdo de áudio; intensidade; e/ouclassificação tal como clássico, pop, debate, filme. Ainda, dados que estãoseparados do próprio áudio podem ser analisados, mas que podem serassociados com os dados de áudio, tal como dados auto-explicativos que estãoassociados com os dados de dados. Combinar os dados de iluminação deambiente baseados em vídeo e os baseados em áudio pode incluir utilizar osdados de iluminação de ambiente baseados em áudio para ajustar dinâmicasde um ponto de cor determinado utilizando os dados de iluminação deambiente baseados em vídeo.
O presente sistema é explicado em detalhes adicionais e pormeio de exemplo, com referência aos desenhos anexos onde:
FIG. 1 mostra um fluxograma de acordo com uma modalidadedo presente sistema; e
FIG. 2 mostra um dispositivo de acordo com uma modalidadedo presente sistema.
O seguinte são descrições de modalidades ilustrativas quequando considerads em conjunto com os seguintes desenhos vão demonstraras caro atoerísticas e vantagens notadas acima, assim com algumas adicionais.Na seguinte descrição, para propósitos de explicação mais propriamente doque limitação, detalhes específicos são estabelecidos tal como a particulararquitetura, interfaces, técnicas, etc., para ilustração. Contudo, será aparentepara aqueles com qualificação simples na arte que outras modalidades quepartem desses detalhes específicos ainda seriam entendidas de estarem dentrodo escopo das reivindicações anexas. Mais ainda, para os propósito declareza, descrições detalhadas dos bem conhecidos dispositivos, circuitos, emétodos são omitidos a fim de não obscurecer a descrição do presentesistema.
Deve ser expressamente entendido que os desenhos sãoincluídos para propósitos ilustrativos e não representam o escopo do presentesistema.
FIG. 1 mostra um fluxograma 100 de acordo com umamodalidade do presente sistema. Durante o ato 110, o processo começa. Daíem diante, durante o ato 120, dados de iluminação de ambiente relacionadoscom o conteúdo de vídeo, daqui em diante denominado dados de iluminaçãode ambiente baseados em vídeo, é recebido. Os dados de iluminação deambiente baseados em vídeo podem ser recebidos em uma forma de umroteiro de luz que é produzido interno ou externo para o sistema, tal comodivulgado no Pedido de Patente Internacional de N0 de série IB2006/053524(Arquivo do Procurador No. 003663) depositado em 27 de Setembro de 2006,que reivindica os benefícios dos Pedidos de Patente Internacionais de Nos desérie 60/722.903 e 60/826.117, todos os quais são requeridos para orequerente dos mesmos, e o conteúdo de todos que é incorporado aqui paraem sua totalidade. Em uma modalidade, o roteiro de luz é produzido externoao sistema, por exemplo através de um serviço de definição de roteiro de luzque fornece um roteiro de luz relacionado ao particular conteúdo de vídeo. Oroteiro de luz pode ser recuperado a partir de uma fonte externa acessível, porexemplo, a partir de uma conexão com fio ou sem fio com a Internet. Nestamodalidade, o conteúdo de vídeo ou um meio suportando o conteúdo de vídeopode incluir um identificador para o conteúdo e/ou um identificador pode serdiscernido diretamente a partir do conteúdo. O identificador pode ser utilizadopara recuperar um roteiro de luz que corresponde ao conteúdo de vídeo. Emuma outra modalidade, o roteiro de luz pode ser armazenado ou fornecido nomesmo meio que o conteúdo de áudio-visual conteúdo. Nesta modalidade, oidentificador pode ser desnecessário para recuperar o correspondente roteirode luz.
Em uma outra modalidade, o conteúdo de vídeo pode serprocessado para produzir os dados de iluminação de ambiente baseados emvídeo relacionados ao conteúdo de vídeo durante o ato 130. O processamento,em uma forma de analisar o conteúdo de vídeo ou porções dele, pode serefetuado bem antes de representar o conteúdo de vídeo ou pode ser efetuadoem conteúdo de vídeo armazenado e acessível. O Pedido de Patente PCT WO2004/006570 incorporado aqui para referência como se configurado em suatotalidade divulga um sistema e dispositivo para controlar efeitos deiluminação de ambiente baseado nas características de cor do conteúdo, talcomo matiz, saturação, luminosidade, cores, velocidade de mudança de cena,caracteres reconhecidos, humor detectado, etc. Em operação, o sistemaanalisa o conteúdo recebido e pode utilizar a distribuição do conteúdo, talcomo cor média, sobre um ou mais quadros do conteúdo de vídeo ou utilizarporções do conteúdo de vídeo que são posicionadas próxima a fronteira do umou mais quadros produzir os dados de iluminação de ambiente baseados emvídeo relacionados com o conteúdo de vídeo. Media temporal pode serutilizada para suavizar as transições temporais nos dados de iluminação deambiente baseados em vídeo, causadas por mudanças rápidas no conteúdo devídeo analisado.
O Pedido de Patente Internacional de N0 de Série No.IB2006/053524 também divulga um sistema para analisar o conteúdo devídeo para produzir dados de iluminação de ambiente baseados em vídeorelacionados com o conteúdo de vídeo. Nesta modalidade, elementos mínimosde imagem do conteúdo de vídeo são analisados para identificar elementosmínimos de imagem que fornecem uma cor coerente enquanto elementosmínimos de imagem de cor não coerente são descartados. Os elementosmínimos de imagem de cor coerente são então utilizados para produzir osdados de iluminação de ambiente baseados em vídeo.Há numerosos outros sistemas para determinar os dados deiluminação de ambiente baseados em vídeo incluindo análises de histogramado conteúdo de vídeo, análises dos campos de cor do conteúdo de vídeo, etc.Como prontamente pode ser apreciado por uma pessoa de qualificaçãosimples na arte, qualquer dos sistemas pode ser aplicado para produzir osdados de iluminação de ambiente baseados em vídeo de acordo com opresente sistema.
Os dados de iluminação de ambiente baseados em vídeopodem incluir dados para controlar características de iluminação de ambientetal como matiz, saturação, luminosidade, cor, etc. de um ou mais elementosde iluminação de ambiente. Por exemplo, em uma modalidade de acordo como presente sistema, os dados de iluminação de ambiente baseados em vídeodeterminam pontos de cor dependente do tempo de um ou mais elementos deiluminação de ambiente para corresponder ao conteúdo de vídeo.
Durante o ato 140, o presente sistema recebe dados deiluminação de ambiente relacionados com o conteúdo de áudio, daqui emdiante denominado dados de iluminação de ambiente baseados em áudio. Osdados de iluminação de ambiente baseados em áudio podem, similar aosdados de iluminação de ambiente baseados em vídeo, serem recebidos naforma de um roteiro de dados de iluminação de ambiente baseados em áudio.Em uma modalidade, o roteiro de luz baseado em áudio é produzido externoao sistema, por exemplo através de um serviço de definição de roteiro de luzque fornece um roteiro de luz relacionado com o particular conteúdo de áudio.O roteiro de luz pode ser recuperado a partir de uma fonte externa acessível,por exemplo, a aprtir de uma conexão com fio ou sem fio com a Internet.Nesta modalidade, o conteúdo de áudio ou um meio suportando o conteúdo deáudio pode incluir um identificador para o conteúdo e/ou um identificadorpode ser discernido diretamente a partir do conteúdo. Em uma outramodalidade, o identificador determinado a partir do conteúdo de vídeo podeser utilizado para recuperar o roteiro de luz baseao em áudio como o conteúdode áudio tipicamente correspondente ao conteúdo de vídeo do conteúdo deáudio-visual. Em qualquer evento, o identificador, se ele for baseado emáudio ou baseado em vídeo, pode ser utilizado para recuperar um roteiro deluz que corresponde ao conteúdo de áudio. Em uma modalidade, o roteiro deluz baseado em áudio pode ser acessível, por exemplo, a partir de um meioonde o conteúdo de áudio-visual é armazenado sem o uso de um identificador.
Em uma outra modalidade, o conteúdo de áudio pode serprocessado para produzir os dados de iluminação de ambiente baseados emáudio relacionados com o conteúdo de áudio durante o ato 150. Oprocessamento, em uma forma de analisar o conteúdo de áudio ou porçõesdele, pode ser efetuado bem antes de representar o conteúdo de audio-visualconteúdo ou pode ser efetuado em conteúdo de áudio armazenado e acessível.
Análises de áudio para produzir os dados de iluminação de ambiente baseadosem áudio podem incluir análises, de uma freqüência do conteúdo de áudio, deuma faixa de freqüência do conteúdo de áudio, energia do conteúdo de áudio,amplitude de energia de áudio, batida do conteúdo de áudio, ritmo doconteúdo de áudio, e outros sistemas para determinar características doconteúdo de áudio como prontamente pode ser aplicado. Em uma outramodalidade, análises de histogramas do conteúdo de áudio podem serutilizadas, tal como análises de histograma de áudio em um domínio defreqüência. Média temporal pode ser utilizada para suavizar as transiçõestemporais nos dados de iluminação de ambiente baseados em áudio, causadasatravés de mudanças rápidas no conteúdo de áudio analisado. Analisar oconteúdo de áudio pode identificar e utilizar outras características doconteúdo de áudio incluindo batidas por minuto; chave, tal como chavesgrandes e pequenas, e chave absoluta do conteúdo de áudio; intensidade; e/ouclassificação tal como clássico, pop, debate, filme. Ainda, dados que sãoseparados do próprio conteúdo de áudio podem ser analisados, mas quepodem ser associados com os áudio dados, tal como dados auto-explicativosque são associados com o conteúdo de áudio. Como prontamente pode serapreciado por uma pessoa de qualificação simples na arte, qualquer sistemasde discernir características do conteúdo de áudio pode ser aplicado paraproduzir os dados de iluminação de ambiente baseados em áudio de acordocom o presente sistema.
Os dados de iluminação de ambiente baseados em áudiopodem incluir dados para controlar características de iluminação de ambientetal como dinâmicas (p.ex., luminosidade, saturação, etc.) de um ou maiselementos de iluminação de ambiente assim como modular características deiluminação de ambiente baseadas em vídeo conforme descrito aqui. Os dadosde iluminação de ambiente baseados em áudio podem ser utilizados paradeterminar dados para controlar características de iluminação de ambiente quesão similares e/ou complementares as características de iluminação deambiente baseadas em vídeo determinadas.
Durante o ato 160, os dados de iluminação de ambientebaseados em vídeo e os dados de iluminação de ambiente baseados em áudiosão combinados para formar dados de iluminação de ambiente combinados.Tipicamente, o conteúdo de vídeo e o conteúdo de áudio são sincronizadosem conteúdo de áudio-visual. Como tal, os dados de iluminação de ambientebaseados em vídeo e os dados de iluminação de ambiente baseados em áudiosão fornecidos como seqüências temporais de dados. Conseqüentemente,porções temporais dos dados de iluminação de ambiente baseados em vídeo edos dados de iluminação de ambiente baseados em áudio podem sercombinadas para produzir os dados de iluminação de ambiente combinadosque também são sincronizadas ao conteúdo de áudio-visual e podem serrepresentadas como tal durante o ato 170. Após representação, o processotermina durante o ato 180.
Em uma modalidade de acordo com o presente sistema, osdados de iluminação de ambiente baseados em vídeo podem ser utilizadospara determinar características de cor dos dados de iluminação de ambiente,tal como pontos de cor. Os dados de iluminação de ambiente baseados emáudio podem então be aplicados para modular os pontos de cor, tal comoajustar dinâmicas dos pontos de cor determinados de vídeo.
Por exemplo, em uma seqüência de áudio-visual onde os dadosde iluminação de ambiente baseados em vídeo determinam configurar umasdadas características de iluminação de ambiente para um dado ponto de cordurante uma dada porção temporal, os dados de iluminação de ambientebaseados em áudio em combinação com os dados de iluminação de ambientebaseados em vídeo podem ajustar a cor para um controlador (p.ex., menosbrilho) de cor com base na baixa energia de áudio durante a correspondenteseqüência de áudio-visual. De forma similar, em uma seqüência de áudio-visual onde os dados de iluminação de ambiente baseados em vídeodeterminam configurar características de iluminação de ambiente para umdado ponto de cor, o conteúdo de áudio pode ajustar a cor para uma cor maisluminosa com base na alta energia de áudio durante a correspondenteseqüência de áudio-visual. De forma clara, outros sistemas para combinar osdados de iluminação de ambiente baseados em vídeo e os dados deiluminação de ambiente baseados em áudio ocorreriam para uma pessoa dequalificação simples na arte e são pretendidos para serem entendidos estaremdentro dos limites do presente sistema e das reivindicações anexas. Destamaneira, os dados de iluminação de ambiente combinados podem serutilizados para controlar um ou mais elementos de iluminação de ambientepara responder a ambos de áudio representado e correspondente conteúdo devídeo. Em uma modalidade de acordo com o presente sistema, um usuáriopode ajustar a influência que cada conteúdo de vídeo e de áudio tem nosdados de iluminação de ambiente combinados. Por exemplo, o usuário podedecidir que os dados de iluminação de ambiente baseados em áudio tem umefeito menor ou maior nos dados de iluminação de ambiente baseados emvídeo ao determinar os dados de iluminação de ambiente combinados.
Em uma modalidade adicional, o conteúdo de áudio econteúdo de vídeo podem ser conteúdos separados não previamentearrumados como conteúdo de áudio-visual. Por exemplo, uma seqüência deimagem ou de vídeo pode ter conteúdo de áudio pretendido para representardurante a seqüência de imagem ou de vídeo. De acordo com o presentesistema, os dados de iluminação de ambiente baseados em vídeo podem sermodulados através dos dados de iluminação de ambiente baseados em áudiosimilar como fornecido acima para o conteúdo de áudio-visual. Em umamodalidade adicional, múltiplas porções de áudio podem ser fornecidas pararepresentação com o conteúdo de vídeo. De acordo com o presente sistema,uma e/ou a outra das porções de áudio pode ser utilizada para determinar osdados de iluminação de ambiente baseados em áudio.
Enquanto a FIG. 1 mostra os dados de iluminação de ambientebaseados em vídeo e os dados de iluminação de ambiente baseados em áudiosendo recebidos separadamente, claramente não há necessidade de ter cadaum recebido separadamente. Por exemplo, um roteiro de iluminação deambiente recebido pode ser produzido que é determinado com base em ambasdas características de áudio e visual do conteúdo de audio-visual. Ainda osatos 130 e 150 podem ser fornecidos substancialmente, de forma simultânea,tal que dados de iluminação de ambiente combinados são produzidosdiretamente sem uma necessidade de produzir separados dados de iluminaçãode ambiente baseados em vídeo e dados de iluminação de ambiente baseadosem áudio que são de forma subseqüente combinados. Outras variaçõesprontamente irão ocorrer para uma pessoa com qualificação simples na arte esão pretendidas para serem incluídas dentro do presente sistema.
Em uma modalidade de acordo com o presente sistema, emcombinando os dados de iluminação de ambiente baseados em vídeo com osdados de iluminação de ambiente baseados em áudio, os dados de iluminaçãode ambiente baseados em áudio, podem ser utilizados para determinarcaracterísticas de iluminação de ambiente, baseadas em áudio similar comodiscutido para os dados de iluminação de ambiente baseados em vídeo, quesão a partir daí modulados através dos dados de iluminação de ambientebaseados em vídeo. Por exemplo, em uma modalidade, características dosdados de iluminação de ambiente baseados em áudio podem ser mapeadaspara características da iluminação de ambiente. Desta maneira, umacaracterística do áudio, tal como um dado número de batidas por minuto dosdados de áudio, pode ser mapeado para uma dada cor da iluminação deambiente. Por exemplo, uma determinada cor de iluminação de ambiente podeser mapeada para uma faixa de batidas por minuto. Naturalmente, outrascaracterísticas do áudio e da iluminação de ambiente prontamente podem ser,de forma similar, mapeadas.
Em ainda uma outra modalidade, as características deiluminação de ambiente baseadas em vídeo podem ser modulados tal que umpadrão baseado em áudio é produzido utilizando determinadas cores a partirdas características de iluminação de ambiente baseada em vídeo, similar auma apresentação de medidor de VU como pode ser prontamente apreciadopor uma pessoa de qualificação simples na arte. Por exemplo, em um sistemade iluminação de ambiente estruturado por elementos mínimos de imagem,porções individuais do sistema de iluminação de ambiente estruturado porelementos mínimos de imagem podem ser moduladas através dos dados deiluminação de ambiente baseados em áudio. Em uma apresentação comomedidor de VU, a modulação de áudio da apresentação pode ser fornecida apartir de uma porção baixa progredindo para cima em um sistema deiluminação de ambiente ou o reverso (p.ex., do topo progredindo para baixo)pode ser fornecido. Ainda, a progressão pode ser da esquerda para a direita oudas extremidades para uma porção do centro do sistema de iluminação deambiente.
Como pode ser ainda apreciado, já que dados de iluminação deambiente baseados em áudio podem tipicamente ser diferentes para diferentescanais dos dados de áudio, incluindo, os dados do canal esquerdo, os dados docanal direito, os dados do canal central, os dados do canal traseiro esquerdo,os dados do canal traseiro direito, etc., cada um dessas porções de dados deáudio posicionais, ou partes delas, podem se refere prontamente utilizadas emcombinação com as características e dados de iluminação de ambientebaseados em vídeo. Por exemplo, a porção das características de iluminaçãode ambiente baseadas em vídeo pretendida para apresentação em um ladoesquerdo de um visor podem ser combinadas com um canal esquerdo dosdados de iluminação de ambiente baseados em áudio enquanto a porção dascaracterísticas de iluminação de ambiente baseadas em vídeo pretendidas paraapresentação em um lado direito do visor podem ser combinadas com umcanal direito dos dados de iluminação de ambiente baseados em áudio. Outrascombinações de porções dos dados de iluminação de ambiente baseados emvídeo e porções dos dados de iluminação de ambiente baseados em áudiopodem ser prontamente aplicadas.
FIG. 2 mostra um dispositivo 200 de acordo com umamodalidade do presente sistema. O dispositivo tem um processador 210operacionalmente acoplado a uma memória 220, um dispositivo deapresentação de vídeo (p.ex., visor) 230, um dispositivo de apresentação deáudio (p.ex., alto-falantes) 280, elementos de iluminação de ambiente 250,260, um entrada/saída (I/O) 240 e um dispositivo de entrada de usuário 270.A memória 220 pode ser qualquer tipo de dispositivo para armazenar dadosde aplicativo de armazenamento assim como outros dados, tal como, dados deiluminação de ambiente, dados de áudio, dados de vídeo, dados demapeamento, etc. Os dados de aplicativo e outros dados são recebidos peloprocessador 210 para configurar o processador 210 para efetuar operação dosatos de acordo com o presente sistema. A operação dos atos inclui controlarpelo menos, um do visor 230 para apresentar conteúdo e controlar um ou maisdos elementos de iluminação de ambiente 250, 260 para exibir efeitos deiluminação de ambiente de acordo com o presente sistema. A entrada deusuário 270 pode incluir um teclado, um mouse, ou outros dispositivos,incluindo visores sensíveis a toque, que podem ser autônomos ou serem umaparte de um sistema, tal como parte de um computador pessoal, assistentedigital pessoal, e dispositivo de exibição tal como uma televisão, para secomunicar com o processador através de qualquer tipo de elo decomunicação, tal como um elo de comunicação com fio ou sem fio.Claramente o processador 210, a memória 220, o visor 230, os elementos deiluminação de ambiente 250, 260 e/ou a entrada de usuário 270 pode todos ouparcialmente ser uma porção de uma plataforma de televisão, tal como umatelevisão autônoma ou pode ser dispositivos autônomos.
Os métodos do presente sistema são particularmenteadequados para serem realizados através de um programa de software decomputador, tal programa de software de computador preferencialmentecontendo módulos correspondendo aos passos individuais ou aos atos dosmétodos. Tal software pode, é claro, ser embutido em um meio legível porcomputador, tal como um chip integrado, um dispositivo periférico ou umamemória, tal como uma memória 220 ou outra memória acoplada aoprocessador 210.
O meio legível por computador e/ou a memória 220 pode serqualquer meio gravável (p.ex., RAM, ROM, memória removível, CD- ROM,discos rígidos, DVD, discos flexíveis ou cartões de memória) ou pode ser ummeio de transmissão (p.ex., a rede compreendendo fibras ópticas, a grandeteia mundial, cabos, ou um canal sem fio usando múltiplo acesso por divisãode tempo, múltiplo acesso por divisão de código, ou outro canal de freqüênciade rádio). Qualquer meio conhecido ou desenvolvido que pode fornecerinformação adequada para uso com um sistema de computador pode ser usadocomo o meio legível por computador e/ou a memória 220.
Memórias adicionais também podem ser usadas. O meiolegível por computador, a memória 220, e/ou quaisquer outras memóriaspodem ser voláteis, não voláteis, ou uma combinação de memórias voláteis enão voláteis. As memórias configuram o processador 210 para implementaros métodos, atos operacionais, e funções divulgadas aqui. As memóriaspodem ser distribuídas ou locais e o processador 210, onde processadoresadicionais podem ser fornecidos, pode também ser distribuído, como porexemplo com base dentro dos elementos de iluminação de ambiente, ou podeser singular. As memórias podem ser implementadas como memória elétrica,magnética ou óptica, ou qualquer combinação desses ou outros tipos dedispositivos de armazenamento. Mais ainda, o termo "memória" deve serentendido bem amplamente para englobar qualquer informação capaz de serlida de ou escrita em um endereço no espaço endereçável acessado através deum processador. Com esta definição, informação em uma rede é fixa dentroda memória 220, por exemplo, porque o processador 210 pode recuperar ainformação da rede para operação de acordo com o presente sistema.
O processador 210 é capaz de fornecer sinais de controle e/ouefetuar operações em resposta aos sinais de entrada a partir da entrada deusuário 270 e executar as instruções armazenadas na memória 220. Oprocessador 210 pode ser de circuito(s) integrado(s) específico para aplicativoou de uso geral. Ainda, o processador 210 pode ser um processador dedicadopara desempenho de acordo com o presente sistema ou pode ser umprocessador de propósito geral onde somente uma de muitas funções operampara desempenhar de acordo com o presente sistema. O processador 210 podeoperar utilizando uma porção de programa, múltiplos segmentos de programa,ou pode ser um dispositivo de hardware utilizando um circuito dedicado oucircuito integrado de múltiplo propósito.O Ι/Ο 240 pode ser utilizada para transferir um identificadorde conteúdo, para receber uma ou mais roteiros de luz, e/ou para outrasoperações como descrito acima.
E claro que é, para ser apreciado que qualquer uma dasmodalidades ou processos acima podem ser combinados com uma ou maisoutras modalidades ou processos ou serem separados de acordo com opresente sistema.
Finalmente, a discussão acima é pretendida para sermeramente ilustrativa do presente sistema e não deve ser entendida comolimitando as reivindicações anexas para qualquer particular modalidade ougrupo de modalidades. Assim sendo, enquanto o presente sistema tem sidodescrito com referência as modalidades exemplares, também deve serapreciado que numerosas modificações e modalidades alternativas podem serconcebidas por aqueles tendo qualificação simples na arte sem fugir do maisamplo e pretendio espírito e escopo do presente sistema como estabelecidonas reivindicações que seguem. Conseqüentemente, as especificações edesenhos são para serem considerados de uma maneira ilustrativa e não sãopretendidos para limitar o escopo das reivindicações anexas.
Interpretando as reivindicações anexas, deve ser entendido que:
a) a palavra "compreendendo" não exclui a presença de outroselementos ou atos do que aqueles listados em uma dade acordo com areivindicação;
b) a palavra "um" ou "uma" precedendo um elemento nãoexclui a presença de uma grande quantidade de tais elementos;
c) quaisquer sinais de referência nas reivindicações nãolimitam sue escopo;
d) vários "meios" podem ser representados pelo mesmo itemou estrutura ou função implementada de hardware ou software;e) qualquer dos elementos divulgados pode ser compreendidode porções de hardware (p.ex., incluindo circuito eletrônico discreto eintegrado), de porções de software (p.ex., programação de computador), equalquer combinação deles;
f) porções de hardware podem ser compreendidas de uma ouambas de porções analógica e digitais;
g) qualquer dos dispositivos divulgados ou porções delespodem ser combinadas junto ou separado em ainda porções ao menos queespecificamente colocado ao contrário; e
h) nenhuma seqüência específica dos atos ou passos épretendida ser requerida ao menos que especificamente indicado.

Claims (21)

1. Método para controlar um elemento de iluminação deambiente, caracterizado pelo fato de compreender os atos de:- processar dados de iluminação de ambiente combinados, emque os dados de iluminação de ambiente combinados são baseados nasporções de conteúdo de vídeo porções e correspondentes porções de conteúdode áudio; e- controlar um elemento de iluminação de ambiente com basenos dados de iluminação de ambiente combinados processados.
2. Método de acordo com a reivindicação 1, caracterizado pelofato de compreender um ato de receber os dados de iluminação de ambientecombinados como um roteiro de iluminação de ambiente combinado.
3. Método de acordo com a reivindicação 1, caracterizado pelofato de compreender os atos de:- receber dados de iluminação de ambiente baseados em vídeo;- receber dados de iluminação de ambiente baseados em áudio;e- combinar os dados de iluminação de ambiente baseados emvídeo recebidos e os dados de iluminação de ambiente baseados em áudiorecebidos para produzir os dados de iluminação de ambiente combinados.
4. Método de acordo com a reivindicação 3, caracterizado pelofato de que o ato de combinar compreende o ato de modular os dados deiluminação de ambiente baseados em vídeo através dos dados de iluminaçãode ambiente baseados em áudio.
5. Método de acordo com a reivindicação 3, caracterizado pelofato de comprender um ato de analisar o conteúdo de vídeo para produzir osdados de iluminação de ambiente baseados em vídeo.
6. Método de acordo com a reivindicação 5, caracterizado pelofato de que o ato de analisar o conteúdo de vídeo compreende um ato dedeterminar uma grande quantidade de pontos de cor como os dados deiluminação de ambiente baseados em vídeo.
7. Método de acordo com a reivindicação 3, caracterizado pelofato de compreender um ato de analisar o conteúdo de áudio para produzir osdados de iluminação de ambiente baseados em áudio.
8. Método de acordo com a reivindicação 7, caracterizado pelofato de que o ato de analisar o conteúdo de áudio compreende um ato deanalisar pelo menos, um de uma freqüência, uma faixa de freqüência, e umaamplitude das correspondentes porções de conteúdo de áudio.
9. Método de acordo com a reivindicação 7, caracterizado pelofato de que o ato de analisar o conteúdo de áudio compreende um ato deanalisar porções temporais do conteúdo de áudio para produzir porçõestemporais de dados de iluminação de ambiente baseados em áudio.
10. Método de acordo com a reivindicação 7, caracterizadopelo fato de que o ato de analisar o conteúdo de áudio compreende um ato deanalisar porções posicionais do conteúdo de áudio para produzir porçõesposicionais de dados de iluminação de ambiente baseados em áudio.
11. Método de acordo com a reivindicação 3, caracterizadopelo fato de que o ato de combinar compreende os atos de:- determinar um ponto de cor com base nos dados deiluminação de ambiente baseados em vídeo recebidos; e- utilizar os dados de iluminação de ambiente baseados emáudio para ajustar dinâmicas do ponto de cor.
12. Aplicativo embutido em um meio legível por computadorconfigurado para controlar um elemento de iluminação de ambiente,caracterizado pelo fato de compreender:- uma porção configurada para processar os dados deiluminação de ambiente combinados, em que os dados de iluminação deambiente combinados correspondem as porções de conteúdo de vídeo e asporções de conteúdo de áudio; e- uma porção configurada para controlar um elemento deiluminação de ambiente com base nos dados de iluminação de ambientecombinados processados.
13. Aplicativo de acordo com a reivindicação 12, caracterizadopelo fato de compreender:- uma porção configurada para receber dados de iluminação deambiente baseados em vídeo;- uma porção configurada para receber dados de iluminação deambiente baseados em áudio; e- uma porção configurada para combinar os dados deiluminação de ambiente baseados em vídeo recebidos e os dados deiluminação de ambiente baseados em áudio recebidos para produzir os dadosde iluminação de ambiente combinados.
14. Aplicativo de acordo com a reivindicação 12, caracterizadopelo fato de compreender:- uma porção configurada para analisar o conteúdo de vídeopara produzir os dados de iluminação de ambiente baseados em vídeo, em quea porção configurada para analisar o conteúdo de vídeo é configurada paradeterminar um ponto de cor color como os dados de iluminação de ambientebaseados em vídeo.
15. Aplicativo de acordo com a reivindicação 12, caracterizadopelo fato de compreender uma porção configurada para analisar o conteúdo deáudio para produzir os dados de iluminação de ambiente baseados em áudio,em que a porção configurada para analisar o conteúdo de áudio é configuradapara analisar porções do conteúdo de áudio para produzir porções de dados deiluminação de ambiente baseados em áudio como os dados de iluminação deambiente baseados em áudio.
16. Aplicativo de acordo com a reivindicação 15, caracterizadopelo fato de que as porções de dados de iluminação de ambiente baseados emáudio são pelo menos, um de posicionalmente e temporalmente divididos emporções.
17. Aplicativo de acordo com a reivindicação 15, caracterizadopelo fato de que a porção configurada para analisar o conteúdo de áudio éconfigurada para analisar pelo menos, um de uma freqüência, uma faixa defreqüência, e uma amplitude das correspondentes porções de conteúdo deáudio.
18. Aplicativo de acordo com a reivindicação 12, caracterizadopelo fato de compreender uma porção configurada para determinar um pontode cor com base nos dados de iluminação de ambiente baseados em vídeo, emque a porção configurada para combinar é configurada para utilizar os dadosde iluminação de ambiente baseados em áudio para ajustar dinâmicas doponto de cor.
19. Dispositivo para controlar um elemento de iluminação deambiente, caracterizado pelo fato de compreender:- uma memória (220); e- um processador (210) operacionalmente acoplado a umamemória (220), em que o processador (210) é configurado para:analisar o conteúdo de vídeo para produzir dados deiluminação de ambiente baseados em vídeo;analisar o conteúdo de áudio para produzir dados deiluminação de ambiente baseados em áudio; ecombinar os dados de iluminação de ambiente baseados emvídeo e os dados de iluminação de ambiente baseados em áudio para produzirdados de iluminação de ambiente combinados.
20. Dispositivo de acordo com a reivindicação 19,caracterizado pelo fato de que o processador (210) é configurado para:- analisar o conteúdo de vídeo para produzir um ponto de corcomo os dados de iluminação de ambiente baseados em vídeo; e- utilizar os dados de iluminação de ambiente baseados emáudio para modular o ponto de cor.
21. Dispositivo de acordo com a reivindicação 19,caracterizado pelo fato de que o processador (210) é configurado para analisarpelo menos, uma de porções temporais e posicionais do conteúdo de áudiopara produzir os dados de iluminação de ambiente baseados em áudio.
BRPI0710211-9A 2006-03-31 2007-03-27 método e dispositivo para controlar um elemento de iluminação de ambiente, e, aplicativo embutido em um meio legìvel por computador configurado para controlar um elemento de iluminação de ambiente BRPI0710211A2 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US78846706P 2006-03-31 2006-03-31
US60/788467 2006-03-31
US86664806P 2006-11-21 2006-11-21
US60/866648 2006-11-21
PCT/IB2007/051075 WO2007113738A1 (en) 2006-03-31 2007-03-27 Combined video and audio based ambient lighting control

Publications (1)

Publication Number Publication Date
BRPI0710211A2 true BRPI0710211A2 (pt) 2011-05-24

Family

ID=38255769

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0710211-9A BRPI0710211A2 (pt) 2006-03-31 2007-03-27 método e dispositivo para controlar um elemento de iluminação de ambiente, e, aplicativo embutido em um meio legìvel por computador configurado para controlar um elemento de iluminação de ambiente

Country Status (8)

Country Link
US (1) US20100265414A1 (pt)
EP (1) EP2005801A1 (pt)
JP (1) JP2009531825A (pt)
KR (1) KR20090006139A (pt)
BR (1) BRPI0710211A2 (pt)
MX (1) MX2008012429A (pt)
RU (1) RU2460248C2 (pt)
WO (1) WO2007113738A1 (pt)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010007987A1 (ja) * 2008-07-15 2012-01-05 シャープ株式会社 データ送信装置、データ受信装置、データ送信方法、データ受信方法および視聴環境制御方法
CZ301933B6 (cs) * 2008-10-29 2010-08-04 Nušl@Jaroslav Zpusob rízení zejména svetelné techniky zvukovým signálem a zarízení k provádení tohoto zpusobu
US20120287334A1 (en) 2010-01-27 2012-11-15 Koninklijke Philips Electronics, N.V. Method of Controlling a Video-Lighting System
US8666254B2 (en) 2011-04-26 2014-03-04 The Boeing Company System and method of wireless optical communication
US20130147395A1 (en) 2011-12-07 2013-06-13 Comcast Cable Communications, Llc Dynamic Ambient Lighting
EP2605622B1 (en) * 2011-12-15 2020-04-22 Comcast Cable Communications, LLC Dynamic ambient lighting
US8928812B2 (en) * 2012-10-17 2015-01-06 Sony Corporation Ambient light effects based on video via home automation
US8928811B2 (en) * 2012-10-17 2015-01-06 Sony Corporation Methods and systems for generating ambient light effects based on video content
US8576340B1 (en) 2012-10-17 2013-11-05 Sony Corporation Ambient light effects and chrominance control in video files
US9245443B2 (en) 2013-02-21 2016-01-26 The Boeing Company Passenger services system for an aircraft
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9380443B2 (en) 2013-03-12 2016-06-28 Comcast Cable Communications, Llc Immersive positioning and paring
US20150312648A1 (en) * 2014-04-23 2015-10-29 Verizon Patent And Licensing Inc. Mobile device controlled dynamic room environment using a cast device
CN110460821A (zh) * 2014-06-30 2019-11-15 日本电气株式会社 引导处理装置和引导方法
GB2535135B (en) * 2014-11-20 2018-05-30 Ambx Uk Ltd Light Control
US9480131B1 (en) * 2015-05-28 2016-10-25 Sony Corporation Configuration of ambient light using wireless connection
KR20170096822A (ko) * 2016-02-17 2017-08-25 삼성전자주식회사 오디오 재생 장치 및 그의 동작 제어 방법
ES2874191T3 (es) * 2016-10-03 2021-11-04 Signify Holding Bv Procedimiento y aparato para controlar luminarias de un sistema de iluminación con base en un modo actual de un dispositivo de entretenimiento
CN106804076B (zh) * 2017-02-28 2018-06-08 深圳市喜悦智慧实验室有限公司 一种智能家居的照明系统
US20180295317A1 (en) * 2017-04-11 2018-10-11 Motorola Mobility Llc Intelligent Dynamic Ambient Scene Construction
EP3448127A1 (en) * 2017-08-21 2019-02-27 TP Vision Holding B.V. Method for controlling light presentation of a light system during playback of a multimedia program
CN111034366A (zh) 2017-09-01 2020-04-17 昕诺飞控股有限公司 基于视听内容呈现动态光场景
JP6921345B1 (ja) * 2018-06-15 2021-08-18 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 照明シーンに基づいてメディアコンテンツを選択するための方法及びコントローラ
US11012659B2 (en) 2018-08-07 2021-05-18 International Business Machines Corporation Intelligent illumination and sound control in an internet of things (IoT) computing environment
CN112913331B (zh) * 2018-11-01 2024-04-16 昕诺飞控股有限公司 根据视频和音频权重而基于视频和音频信息来确定光效果
EP3909046B1 (en) * 2019-01-09 2022-08-31 Signify Holding B.V. Determining a light effect based on a degree of speech in media content
WO2020151993A1 (en) * 2019-01-21 2020-07-30 Signify Holding B.V. A controller for controlling a lighting device based on media content and a method thereof
US11317137B2 (en) * 2020-06-18 2022-04-26 Disney Enterprises, Inc. Supplementing entertainment content with ambient lighting
US11960576B2 (en) * 2021-07-20 2024-04-16 Inception Institute of Artificial Intelligence Ltd Activity recognition in dark video based on both audio and video content
WO2023046673A1 (en) 2021-09-24 2023-03-30 Signify Holding B.V. Conditionally adjusting light effect based on second audio channel content
US12295081B2 (en) 2022-01-06 2025-05-06 Comcast Cable Communications, Llc Video display environmental lighting
US11695980B1 (en) * 2022-11-07 2023-07-04 Roku, Inc. Method and system for controlling lighting in a viewing area of a content-presentation device
US20250336159A1 (en) * 2024-04-30 2025-10-30 Royal Caribbean Cruises, Ltd. Nested mixed reality voyages

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61135093A (ja) * 1984-12-05 1986-06-23 日本ビクター株式会社 音楽応動照明装置
SU1432801A1 (ru) * 1987-03-13 1988-10-23 Войсковая Часть 25840 Телевизионный цветосинтезатор
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5461188A (en) * 1994-03-07 1995-10-24 Drago; Marcello S. Synthesized music, sound and light system
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
GB2354602A (en) * 1999-09-07 2001-03-28 Peter Stefan Jones Digital controlling system for electronic lighting devices
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6862022B2 (en) * 2001-07-20 2005-03-01 Hewlett-Packard Development Company, L.P. Method and system for automatically selecting a vertical refresh rate for a video display monitor
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
BR0305349A (pt) * 2002-07-04 2004-10-05 Koninkl Philips Electronics Nv Método e sistema para controlar uma luz ambiente, e, unidade de iluminação
EP1525747B1 (en) * 2002-07-04 2008-10-08 Koninklijke Philips Electronics N.V. Method of and system for controlling an ambient light and lighting unit
US6986598B2 (en) * 2003-05-05 2006-01-17 Yao-Wen Chu Backlight module for a double-sided LCD device
US20070121965A1 (en) * 2004-01-28 2007-05-31 Koninklijke Philips Electronics N.V. Automatic audio signal dynamic range adjustment
EP1763974A1 (en) * 2004-06-30 2007-03-21 Koninklijke Philips Electronics N.V. Ambient lighting derived from video content and with broadcast influenced by perceptual rules and user preferences
CN1703131B (zh) * 2004-12-24 2010-04-14 北京中星微电子有限公司 一种音乐控制发光灯组的亮度和颜色的方法
CA2548232A1 (en) * 2005-05-24 2006-11-24 Anton Sabeta A method & system for tracking the wearable life of an ophthalmic product
US20060267917A1 (en) * 2005-05-25 2006-11-30 Cisco Technology, Inc. System and method for managing an incoming communication
TWM291088U (en) * 2005-12-08 2006-05-21 Upec Electronics Corp Illuminating device

Also Published As

Publication number Publication date
EP2005801A1 (en) 2008-12-24
MX2008012429A (es) 2008-10-10
US20100265414A1 (en) 2010-10-21
WO2007113738A1 (en) 2007-10-11
RU2008143243A (ru) 2010-05-10
RU2460248C2 (ru) 2012-08-27
JP2009531825A (ja) 2009-09-03
KR20090006139A (ko) 2009-01-14

Similar Documents

Publication Publication Date Title
BRPI0710211A2 (pt) método e dispositivo para controlar um elemento de iluminação de ambiente, e, aplicativo embutido em um meio legìvel por computador configurado para controlar um elemento de iluminação de ambiente
JP5676264B2 (ja) 家庭用娯楽システムに利用可能な照明効果の自動識別を備えた照明管理システム
CN104798444B (zh) 用于基于从舞台表演导出的数据创建气氛照明效果的方法
US8233097B2 (en) Scanning projector ambient lighting system
US20100177247A1 (en) Ambient lighting
RU2012140181A (ru) Устройство воспроизведения контента, телевизионный приемник, способ воспроизведения контента, программа воспроизведения контента и носитель записи
US20100176752A1 (en) Event based ambient lighting control
US10235967B2 (en) Information processing device and information processing method
CN101416562A (zh) 组合的基于视频和音频的环境照明控制
US10728989B2 (en) Lighting script control
US9916862B2 (en) Method and apparatus for editing video scenes based on learned user preferences
CN101669406A (zh) 基于关键字输入来自动创建气氛,尤其是照明气氛的方法、系统和用户接口
CN111869330A (zh) 基于一种或多种灯光设置渲染动态灯光场景
CN105988369B (zh) 一种内容驱动的智能家居控制方法
JP2013218153A (ja) 照明制御装置、制御システムおよび照明制御方法
WO2007036890A2 (en) Improving living lights with color coherency
WO2007072339A2 (en) Active ambient light module
CN117062282A (zh) 灯光控制方法、装置、设备、存储介质及车辆
WO2020144196A1 (en) Determining a light effect based on a light effect parameter specified by a user for other content taking place at a similar location
WO2020125049A1 (zh) 一种基于背光调整的图像处理方法、智能电视及存储介质
CN107733755B (zh) 处理方法及其系统和计算系统
JP2025112102A (ja) 被照明物鑑賞システム

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 3A ANUIDADE.

B08G Application fees: restoration [chapter 8.7 patent gazette]
B25A Requested transfer of rights approved

Owner name: TP VISION HOLDING B.V. (NL)

B25G Requested change of headquarter approved

Owner name: TP VISION HOLDING B.V. (NL)

B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 8A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2343 DE 01-12-2015 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.