JP2010074238A - Receiver and control method therefor - Google Patents
Receiver and control method therefor Download PDFInfo
- Publication number
- JP2010074238A JP2010074238A JP2008236277A JP2008236277A JP2010074238A JP 2010074238 A JP2010074238 A JP 2010074238A JP 2008236277 A JP2008236277 A JP 2008236277A JP 2008236277 A JP2008236277 A JP 2008236277A JP 2010074238 A JP2010074238 A JP 2010074238A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- video
- output
- sound
- correction data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Receiver Circuits (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Stereophonic System (AREA)
Abstract
【課題】受信装置の能力や機能に応じて、画面の一部(放送局が指定する代表画面やユーザが選択する画面)を切り出して視聴しても、切り出し視聴している画面の位置や画角に応じてマルチチャンネル音像を適切に保つことができる受信装置およびその制御方法を提供する。
【解決手段】受信装置が、複数チャンネルの音声を伴う第1の映像を受信する受信部102と、前記第1の映像の一部を切り出して第2の映像を出力する映像出力制御部109と、前記第2の映像と共に出力するための出力音声を生成する音声出力制御部111と、を備える。受信装置は、前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定し、決定した組み合わせの入力音声を合成して前記出力音声を生成する。
【選択図】図1[PROBLEMS] To cut and view a part of a screen (a representative screen specified by a broadcast station or a screen selected by a user) according to the capability and function of a receiving apparatus, Provided are a receiving device capable of appropriately maintaining a multi-channel sound image according to a corner, and a control method thereof.
A receiving device receives a first video accompanied by a plurality of channels of audio, a video output control unit 109 that cuts out a part of the first video and outputs a second video; And an audio output control unit 111 that generates output audio to be output together with the second video. The receiving apparatus determines a combination of input sounds used for synthesizing the output sound from a plurality of channels of the input sound that is the sound of the first video, based on the cutout position of the second video. The output speech is generated by synthesizing the input speech of the combination.
[Selection] Figure 1
Description
本発明は、マルチチャンネル音声を伴う映像の一部を切り出し視聴可能な受信装置及びその制御方法に関する。 The present invention relates to a receiving apparatus that can cut out and view a part of video accompanying multi-channel audio and a control method thereof.
デジタル放送ではハイビジョン映像(2k×1k:1920×1024(以下、HDと記す場合あり))が一般的となっている。また、高度衛星デジタル放送においては、さらに高解像度(4k×2k:デジタルシネマ、8k×4k:スーパーハイビジョン(以下SHVと記す場合あり))の映像や22.2チャンネルのマルチチャンネル音声を送る方式が検討されている。 High-definition video (2k × 1k: 1920 × 1024 (hereinafter sometimes referred to as HD)) is common in digital broadcasting. Also, in advanced satellite digital broadcasting, there are methods for sending higher resolution (4k × 2k: digital cinema, 8k × 4k: Super Hi-Vision (hereinafter sometimes referred to as SHV)) video and 22.2 channel multi-channel audio. It is being considered.
これら従来の解像度を超えるスーパーハイビジョンなどの放送においては、受信装置の能力や機能に応じた表示を行うことも併せて検討されている。例えば、画面全体をダウンコンバートして視聴するケースのほかに、放送局が指定した代表画面(SHV画面の一部)やユーザが選択した画面を受信機側で切り出して視聴する形態が検討されている(以下、トリミング視聴と記す場合あり)。このとき、切り出して視聴している代表画面の位置や画角(サイズ)とマルチチャンネル音像との関係を適切に保つことが必要になってくる。 In broadcasting such as Super Hi-Vision exceeding the conventional resolution, it is also considered to perform display according to the capability and function of the receiving device. For example, in addition to the case where the entire screen is viewed by down-conversion, a mode in which a representative screen (a part of the SHV screen) designated by the broadcast station or a screen selected by the user is cut out and viewed on the receiver side is being studied. (Hereinafter referred to as trimmed viewing). At this time, it is necessary to appropriately maintain the relationship between the position and angle of view (size) of the representative screen being cut out and viewed and the multi-channel sound image.
従来、ユーザが視聴している画面に応じて、音声を切り替えるものとしては、次のものがある。特許文献1には、マルチ画面表示においてユーザがどの画面を見ているかを検出し、見ている画面に対応する音声に切り替えて出力する方法が開示されている。また特許文献2には、ユーザが指定した画面上の位置に近い音源を重み付けして合成出力することにより、音声のズームイン効果を得る方法が開示されている。
Conventionally, there are the followings for switching sounds according to the screen that the user is viewing.
他方、聴取位置がスピーカに対して非対称である環境において正しい音像を提供するものとして、聴取者近傍に置かれる音声検出手段により聴取者と各スピーカまでの距離を測定し、音場を聴取者の聴取位置に定位させる音像位置補正装置がある(特許文献3)。
通常、高解像度映像とともに送出されるマルチチャンネル音声は、その高解像度映像をフル解像度で表示し、画面の正面中央の位置で視聴する場合に最適となるよう音像が調整されている。しかし、上述のように画面の一部を切り出し視聴するような場合、その切り出し位置が画面中央部ではないケースが存在する。このとき、マルチチャンネル音声の出力バランスがオリジナルのままであると、視聴している画面と音像とにずれが生じ、違和感が発生するという問題がある。 Normally, multi-channel audio transmitted together with a high-resolution video is adjusted so that the sound image is optimal when the high-resolution video is displayed at full resolution and viewed at the center position in front of the screen. However, when a part of the screen is cut out and viewed as described above, there is a case where the cutout position is not in the center of the screen. At this time, if the output balance of the multi-channel sound remains the same, there is a problem that a difference between the screen being viewed and the sound image is generated, resulting in a sense of incongruity.
上述した従来の技術は、マルチ画面表示においてユーザが見ている画面の音声に完全に切り替えて出力するもの(特許文献1)や、ユーザが指定した画面の位置に音声をズームインさせるもの(特許文献2)である。よって、ユーザが画面の一部を切り出して視聴している場合において、マルチチャンネルの音像を最適な位置に補正することは出来なかった。一方、聴取位置に対して、適切な音像を得る従来の技術(特許文献3)は、ユーザとスピーカとの位置関係に基づく音声補正処理のみであり、視聴画面との関係が考慮されて
いなかった。
The conventional techniques described above are those that completely switch and output the sound of the screen that the user is viewing in multi-screen display (Patent Document 1), or those that zoom in the sound to the position of the screen specified by the user (Patent Document) 2). Therefore, when the user cuts out a part of the screen for viewing, the multi-channel sound image cannot be corrected to the optimum position. On the other hand, the conventional technique (Patent Document 3) for obtaining an appropriate sound image with respect to the listening position is only the sound correction processing based on the positional relationship between the user and the speaker, and the relationship with the viewing screen is not considered. .
そこで、本発明は、画面の一部を切り出し視聴する場合において、切り出された画面に応じて、適切なマルチチャンネル音像定位を得ることができる受信装置およびその制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a receiving apparatus capable of obtaining an appropriate multi-channel sound image localization according to a cut out screen when a part of the screen is cut out and viewed, and a control method therefor. .
上記目的を達成するために本発明では、以下の構成を採用する。 In order to achieve the above object, the present invention employs the following configuration.
本発明に係る受信装置は、複数チャンネルの音声を伴う第1の映像を受信する受信手段と、前記第1の映像の一部を切り出して第2の映像を出力する映像出力制御手段と、前記第2の映像と共に出力するための出力音声を生成する音声出力制御手段と、を備える受信装置において、前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する決定手段をさらに備え、前記音声出力制御手段は、前記決定手段で決定された前記入力音声を合成して前記出力音声を生成することを特徴とする受信装置である。 The receiving apparatus according to the present invention includes a receiving unit that receives a first video accompanied by a plurality of channels of audio, a video output control unit that cuts out a part of the first video and outputs a second video, Audio output control means for generating output audio to be output together with the second video, based on the cutout position of the second video, a plurality of channels of audio of the first video Further, it comprises a determining means for determining a combination of input sounds to be used for synthesizing the output sounds from the input sounds, and the sound output control means synthesizes the input sounds determined by the determining means to synthesize the output sounds. It is the receiver which produces | generates.
本発明に係る受信装置の制御方法は、複数チャンネルの音声を伴う第1の映像を受信する工程と、前記第1の映像の一部を切り出して第2の映像を出力する工程と、前記第2の映像と共に出力するための出力音声を生成する工程と、を備え、前記出力音声を生成する工程が、前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する工程と、前記決定された前記入力音声を合成して前記出力音声を生成する工程と、を含むことを特徴とする受信装置の制御方法である。 The control method of the receiving apparatus according to the present invention includes a step of receiving a first video accompanied by a plurality of channels of audio, a step of cutting out a part of the first video and outputting a second video, A step of generating output audio for output together with the second video, wherein the step of generating the output audio is a plurality of audios of the first video based on a cutout position of the second video A step of determining a combination of input sounds used for synthesizing the output sound from the input sounds of the channels; and a step of generating the output sound by synthesizing the determined input sounds. This is a control method of the receiving device.
本発明によれば、受信装置の能力や機能に応じて、画面の一部を切り出して視聴しても、切り出された視聴画面に対して、適切なマルチチャンネル音像定位を実現することが可能となる。 According to the present invention, it is possible to realize appropriate multi-channel sound image localization for a cut-out viewing screen even if a part of the screen is cut out for viewing according to the capability or function of the receiving apparatus. Become.
以下、図を参照しながら、本発明による装置、方法の一実施の形態について説明する。以下に説明する実施の形態は、ハイビジョン放送の映像、音声(映像フォーマット:1920×1080/60/i、音声モード:5.1ch)が出力可能なデジタル放送受信装置において、スーパーハイビジョン放送(7680×4320/60/p、音声モード:22.2ch)を受信処理する場合の例である。 Hereinafter, an embodiment of an apparatus and a method according to the present invention will be described with reference to the drawings. The embodiment described below is a digital broadcast receiver capable of outputting high-definition broadcast video and audio (video format: 1920 × 1080/60 / i, audio mode: 5.1ch). 4320/60 / p, audio mode: 22.2 ch).
[実施例1]
図1は本発明のデジタル放送受信装置のブロック図である。
[Example 1]
FIG. 1 is a block diagram of a digital broadcast receiver according to the present invention.
アンテナ101は、複数の映像データ、音声データ、メタデータなどが多重化されデジタル変調されたデジタルテレビジョン放送信号を受信する。より具体的には、映像フォーマットとして7680×4320/60/p(トリミング指定あり)、音声モードとして22.2chのマルチチャンネルステレオのデジタル放送番組を受信する。
The
受信部102は、デジタルテレビジョン放送信号の復調、誤り訂正処理などを行い、MPEG−2 TS(Transport Stream:トランスポートストリーム)信号を出力する。
The
信号分離部103は、ユーザが選局を行った番組のパケットIDに従って、多重化され
たMPEG−2 TS信号から映像データ、音声データ、メタデータを分離し、それぞれ映像再生部104、音声再生部105、メタデータ処理部106に送る。なお、多重化されたMPEG−2 TS信号には、データ放送(マルチメディア)データを含む場合もあるが、図1ではその処理部については図示していない。
The
映像再生部104は、ITU−T H.264|ISO/IEC14496−10(MPEG−4 AVC)(以下、H.264)で符号化された映像データの復号を行う。
The
音声再生部105は、MPEG−2 AACで符号化された音声データの復号を行う。マルチチャンネルの音声データが含まれる場合、合成することなく独立に音声出力制御部111に送る。
The
メタデータ処理部106は、信号分離部103でMPEG2−TS信号をフィルタリング処理するための情報を、PSI/SI(Program Specific Information/Service Information)データから取り出す。また、メタデータ処理部106は、電子番組表などに利用される番組情報、さらに本発明に係わる映像フォーマットやトリミング(切り出し位置、およびサイズ)情報、音声モードなどの情報も、PSI/SIデータから取り出す。
The
表示位置検出部107は、メタデータ処理部106からのトリミング情報に基づき、SHV(7680×4320)画面のどの部分を切り出すか、その座標を求め、映像出力制御部109に送る。また表示位置検出部107は、切り出し画面の座標から音声モードとして5.1ch出力可能な本受信装置のフロントスピーカ(3箇所)の座標を決定する。そして、表示位置検出部107は、3つのフロントスピーカの各々に対し、受信したSHVの音声モード(22.2ch)におけるフロントスピーカ(11箇所)のうち、どのスピーカの音声出力を合成して出力するか、その組み合わせを決定する。
Based on the trimming information from the
補正データ算出部108は、本受信装置におけるスピーカ位置と、オリジナルのSHVの音声モード(22.2ch)におけるスピーカ位置と切り出し画面の視聴位置との位置関係から、切り出し画面視聴時の適正な音像を形成するための補正データを算出する。
The correction
本実施例では、SHV映像が複数チャンネル(22.2ch)の音声を伴う第1の映像に該当し、受信部102が第1の映像を受信する受信手段に該当する。また、映像出力制御部109が、SHV映像の一部を切り出して第2の映像(HD解像度の切り出し画面)を出力する映像出力制御手段に該当する。また、音声出力制御部111が、第2の映像と共に出力するための出力音声(ここでは5.1ch)を生成する音声出力制御手段に該当する。また、表示位置検出部107が、第2の映像の切り出し位置に基づいて、SHVの入力音声の中から、出力音声の合成に用いる入力音声の組み合わせを決定する決定手段に該当する。
In the present embodiment, the SHV video corresponds to a first video accompanied by a plurality of channels (22.2 ch), and the
ここで、補正データ算出部108について少し詳しく説明する。
Here, the correction
図2は、補正データ算出部108の構成例である。補正データ算出部108は、角度解析部201、混合ゲインデータ算出部202、距離解析部203、ゲイン補正データ算出部204、遅延量補正データ算出部205で構成される。角度解析部201は、本受信装置のフロントスピーカと、それぞれに出力する22.2chのフロントスピーカとの角度を算出する。以下、本受信装置のフロント左スピーカをTFL、フロントセンタースピーカをTFC、フロント右スピーカをTFRと略記し、22.2chのフロントスピーカをソースと略記する。混合ゲインデータ算出部202は、算出された角度に基づき、切り出し視聴している画面に対して視聴者が感じる音声の到来方向が適正になるよう合成すべき
各ソースの音声データの混合比(ゲイン)を決定する。距離解析部203は、角度解析部201で算出された角度に基づき、22.2chの各ソースと本受信装置のフロントスピーカ(TFL/TFC/TFR)との距離の違いを算出する。ゲイン補正データ算出部204は、算出された距離の違いの情報に基づき、本受信装置のフロントスピーカ(TFL/TFC/TFR)の音声信号のゲイン(音量レベル)補正データを算出する。遅延量補正データ算出部205は、算出された距離の違いの情報に基づき、本受信装置のフロントスピーカ(TFL/TFC/TFR)の音声信号の遅延量補正データを算出する。ゲイン補正データおよび遅延量補正データは、切り出し視聴している画面に対して視聴者が感じる音声の音量と音源までの距離感が適正になるよう、決定される。
FIG. 2 is a configuration example of the correction
説明を図1に戻す。図1において映像出力制御部109は、表示位置検出部107からの切り出し画面の位置情報に基づき、SHV画面からHD解像度の画面を切り出して表示部110に送る。
Returning to FIG. In FIG. 1, the video
表示部110は、HD(1920×1080)を表示できる解像度を有する表示装置である。
The
音声出力制御部111は、音声再生部105から出力される22.2chのフロントスピーカの各音声データを、補正データ解析部108からの混合ゲインデータに基づいて所定の割合で合成する。その後、音声出力制御部111は、ゲイン補正データ、遅延量補正データに従ってゲイン調整、遅延量調整を行い、本受信装置のフロントスピーカ(TFL/TFC/TFR)の音声データを生成する。生成された音声データはD/A(Digital−Analog)コンバータとアンプを介してTFL/TFC/TFRの各スピーカ112に出力される。合成、ゲイン調整、遅延量調整の詳細については後述する。
The audio
図3は、実施例1における切り出し視聴画面の位置を示す図である。実施例1では、スーパーハイビジョン画面301の中央部をハイビジョン解像度302で切り出し(トリミング)視聴する例を示している。
FIG. 3 is a diagram illustrating the position of the cut-out viewing screen in the first embodiment. In the first embodiment, an example in which the center portion of the super high-
図4は、スーパーハイビジョンの画面中央部を切り出し視聴する実施例1における音声出力制御部111の構成例である。画面中央を中心に切り出しているため、本受信装置のフロントセンタースピーカ(TFC)には、22.2chのフロントセンタースピーカ(FC)の音声データを出力する。フロント左スピーカ(TFL)には、22.2chのフロント左スピーカ(FL)、フロント左センタースピーカ(FLc)、フロントセンタースピーカ(FC)の3つのソースを混合した音声データを出力する。フロント右スピーカ(TFR)には、22.2chのフロント右スピーカ(FR)、フロント右センタースピーカ(FRc)、フロントセンタースピーカ(FC)の3つのソースを混合した音声データを出力する。
FIG. 4 is a configuration example of the audio
図5は、22.2chシステムにおける標準的なスピーカ配置を示したものである。22.2chシステムは、フロントに11ch、サイドに4ch、リアに6ch、上部に1chの22chに、低音域用のLFE(Low Frequency Effects)を2ch(0.2chとして扱う)加えたスピーカ構成になっている。5.1chや6.1ch/7.1chシステムは、前後左右方向の音の広がりには対応できるが上下の音像表現が困難であった。22.2chシステムでは、視聴者と同じ高さの中間層のスピーカを10チャンネルに増やすとともに、上層に9チャンネル、下層に3チャンネルを配することにより、垂直方向の音像移動にも対応することが可能な構成になっている。 FIG. 5 shows a standard speaker arrangement in a 22.2 channel system. The 22.2ch system has a speaker configuration with 11ch on the front, 4ch on the side, 6ch on the rear, 1ch on the top, and 22ch on the low frequency range LFE (Low Frequency Effects). ing. The 5.1ch and 6.1ch / 7.1ch systems can cope with the spread of sound in the front-rear and left-right directions, but it is difficult to express the upper and lower sound images. In the 22.2ch system, the number of speakers in the middle layer, which is the same height as the viewer, is increased to 10 channels, and 9 channels in the upper layer and 3 channels in the lower layer can be arranged to support vertical sound image movement. It has a possible configuration.
本明細書における実施例では、説明を簡単にするため22.2chシステム(SHV放送の音声モードの1つ)と、5.1chシステム(HD放送の音声モードの1つ)におけ
る、それぞれのフロントスピーカの関係についてのみ説明する。リアスピーカやサイドスピーカ、低域スピーカについての記載は省略する。また、実施例1及び2は、画面の上下方向に対しては中央部分をトリミング視聴する構成であるため、22.2chシステムにおける中間層のフロントスピーカについてのみ説明する。上層のフロントスピーカ(図5におけるTpFL/TpFC/TpFR)、下層のフロントスピーカ(BtFL/BtFC/BtFR)についての記載は省略する。
In the embodiments of the present specification, front speakers in the 22.2 channel system (one of the audio modes of the SHV broadcast) and the 5.1 channel system (one of the audio modes of the HD broadcast) are described in order to simplify the description. Only the relationship will be described. Descriptions of rear speakers, side speakers, and low-frequency speakers are omitted. Since the first and second embodiments have a configuration in which the central portion is trimmed and viewed in the vertical direction of the screen, only the front speakers in the middle layer in the 22.2 ch system will be described. The description of the upper front speakers (TpFL / TpFC / TpFR in FIG. 5) and the lower front speakers (BtFL / BtFC / BtFR) is omitted.
次に本発明に係わるブロックについて、フローチャートを用いてその動作を説明する。 Next, the operation of the block according to the present invention will be described using a flowchart.
図6は、メタデータ処理部106の処理フローの一実施例である。
FIG. 6 is an example of a processing flow of the
デジタル放送においては、映像や音声、番組に関する種々の情報をPSI/SIデータ内に各種テーブルとして埋め込み、送出することが可能である。詳細は、(社)電波産業会(以下、ARIB)の発行する「デジタル放送に使用する番組配列情報」の標準規格(ARIB STD−B10)を参照のこと。 In digital broadcasting, various information regarding video, audio, and programs can be embedded and transmitted as various tables in PSI / SI data. For details, refer to the standard (ARIB STD-B10) of “Program arrangement information used for digital broadcasting” issued by the Radio Industries Association (ARIB).
本実施例においては、PMT(Program Map Table)もしくはEIT(Event Information Table)に挿入されるコンポーネント記述子を用いて、スーパーハイビジョン映像(7680×4320/60/Pの映像フォーマット)であること、さらに放送局によるトリミング情報があることを伝送する。EITは、番組名、放送日時、番組内容など番組に関する情報を送るテーブルである。 In this embodiment, it is a super high-definition video (video format of 7680 × 4320/60 / P) using a component descriptor inserted in PMT (Program Map Table) or EIT (Event Information Table), and It transmits that there is trimming information by the broadcasting station. The EIT is a table for sending information related to a program such as program name, broadcast date and time, and program content.
コンポーネント記述子は、図7のようなデータ構造を持っており、その中のコンポーネント種別(component_type)という8ビットのフィールドに映像コンポーネントや音声コンポーネントの種別を示すことが出来る。 The component descriptor has a data structure as shown in FIG. 7, and the type of video component or audio component can be indicated in an 8-bit field called component type (component_type) therein.
図8は、コンポーネント記述子内をより詳細に示したもので、コンポーネント種別が0x00から0xC0までは、現在規格化されている映像コンポーネントを示している。本実施例で想定している映像ストリームは、ハイビジョン映像を超えるより高解像度の映像フォーマットであり、現在は規定されていない。本実施例では、デジタルシネマやスーパーハイビジョンの映像フォーマットであることを示すコンポーネント種別として、0xE1から0xF3を割り当てている(図8)。 FIG. 8 shows the details in the component descriptor. The component types 0x00 to 0xC0 indicate video components that are currently standardized. The video stream assumed in this embodiment is a higher-resolution video format that exceeds the high-definition video, and is not currently defined. In this embodiment, 0xE1 to 0xF3 are assigned as component types indicating the digital cinema or super high-definition video format (FIG. 8).
コンポーネント種別として、トリミング指定ありの映像フォーマットの場合、さらにトリミング(切り出し)情報を伝送する。トリミング情報はEITなどに挿入される拡張形式イベント記述子を用いて伝送することができる。拡張形式イベント記述子は、図9のようなデータ構造を持っており、その中のitem_description_charの1つとしてトリミング情報を追加する。図10のように、item_description_charにトリミングサイズやアドレスを示し、item_charにてその値を送る。 In the case of a video format with trimming designation as the component type, trimming (cutout) information is further transmitted. Trimming information can be transmitted using an extended format event descriptor inserted in EIT or the like. The extended format event descriptor has a data structure as shown in FIG. 9, and trimming information is added as one of the item_description_chars therein. As shown in FIG. 10, the trimming size and address are shown in item_description_char, and the value is sent in item_char.
このようなメタデータが多重化されたデジタル放送を受信することを前提に説明を行う。 The description will be made on the premise that digital broadcasting in which such metadata is multiplexed is received.
図6のステップS602にて、メタデータ処理部106は、PMTのコンポーネント記述子から、コンポーネント識別情報を抽出する。次に、メタデータ処理部106は、コンポーネント識別情報から、受信している番組がスーパーハイビジョン(SHV)映像であるかを判定する(S603)。ここで、SHV映像モードではなく通常のハイビジョン映像モードであった場合(図8のコンポーネント種別が0xB2など)は、画面の一部を切り出すことなく、そのままの解像度で表示する(S604)。
In step S602 of FIG. 6, the
ステップS603にてSHV映像モードであると判定された場合、メタデータ処理部106はステップS605にて放送局によるトリミング指定があるか否かを判定する。ここでトリミング指定ありの映像モード(例えば、図8の0xF2)であった場合は、ステップS606に進む。一方、同じSHV映像であってもトリミング指定なしであった場合は、ステップS607に進む。
If it is determined in step S603 that the mode is the SHV video mode, the
ステップS606では、メタデータ処理部106は、EITの拡張形式イベント記述子から、トリミング情報を抽出する。図10は、トリミングサイズ“1”(HD解像度:1920×1080であることを表す)、左上(X,Y)アドレスが(−960、+540)と記述されたトリミング情報の例である。本実施例においては画面中央の座標を(0,0)としているので、図10のトリミング情報は、SHV画面の中央部をHD解像度でトリミング(切り出す)指定をしていることになる。ステップS606にて抽出されたトリミング情報は、表示位置検出部107に送られる(S610)。
In step S606, the
ステップS605にて放送局によるトリミング指定がなかった場合、メタデータ処理部106は、ユーザ操作によるトリミング指定があるか否かを判定する(S607)。ここで受信装置の機能としてユーザが任意の位置をトリミング視聴でき、実際にトリミング視聴している場合は、受信装置内で管理されている切り出し位置、およびサイズの情報をトリミング情報として抽出し(S608)、ステップS610に進む。一方、ユーザによるトリミング指定がなかった場合は、メタデータ処理部106は、全画面をダウンコンバートして表示するよう映像出力制御部に指示する(S609)。
If there is no trimming designation by the broadcast station in step S605, the
図11は、表示位置検出部107の処理フローの一実施例である。
FIG. 11 is an example of a processing flow of the display
まず、ステップS1102にて、表示位置検出部107は、メタデータ処理部106で抽出されたトリミング情報を読み込む。次に、表示位置検出部107は、図10に示したようなトリミング情報に基づき、切り出し画面の座標を求める(S1103)。切り出し画面の座標データは、図1における映像出力制御部109に送られ(S1104)、所定の位置が(本実施例ではSHVの画面中央部をHD解像度で)切り出され表示部110にて表示される。
First, in step S1102, the display
ステップS1105にて、表示位置検出部107は、切り出し画面の位置に応じて5.1chシステムにおけるフロントスピーカの位置を算出する。
In step S1105, the display
図12は、視聴位置1201において、SHVの画面中央部をHD解像度でトリミング視聴する場合のフロントスピーカの配置を示したものである。上述したように、FL、FLc、FC、FRc、FRは、それぞれ22.2chシステムにおける中間層のフロント左スピーカ、フロント左センタースピーカ、フロントセンタースピーカ、フロント右センタースピーカ、フロント右スピーカを表している。また、TFL、TFC、TFRは、それぞれトリミング視聴時の5.1chシステムにおけるフロントスピーカを表している。図12に示したように、本実施例では、TFL、TFC、TFRの座標は、それぞれ、(−960,0)、(0,0)、(+960,0)となる。ちなみに、TFLとTFRの位置については、ユーザの広がり感に関する好みや視聴するコンテンツなどに応じて、切り出し画面の両端とFL、FRとの間の任意の位置に設置することが可能である(図13)。ここでは説明を簡単にするため、切り出し画面の左端にTFRを、右端にTFRを設置することとする。
FIG. 12 shows the arrangement of front speakers when the central portion of the SHV screen is trimmed and viewed at the
次に、図11のステップS1106において、表示位置検出部107は、TFL、TFC、TFRのy座標が0(ゼロ)であるか否かを判定する。ここで、y座標が0の場合は
、図12のようにSHV画面の上下方向のちょうど中央の高さで切り出されたことになる。本実施例では、y座標が0であるゆえ、ステップS1107に進む。
Next, in step S1106 in FIG. 11, the display
ステップS1107で、表示位置検出部107は、TFL、TFC、TFRと、FL、FLc、FC、TRc、FRのx座標上の位置関係を判定する。本実施例では、例えばTFLの位置は、FLcとFCとの間に位置していると判定される。
In step S1107, the display
ステップS1108〜S1110において、表示位置検出部107は、ステップS1107で判定された位置関係に従い、TFL、TFC、TFRそれぞれに、FL、FLc、FC、TRc、FRのどのスピーカからの音声を合成して出力するかを決定する。表示位置検出部107は、まずTFLと同じ位置のソースの有無を調べ、同じ位置のソースがあればそれを選択し、同じ位置のソースがなければ、表示位置検出部107は、TFLに最も近いN個(Nは2以上の整数)のソースを選択する。Nが3の場合、本実施例では、TFLに対して、FL、FLc、FCの組み合わせが選ばれる。同様にして、TFRにはFR、FRc、FCの組み合わせが選ばれる。そして本実施例は画面中央での切り出しのため、TFCとFCの座標は一致し、TFCにはFCのみが選ばれる。なお組み合わせ決定のルール(アルゴリズム)は上記の例に限らず、どのようなものを採用してもよい。例えば、TFL、TFC、TFRそれぞれの位置(x、y座標)に対応するソースの組み合わせが予め規定されたテーブルを参照することも好ましい。また、TFL等とソースとの距離に応じて、組み合わせるソースの数を動的に変化させてもよい。
In steps S1108 to S1110, the display
表示位置検出部107は、ステップS1105にて算出されたTFL、TFC、TFRの位置情報(座標)とステップS1108〜S1110で決定されたFL、FLc、FC、TRc、FRの組み合わせ情報を補正データ算出部108に出力する(S1111)。
The display
なお、図11のステップS1112〜S1122は、切り出し位置が異なる場合の処理フローである。ステップS1113〜S1117は、切り出し位置が上下方向のみ変化する場合の処理例である。その場合、TpFCとBtFCの2つのソースも音声合成に利用される。ステップS1112、S1118〜S1122については、他の実施例(実施例4)にて説明する。 Note that steps S1112 to S1122 in FIG. 11 are processing flows when the cutout positions are different. Steps S1113 to S1117 are processing examples when the cutout position changes only in the vertical direction. In that case, two sources of TpFC and BtFC are also used for speech synthesis. Steps S1112 and S1118 to S1122 will be described in another embodiment (embodiment 4).
図14は補正データ算出部108における処理フローの一実施例である。
FIG. 14 shows an example of a processing flow in the correction
まず、ステップS1402にて、補正データ算出部108は、表示位置検出部107にて算出、決定されたTFL、TFC、TFRの位置情報(座標)とそれぞれに出力するFL、FLc、FC、TRc、FRの組み合わせ情報を読み込む。
First, in step S1402, the correction
次に、ステップS1403にて、補正データ算出部108は、視聴位置からみた各スピーカの角度を算出する。本実施例における視聴位置(図12の1201)は、SHV視聴において視聴角100度、視聴距離0.75H(Hは画面上下サイズ)、HD視聴においては視聴角30度、視聴距離3Hとしている。これは、SHV視聴およびHD視聴の標準視聴パラメータに相当し、それぞれの標準視聴角で視聴した場合、SHVの0.75HとHDの3Hは同じ視聴距離となる。
In step S1403, the correction
ステップS1404では、補正データ算出部108は、ステップS1403で算出された視聴位置と各スピーカとの角度から、TFL、TFC、TFRそれぞれに対するFL、FLc、FC、FRc、FRの混合比を算出する。ステップS1405にて、補正データ算出部108は、算出した混合比を混合ゲインデータとして図1の音声出力制御部111に出力する。
In step S1404, the correction
図15は、TFLから出力する音声を、FL、FLc、FCの音声を混合して生成する一例を示した図である。本実施例における視聴位置と各スピーカとの角度は、視聴位置を標準視聴位置(視聴角SHV:100度、HD:30度)とした場合の値である。各スピーカとの角度に対し余弦定理等を用いることによりFL、FLc、FCの各音声ベクトルを合成し、音声の到来方向がTFLの角度となる音声ベクトルVTFLを生成する。VTFL=1として正規化することにより、FL、FLc、FCそれぞれの音声ベクトルの混合比を求めることができる。図15では、FLの出力をVFL、FLcの出力をVFLc、FCの出力をVFCの割合で合成することで、TFLからの音声ベクトルVTFLを生成している。なお、図15の例のように2次元において3つ以上のソースのベクトルを合成する場合は、必要に応じて他の拘束条件(例えばベクトルの大きさの範囲など)を追加すればよい。ここでは、合成ベクトルVTFLの一方の分解成分ベクトルであるベクトルVFCの大きさを、他方の分解ベクトルの方向がベクトルVFLcとベクトルVFLとにより合成できる範囲とすることができる。 FIG. 15 is a diagram illustrating an example in which the sound output from the TFL is generated by mixing the sounds of FL, FLc, and FC. The angle between the viewing position and each speaker in this embodiment is a value when the viewing position is a standard viewing position (viewing angle SHV: 100 degrees, HD: 30 degrees). By using the cosine theorem or the like with respect to the angle with each speaker, the speech vectors of FL, FLc, and FC are synthesized to generate a speech vector VTFL in which the speech arrival direction is an angle of TFL. By normalizing with VTFL = 1, it is possible to obtain the mixing ratio of the speech vectors of FL, FLc, and FC. In FIG. 15, a speech vector VTFL is generated from TFL by combining FL output with VFL, FLc output with VFLc, and FC output with VFC. In the case of synthesizing three or more source vectors in two dimensions as in the example of FIG. 15, other constraint conditions (for example, a range of vector magnitudes) may be added as necessary. Here, the magnitude of the vector VFC, which is one decomposition component vector of the combined vector VTFL, can be set to a range in which the direction of the other decomposition vector can be combined by the vector VFLc and the vector VFL.
図16は、図15に対してTFLの位置をよりFL側に変更した例である。図16においては、TFLの位置がFL側になったことにより、FL、FLc、FCの各音声ベクトル混合比として、VFCの割合が減り、VFL、VFLcの割合が増加することを示している。 FIG. 16 shows an example in which the position of TFL is changed to the FL side with respect to FIG. FIG. 16 shows that the ratio of VFC decreases and the ratio of VFL and VFLc increases as the speech vector mixture ratio of FL, FLc, and FC due to the position of TFL being on the FL side.
図14に戻り処理フローの説明を続ける。 Returning to FIG. 14, the description of the processing flow will be continued.
ステップS1406では、補正データ算出部108は、ステップS1403にて算出された視聴位置からみた各スピーカの角度から、FL、FLc、FC、FRc、FRとTFL、TFC、TFRの距離の差を算出する。図17は、FLとTFLの距離の差を求める一例である。標準視聴位置の場合、FLは正面から左に50度、本実施例のTFLの位置は同じく左に15度となる。
In step S1406, the correction
視聴者とFLとの距離をLFL、視聴者とTFLとの距離をLTFLとすると、LFL・cos50°=LTFL・cos15°の関係が成り立つゆえ、LTFL=LFL×cos50°/cos15°となる。 The distance between the viewer and the FL L FL, and the distance between the viewer and the TFL and L TFL, because the relationship between the L FL · cos50 ° = L TFL · cos15 ° holds, L TFL = L FL × cos50 ° / cos 15 °.
次にステップS1407にて、補正データ算出部108は、ステップS1406で求めた距離関係に基づいてゲイン補正データを算出する。例えば図17において、TFLのFLに対するゲインをG(TFL_FL)、FLのゲインをG(FL)とおく。音量は距離の2乗に反比例するため、トリミング視聴においても同じ音量で聞こえるようにするには、G(TFL_FL)=G(FL)×(LTFL)2/(LFL)2となるようゲイン補正データを生成する。さらに、本実施例においてTFLに合成出力する他の音声チャンネル(FLc、FC)についても同様にゲイン補正データを算出し、FL、FLc、FCトータルのゲイン補正データを決定し、図1の音声出力制御部111に送る(S1408)。
In step S1407, the correction
ステップS1409では、補正データ算出部108は、ステップS1406で求めた距離関係に基づいて遅延量補正データを算出する。ステップS1407の説明と同じく図17を用いて説明する。図17において、TFLのFLに対する遅延量をD(TFL_FL)、FLの遅延量をD(FL)とおく。遅延量は距離に比例するため、トリミング視聴においても、視聴者が感じる音源までの距離感が同じとなるようにするには、D(TFL_FL)=D(FL)×LTFL/LFLとなるよう遅延量補正データを生成する。さらに、本実施例においてTFLに合成出力する他の音声チャンネル(FLc、FC)についても同様に遅延量補正データを算出し、FL、FLc、FCトータルの遅延量補正データを決定し、図1の音声出力制御部111に送る(S1410)。
In step S1409, the correction
メタデータ処理部106(図6)、表示位置検出部107(図11)、補正データ算出部108(図14)の処理を経て得られた、トリミング視聴における、混合ゲイン補正データ、ゲイン補正データ、遅延量補正データは、音声出力制御部111に入力される。
Mixed gain correction data, gain correction data in trimming viewing, obtained through the processing of the metadata processing unit 106 (FIG. 6), the display position detection unit 107 (FIG. 11), and the correction data calculation unit 108 (FIG. 14), The delay amount correction data is input to the audio
音声出力制御部111はFL、FLc、FC、FRc、FRからTFL、TFC、TFRを生成する。一例として図4を参照して、TFLを生成する流れについて説明する。まず、音声出力制御部111は、混合ゲイン補正データに基づき、FL、FLc、FCを所定の混合比で合成する。次に音声出力制御部111は、音量がほぼ同じとなるようゲイン補正データに基づきゲインを調整し、さらに音源までの距離感がほぼ同じとなるよう遅延量補正データに基づき遅延量を調整する。これらの調整が完了したデータは、D/A、AMP(アンプ)を介してTFLスピーカへと送られる。TFRについては、FC、FRc、FRを所定の混合比で合成する以外は、TFLの流れと同様である。なお、本実施例においては、画面中央部切り出し視聴のため、TFC=FCの関係になり、TFCに関して特段の補正は行わない。(図4においては、ゲイン補正部、遅延量補正部を経由しているが、ともに補正量は0(ゼロ)である。)
The audio
本実施例における音声出力制御部(図4)は、混合ゲイン調整部により音の到来方向(角度)の補正を行った後に、音量を調整するゲイン補正、ならびに音源までの距離感を調整する遅延量補正を行う構成とした。しかし、先にゲイン補正、遅延量補正を行ってから、到来方向(角度)の補正を行う構成とすることで、ゲイン、遅延量の補正をより正確に行うことも可能である。 The audio output control unit (FIG. 4) in the present embodiment corrects the arrival direction (angle) of the sound by the mixed gain adjustment unit, and then performs gain correction for adjusting the volume and delay for adjusting the sense of distance to the sound source. It was set as the structure which performs quantity correction | amendment. However, it is possible to correct the gain and the delay amount more accurately by performing the correction of the arrival direction (angle) after the gain correction and the delay amount correction are performed first.
本実施例によれば、スーパーハイビジョン(SHV)画面の中央部をハイビジョン(HD)解像度でトリミング視聴する場合、切り出された視聴画面に対して、音声の到来方向、音量、距離感が適切に補正されたマルチチャンネル音声を提供することが可能となる。 According to the present embodiment, when the central portion of the super high-definition (SHV) screen is trimmed and viewed at a high-definition (HD) resolution, the direction of arrival, volume, and distance are appropriately corrected for the cut-out viewing screen. Multi-channel audio can be provided.
[実施例2]
次に、本発明に係わる実施例2について説明する。
[Example 2]
Next, a second embodiment according to the present invention will be described.
図18は、実施例2における切り出し視聴画面の位置を示す図である。実施例2では、スーパーハイビジョン画面1701の一部をハイビジョン解像度1702で切り出し(トリミング)視聴する例である。実施例1との違いは、x軸方向の切り出し位置が画面中央部ではない点である。
FIG. 18 is a diagram illustrating the position of the cut-out viewing screen in the second embodiment. The second embodiment is an example in which a part of the super high-
実施例2のデジタル放送受信装置のブロック構成(図1)、ならびにメタデータ処理部、表示位置検出部、補正データ算出部の処理フロー(図6、図11、図14)は実施例1と基本的に同じである。 The block configuration (FIG. 1) of the digital broadcast receiving apparatus according to the second embodiment and the processing flow (FIGS. 6, 11, and 14) of the metadata processing unit, the display position detecting unit, and the correction data calculating unit are the same as those of the first embodiment. Are the same.
以下、実施例1との差分を中心に説明する。 Hereinafter, the difference from the first embodiment will be mainly described.
図19は、実施例2におけるトリミング視聴時のフロントスピーカTFL、TFC、TFRの位置ならびに、TFLに合成して出力するFL、FLc、FC、FRc、FRの組み合わせを示したものである。実施例2において、TFLにはFC、FRcの音声データを組み合わせて出力する。これは切り出した画面周辺の音を中心に合成することを基本としている為であるが、さらに一定の比率でFL、FLcを加えても良い。 FIG. 19 shows the positions of the front speakers TFL, TFC, and TFR during trimming viewing in Example 2, and combinations of FL, FLc, FC, FRc, and FR that are synthesized and output to the TFL. In Example 2, FC and FRc audio data are combined and output to TFL. This is because synthesis is based on the sound around the cut-out screen, but FL and FLc may be added at a constant ratio.
混合比率は、実施例1と同様、各スピーカとの角度に基づいて求めるが、実施例2では、視聴位置が原点(x,y)=(0,0)でないため、各スピーカとの角度は切り出し位置座標を加味して算出する必要がある。 The mixing ratio is obtained based on the angle with each speaker as in the first embodiment. However, in the second embodiment, since the viewing position is not the origin (x, y) = (0, 0), the angle with each speaker is It is necessary to calculate the cut-out position coordinates.
視聴位置のx座標をa、SHV画面右端のx座標をb、原点座標におけるFLとの角度を50度(実施例1と同じく標準視聴位置)、視聴位置におけるFLとの角度をK度とした場合、角度Kは、以下の関係式で表すことができる。
tanK°=((a+b)/b)tan50°
The x coordinate of the viewing position is a, the x coordinate of the right end of the SHV screen is b, the angle with the FL at the origin coordinate is 50 degrees (standard viewing position as in the first embodiment), and the angle with the FL at the viewing position is K degrees. In this case, the angle K can be expressed by the following relational expression.
tanK ° = ((a + b) / b) tan50 °
このようにして、視聴位置と画面端の座標から視聴位置における各スピーカとの角度を求めることができる(図20)。 In this way, the angle with each speaker at the viewing position can be obtained from the viewing position and the coordinates of the screen edge (FIG. 20).
図21は、実施例2におけるTFCに合成して出力するFL、FLc、FC、FRc、FRの組み合わせを示したものである。実施例2におけるフロントセンタースピーカTFCには、FRc、FRの音声データを組み合わせて出力している。これは上述のように、切り出した画面周辺の音を中心に出力するようにしている為である。 FIG. 21 shows combinations of FL, FLc, FC, FRc, and FR that are combined with the TFC and output in the second embodiment. The front center speaker TFC according to the second embodiment outputs FRc and FR audio data in combination. This is because as described above, the sound around the cut-out screen is mainly output.
図22は、実施例2における音声出力制御部111の一例である。実施例1と同様、切り出し画面位置から算出された、混合ゲインデータ、ゲイン補正データ、遅延量補正データに基づいてトリミング視聴時のフロントスピーカTFL、TFC、TFRのそれぞれの音声データを生成する。図19、ならびに図21にて説明したように実施例2においては、TFLにはFC、FRcを、TFCには、FRc、FRを合成して出力する構成になっている。またTFRについても、TFCと同じくFRc、FRを合成して出力する構成となっている。これは、図18からもわかるように、実施例2における切り出し画面位置の場合、TFC、TFRともにFRc、FRという2つのスピーカの間に位置しているためである。このため、TFC、TFRともにFRc、FRの音声データを合成しているが、各スピーカとの角度関係が異なるため、その混合比は異なっている。合成後は、実施例1と同様、音量調整のためのゲイン補正、距離感調整のための遅延量補正を行い、D/A、AMPを通してトリミング視聴時のフロントスピーカTFL、TFC、TFRに出力する。
FIG. 22 is an example of the audio
本実施例によれば、SHV画面の一部(上下中央、左右中央部以外)をHD解像度でトリミング視聴する場合、切り出された視聴画面に対して、音声の到来方向、音量、距離感が適切に補正されたマルチチャンネル音声を提供することが可能となる。 According to the present embodiment, when a part of the SHV screen (other than the upper and lower center and the left and right center) is trimmed and viewed with HD resolution, the sound arrival direction, sound volume, and sense of distance are appropriate for the clipped viewing screen. It is possible to provide multi-channel audio corrected to the above.
[実施例3]
次に、本発明に係わる実施例3について説明する。
[Example 3]
Next, a third embodiment according to the present invention will be described.
実施例3において、デジタル放送受信装置のブロック構成(図1)、ならびにメタデータ処理部、表示位置検出部、補正データ算出部の処理フロー(図6、図11、図14)は実施例1と基本的に同じである。 In the third embodiment, the block configuration of the digital broadcast receiving apparatus (FIG. 1) and the processing flow (FIGS. 6, 11, and 14) of the metadata processing unit, the display position detection unit, and the correction data calculation unit are the same as those of the first embodiment. Basically the same.
実施例3は、実施例2の切り出し画面構成における、他の実施の形態であり、番組の音声イベントのうち、ナレーションやBGMなどを、切り出し画面位置に関係なくフロントセンタースピーカTFCから出力させる構成の一例である。 Example 3 is another embodiment of the cut-out screen configuration of Example 2, and is configured to output narration, BGM, etc. from the front center speaker TFC among the audio events of the program regardless of the cut-out screen position. It is an example.
図23は実施例3を適用する音声モードに関するコンポーネント記述子の一例を示したものである。これは、実施例1で説明したコンポーネント記述子(図7)、ならびにその映像コンポーネントに関する記述(図8)にさらに追加されて記述されることを想定している。図23において、コンポーネント内容の0x02は、音声コンポーネントであることを示し、コンポーネント種別が0x00から0x09までは、現在規格化されている音声モードを示している。実施例3では説明のため、デジタルシネマやスーパーハイビジョンの音声フォーマットのコンポーネント種別として、0x0Aから0x0Fを割り当て、
コンポーネント種別0x0Fには、音声チャンネル種別情報ありの音声モードを設けている。音声チャンネル種別情報ありの音声モードとは、登場人物やナレーション、BGMなどの音声イベントごとに特定の音声チャンネルを割り当てるモードである。22.2chシステムなどにおいて、特定の音声チャンネルに特定の音声イベントを割り当てることを想定している。
FIG. 23 shows an example of a component descriptor related to a voice mode to which the third embodiment is applied. This is assumed to be described in addition to the component descriptor (FIG. 7) described in the first embodiment and the description about the video component (FIG. 8). In FIG. 23, the component content 0x02 indicates a voice component, and component types 0x00 to 0x09 indicate a currently standardized voice mode. In the third embodiment, for the purpose of explanation, 0x0A to 0x0F are assigned as component types of audio formats of digital cinema and Super Hi-Vision.
The component type 0x0F has an audio mode with audio channel type information. The audio mode with audio channel type information is a mode in which a specific audio channel is assigned for each audio event such as a character, narration, or BGM. In a 22.2ch system or the like, it is assumed that a specific audio event is assigned to a specific audio channel.
コンポーネント種別として、音声チャンネル種別情報ありの音声モードの場合、どの音声イベントがどの音声チャンネルで伝送されているかの情報を送る必要がある。これは、実施例1におけるトリミング情報を伝送する例と同様、EITなどに挿入される拡張形式イベント記述子を用いて伝送することができる。図24は、拡張形式イベント記述子の中のitem_description_charの1つとして音声イベントを追加し、そのitem_charにて音声イベントに対応する音声チャンネルを示した一例である。 In the case of the audio mode with audio channel type information as the component type, it is necessary to send information on which audio event is transmitted on which audio channel. Similar to the example of transmitting trimming information in the first embodiment, this can be transmitted using an extended format event descriptor inserted in EIT or the like. FIG. 24 is an example in which an audio event is added as one of item_description_char in the extended format event descriptor, and an audio channel corresponding to the audio event is indicated by the item_char.
このようなメタデータを多重化して送ることにより実施例3を実現することができる。実施例3のデジタル放送受信装置における、この音声コンポーネントに係わるメタデータの処理については、実施例1におけるトリミング情報ありの場合の処理(図6)と類似しているため、本項での説明は省略する。
図25は、実施例3における音声出力制御部111の一例である。実施例2と同様、切り出し画面位置から算出された、混合ゲインデータ、ゲイン補正データ、遅延量補正データに基づいてトリミング視聴時のフロントスピーカTFL、TFC、TFRのそれぞれの音声データを生成する。さらに実施例3においては、拡張形式イベント記述子にて伝送される音声イベントに対応する音声チャンネル情報に基づき、ナレーションやBGMの音声チャンネル(図24におけるチャンネル番号5や6)をトリミング視聴時のTFCに合成する構成となっている。(図25においては、特定chと表記)
FIG. 25 is an example of the audio
本実施例によれば、実施例1、2の効果に加え、ナレーションやBGMのような、通常は切り出し位置に依存しない音声についても、安定して聴取することが可能となる。 According to the present embodiment, in addition to the effects of the first and second embodiments, it is possible to stably listen to voices such as narration and BGM that do not normally depend on the cut-out position.
[実施例4]
次に、本発明に係わる実施例4について説明する。
[Example 4]
Next, a fourth embodiment according to the present invention will be described.
これまでの実施例は、説明を簡単にするため、画面上下方向にオフセットがない(y座標が0の)トリミング視聴のケースについて説明してきたが、実施例4では画面上下方向についてもオフセットがついて切り出されるケースについて簡単に説明する。 In the embodiments so far, for the sake of simplicity, the case of trimming viewing where there is no offset in the vertical direction of the screen (y coordinate is 0) has been described, but in the fourth embodiment, there is also an offset in the vertical direction of the screen. The case to be cut out will be briefly described.
図26は、実施例4における切り出し視聴画面の位置を示す図である。実施例4では、これまでの実施例と同様、スーパーハイビジョン画面2501の一部をハイビジョン解像度2502で切り出して視聴する例であるが、x軸方向、y軸方向とも切り出し位置が中央ではない点が、これまでの実施例と異なっている。
FIG. 26 is a diagram illustrating the position of the cut-out viewing screen in the fourth embodiment. In the fourth embodiment, as in the previous embodiments, a part of the super high-
図26のように切り出し視聴する場合は、22.2chシステムにおける中間層のスピーカだけでなく、上層および下層のスピーカを含め、トリミング視聴におけるフロントスピーカTFL、TFC、TFLに出力する組み合わせを決定する。 In the case of cut-out viewing as shown in FIG. 26, the combination to be output to the front speakers TFL, TFC, TFL in trimming viewing including not only the middle-layer speakers in the 22.2ch system but also upper and lower speakers is determined.
表示位置検出部107の処理フロー(図11)のステップS1118からステップS1122の処理がそれにあたる。これまでの実施例1から3では、中間層のFL、FLc、FC、FRc、FRのみの組み合わせを決定していたが、実施例4では、さらに上層のTpFL、TpFC、TpFR、および下層のBtFL、BtFC、BtFRまで含めて組み合わせを決定する。
The processing from step S1118 to step S1122 in the processing flow (FIG. 11) of the display
組み合わせ決定後の補正データ算出部108における処理や、音声出力制御部111における処理は、合成対象となるチャンネル数が増加する以外、基本的な動作は実施例1から3と同じである。
The processing in the correction
以上、複数の実施例を挙げて本発明の具体的に構成を説明したが、本発明の範囲は上記実施例に限られることはない。例えば、上記実施例は、切り出し視聴前の音声モードに22.2chシステム、切り出し視聴時の音声モードに5.1chシステムを例に説明したが、本発明は他の音声モードの組み合わせにも適用可能である。 The specific configuration of the present invention has been described with reference to a plurality of embodiments. However, the scope of the present invention is not limited to the above embodiments. For example, the above embodiment has been described by taking the 22.2ch system as the audio mode before clipping and viewing and the 5.1ch system as the sound mode during clipping and viewing, but the present invention can also be applied to other audio mode combinations. It is.
また上記実施例では、アンテナ101から放送波を受信する構成を例に説明したが、インターネットなどのIPネットワーク網からコンテンツ(番組)を受信する場合にも本発明を適用することが可能である。この場合であっても、表示位置を検出し、その位置とサイズに基づき、マルチチャンネルの音声出力を制御する処理は同じである。
In the above embodiment, the configuration in which the broadcast wave is received from the
さらに、上記実施例では、画面の切り出し位置の指定方法として、放送局からメタデータを送ることにより指定する方法と受信装置の機能によってユーザ指定する方法について説明した。しかし、放送局から受信装置上で動作するアプリケーションを送り、そのアプリケーションが切り出し位置を制御するような場合であっても、本発明を適用することが可能である。 Furthermore, in the above-described embodiment, the method of specifying by sending metadata from the broadcasting station and the method of specifying the user by the function of the receiving device have been described as the method for specifying the cutout position of the screen. However, the present invention can be applied even when an application that operates on the receiving apparatus is sent from the broadcasting station and the application controls the cut-out position.
106 メタデータ処理部
107 表示位置検出部
108 補正データ算出部
111 音声出力制御部
201 角度解析部
202 混合ゲインデータ算出部
203 距離解析部
204 ゲイン補正データ算出部
205 遅延量補正データ算出部
106
Claims (7)
前記第1の映像の一部を切り出して第2の映像を出力する映像出力制御手段と、
前記第2の映像と共に出力するための出力音声を生成する音声出力制御手段と、を備える受信装置において、
前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する決定手段をさらに備え、
前記音声出力制御手段は、前記決定手段で決定された前記入力音声を合成して前記出力音声を生成することを特徴とする受信装置。 Receiving means for receiving a first video accompanied by a plurality of channels of audio;
Video output control means for cutting out a part of the first video and outputting a second video;
An audio output control means for generating an output audio for output together with the second video;
Based on the cut-out position of the second video, further comprising a determining unit that determines a combination of input audios used for synthesizing the output audio from a plurality of channels of input audio that is the audio of the first video,
The audio output control means generates the output audio by synthesizing the input voice determined by the determining means.
前記音声出力制御手段は、前記補正データを用いて前記出力音声を生成することを特徴とする請求項1に記載の受信装置。 The sound image at the viewing position is corrected based on the positional relationship between the speaker position of the input audio, the speaker position of the output audio, and the viewing position of the second video, which is determined according to the cutout position of the second video. Correction data calculating means for calculating correction data for performing,
The receiving apparatus according to claim 1, wherein the sound output control unit generates the output sound using the correction data.
前記音声出力制御手段は、前記第2の映像の切り出し位置にかかわらず、前記所定の種別の入力音声を所定のチャンネルの出力音声に合成することを特徴とする請求項1〜5のうちいずれか1項に記載の受信装置。 When a predetermined type of input sound is included in the input sound of the plurality of channels,
The audio output control means synthesizes the predetermined type of input audio with an output audio of a predetermined channel regardless of the cutout position of the second video. The receiving device according to Item 1.
前記第1の映像の一部を切り出して第2の映像を出力する工程と、
前記第2の映像と共に出力するための出力音声を生成する工程と、を備え、
前記出力音声を生成する工程が、
前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する工程と、
前記決定された前記入力音声を合成して前記出力音声を生成する工程と、を含むことを特徴とする受信装置の制御方法。 Receiving a first video with multiple channels of audio;
Cutting out a portion of the first video and outputting a second video;
Generating output audio for output together with the second video,
Generating the output speech comprises:
Determining a combination of input sounds used for synthesizing the output sound from a plurality of channels of input sound, which is the sound of the first image, based on the cut-out position of the second image;
And synthesizing the determined input speech to generate the output speech.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008236277A JP5253062B2 (en) | 2008-09-16 | 2008-09-16 | Receiving apparatus and control method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008236277A JP5253062B2 (en) | 2008-09-16 | 2008-09-16 | Receiving apparatus and control method thereof |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2010074238A true JP2010074238A (en) | 2010-04-02 |
| JP2010074238A5 JP2010074238A5 (en) | 2011-11-04 |
| JP5253062B2 JP5253062B2 (en) | 2013-07-31 |
Family
ID=42205660
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008236277A Expired - Fee Related JP5253062B2 (en) | 2008-09-16 | 2008-09-16 | Receiving apparatus and control method thereof |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5253062B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012039264A (en) * | 2010-08-04 | 2012-02-23 | Toshiba Corp | Sound image localization apparatus |
| KR20150087103A (en) * | 2012-11-19 | 2015-07-29 | 엘지전자 주식회사 | Signal transceiving apparatus and signal transceiving method |
| JP2016513437A (en) * | 2013-02-28 | 2016-05-12 | エルジー エレクトロニクス インコーポレイティド | Signal transmitting / receiving apparatus and signal transmitting / receiving method |
| JP2016532390A (en) * | 2013-09-06 | 2016-10-13 | エルジー エレクトロニクス インコーポレイティド | Ultra high-definition broadcast signal transmission / reception method and apparatus for wide-area brightness expression in digital broadcasting system |
| JP2016187136A (en) * | 2015-03-27 | 2016-10-27 | シャープ株式会社 | Receiving device, receiving method, and program |
| JP2017508326A (en) * | 2013-12-19 | 2017-03-23 | エルジー エレクトロニクス インコーポレイティド | Broadcast transmission device, operation method of broadcast transmission device, broadcast reception device, and operation method of broadcast reception device |
| JPWO2017022467A1 (en) * | 2015-08-06 | 2018-05-24 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| WO2018147143A1 (en) * | 2017-02-09 | 2018-08-16 | ソニー株式会社 | Information processing device and information processing method |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0833100A (en) * | 1994-07-12 | 1996-02-02 | Matsushita Electric Ind Co Ltd | Video / audio playback device and video / audio playback method |
| JP2002171460A (en) * | 2000-11-30 | 2002-06-14 | Sony Corp | Playback device |
| JP2006033847A (en) * | 2004-07-14 | 2006-02-02 | Samsung Electronics Co Ltd | Sound reproduction apparatus and sound reproduction method for providing optimal virtual sound source |
-
2008
- 2008-09-16 JP JP2008236277A patent/JP5253062B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0833100A (en) * | 1994-07-12 | 1996-02-02 | Matsushita Electric Ind Co Ltd | Video / audio playback device and video / audio playback method |
| JP2002171460A (en) * | 2000-11-30 | 2002-06-14 | Sony Corp | Playback device |
| JP2006033847A (en) * | 2004-07-14 | 2006-02-02 | Samsung Electronics Co Ltd | Sound reproduction apparatus and sound reproduction method for providing optimal virtual sound source |
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8611186B2 (en) | 2010-08-04 | 2013-12-17 | Kabushiki Kaisha Toshiba | Sound image localization apparatus |
| JP2012039264A (en) * | 2010-08-04 | 2012-02-23 | Toshiba Corp | Sound image localization apparatus |
| KR102118052B1 (en) * | 2012-11-19 | 2020-06-02 | 엘지전자 주식회사 | Signal transceiving apparatus and signal transceiving method |
| KR20150087103A (en) * | 2012-11-19 | 2015-07-29 | 엘지전자 주식회사 | Signal transceiving apparatus and signal transceiving method |
| JP2015534751A (en) * | 2012-11-19 | 2015-12-03 | エルジー エレクトロニクス インコーポレイティド | Signal transmitting / receiving apparatus and signal transmitting / receiving method |
| US9749580B2 (en) | 2012-11-19 | 2017-08-29 | Lg Electronics Inc. | Signal transceiving apparatus and signal transceiving method |
| JP2016513437A (en) * | 2013-02-28 | 2016-05-12 | エルジー エレクトロニクス インコーポレイティド | Signal transmitting / receiving apparatus and signal transmitting / receiving method |
| US9998774B2 (en) | 2013-02-28 | 2018-06-12 | Lg Electronics Inc. | Signal transmission and reception device and signal transmission and reception method |
| JP2016532390A (en) * | 2013-09-06 | 2016-10-13 | エルジー エレクトロニクス インコーポレイティド | Ultra high-definition broadcast signal transmission / reception method and apparatus for wide-area brightness expression in digital broadcasting system |
| US9712781B2 (en) | 2013-09-06 | 2017-07-18 | Lg Electronics Inc. | Method and apparatus for transmitting and receiving ultra-high definition broadcasting signal for high dynamic range representation in digital broadcasting system |
| JP2017508326A (en) * | 2013-12-19 | 2017-03-23 | エルジー エレクトロニクス インコーポレイティド | Broadcast transmission device, operation method of broadcast transmission device, broadcast reception device, and operation method of broadcast reception device |
| JP2016187136A (en) * | 2015-03-27 | 2016-10-27 | シャープ株式会社 | Receiving device, receiving method, and program |
| JPWO2017022467A1 (en) * | 2015-08-06 | 2018-05-24 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| US10656900B2 (en) * | 2015-08-06 | 2020-05-19 | Sony Corporation | Information processing device, information processing method, and program |
| US20180196635A1 (en) * | 2015-08-06 | 2018-07-12 | Sony Corporation | Information processing device, information processing method, and program |
| TWI736542B (en) * | 2015-08-06 | 2021-08-21 | 日商新力股份有限公司 | Information processing device, data distribution server, information processing method, and non-temporary computer-readable recording medium |
| WO2018147143A1 (en) * | 2017-02-09 | 2018-08-16 | ソニー株式会社 | Information processing device and information processing method |
| JPWO2018147143A1 (en) * | 2017-02-09 | 2019-11-21 | ソニー株式会社 | Information processing apparatus and information processing method |
| US10809870B2 (en) | 2017-02-09 | 2020-10-20 | Sony Corporation | Information processing apparatus and information processing method |
| JP2023024471A (en) * | 2017-02-09 | 2023-02-16 | ソニーグループ株式会社 | Information processing device and information processing method |
| JP7231412B2 (en) | 2017-02-09 | 2023-03-01 | ソニーグループ株式会社 | Information processing device and information processing method |
| JP7523511B2 (en) | 2017-02-09 | 2024-07-26 | サターン ライセンシング エルエルシー | Information processing device and information processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5253062B2 (en) | 2013-07-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5253062B2 (en) | Receiving apparatus and control method thereof | |
| KR102182677B1 (en) | Method and apparatus for playback of a higher-order ambisonics audio signal | |
| US10748547B2 (en) | Methods and systems for generating and rendering object based audio with conditional rendering metadata | |
| CA2765116C (en) | Method and apparatus for processing audio signals | |
| US20110029874A1 (en) | Systems and methods for adjusting volume of combined audio channels | |
| US20160111096A1 (en) | Audio signal processing method | |
| KR101682323B1 (en) | Sound signal description method, sound signal production equipment, and sound signal reproduction equipment | |
| US10070172B2 (en) | Method and apparatus for processing broadcast data by using external device | |
| KR20110110104A (en) | Audio output device, video audio playback device and audio output method | |
| JP2001298680A (en) | Digital broadcast signal specifications and receiver | |
| KR20140090469A (en) | Method for operating an apparatus for displaying image | |
| Herre et al. | MPEG-H 3D audio: Immersive audio coding | |
| KR20130114477A (en) | Audio processing apparatus, and method for operating the same | |
| JPH08298635A (en) | Audio channel selection and synthesis method and apparatus for implementing this method | |
| US12250534B2 (en) | Adaptive sound scene rotation | |
| US20240163626A1 (en) | Adaptive sound image width enhancement | |
| KR20100030756A (en) | A display apparatus and method for controllong thesame | |
| JP6683618B2 (en) | Audio signal processor | |
| JP2023125821A (en) | Receiving device, broadcasting device, broadcasting system, receiving method, and program | |
| JP2024005530A (en) | Receiving device, broadcasting system, receiving method, and program | |
| JP2014204317A (en) | Acoustic signal reproducing device and acoustic signal preparation device | |
| OODE et al. | Standardization Trends in Object-based Audio Technology | |
| JP2016119630A (en) | Reception device, reception method, and program | |
| Bleidt–Fraunhofer | Object-Based Audio: Opportunities for Improved Listening Experience and Increased Listener Involvement | |
| JP2005142639A (en) | Signal processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110916 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110916 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121105 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130319 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130416 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5253062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |