[go: up one dir, main page]

JP2011114378A - Video display system and method of controlling the same - Google Patents

Video display system and method of controlling the same Download PDF

Info

Publication number
JP2011114378A
JP2011114378A JP2009266325A JP2009266325A JP2011114378A JP 2011114378 A JP2011114378 A JP 2011114378A JP 2009266325 A JP2009266325 A JP 2009266325A JP 2009266325 A JP2009266325 A JP 2009266325A JP 2011114378 A JP2011114378 A JP 2011114378A
Authority
JP
Japan
Prior art keywords
video
unit
program
audio
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009266325A
Other languages
Japanese (ja)
Other versions
JP2011114378A5 (en
Inventor
Takuya Kosuge
琢哉 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009266325A priority Critical patent/JP2011114378A/en
Publication of JP2011114378A publication Critical patent/JP2011114378A/en
Publication of JP2011114378A5 publication Critical patent/JP2011114378A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

【課題】コンテンツを提示する装置を視聴者が切り換える際に、視聴者の視点移動に要する期間に提示されるコンテンツを見逃さないように防止すること。
【解決手段】映像表示システムは、主端末部100から副端末部110へと映像表示を切り換える移行期間にて、両装置で映像を時間的に重複して表示させる。主端末部100は、映像表示のために映像信号を出力する映像出力部102と、副端末部110への映像信号の送信部を備え、映像出力部102による映像信号の出力後に遅延時間をもって当該信号を副端末部110に送信する。例えば、主端末部100は蓄積部からデータを読み出す第1及び第2の読み出し部を有し、第2の読み出し部は第1の読み出し部の読み出し位置よりも一定時間遡った再生位置からデータを読み出して送信部に送る。副端末部110は映像信号を受信し、移行期間にて、主端末部100の表示映像に比して時間的に遅れて映像を表示する。
【選択図】図1
When a viewer switches a device for presenting content, the content presented during a period required for the viewer to move the viewpoint is prevented from being overlooked.
An image display system displays images overlapping in time in both devices in a transition period in which image display is switched from a main terminal unit to a sub-terminal unit. The main terminal unit 100 includes a video output unit 102 that outputs a video signal for video display, and a video signal transmission unit to the sub-terminal unit 110. After the video signal is output by the video output unit 102, the main terminal unit 100 has a delay time. The signal is transmitted to the sub terminal unit 110. For example, the main terminal unit 100 includes first and second reading units that read data from the storage unit, and the second reading unit receives data from a reproduction position that is a predetermined time later than the reading position of the first reading unit. Read and send to the transmitter. The sub-terminal unit 110 receives the video signal, and displays the video with a time delay compared to the display video of the main terminal unit 100 in the transition period.
[Selection] Figure 1

Description

本発明は、映像、音声、データ放送、アプリケーションなどのコンテンツを提示する映像表示システム及びその制御方法に関するものである。ここでアプリケーションは、マイクロプロセッサにより実行されることで映像や音声を生成することができるコンピュータプログラムを含む。   The present invention relates to a video display system that presents content such as video, audio, data broadcasting, and applications, and a control method therefor. Here, the application includes a computer program capable of generating video and audio by being executed by a microprocessor.

現在では放送、ネットワークを経由したダウンロードや、DVD等の記録媒体を含む様々な媒体を介して、映像及び音声、データ放送、アプリケーションを含む様々なコンテンツが提供されている。多種多様なコンテンツを視聴者に利便性よく提供するため、大画面及び大型スピーカを備える主端末装置と、小画面及び小型スピーカを備える副端末装置を用いたコンテンツ提供システムが知られている。   Currently, various contents including video and audio, data broadcasting, and applications are provided through various media including broadcasting, downloading via a network, and recording media such as a DVD. In order to provide a variety of contents to viewers conveniently, a content providing system using a main terminal device having a large screen and a large speaker and a sub-terminal device having a small screen and a small speaker is known.

コンテンツ提供形態には以下に示す形態が考えられる。
・主端末装置及び副端末装置において同時に同じコンテンツを提供する形態。
・主端末装置及び副端末装置においてそれぞれ別のコンテンツを提供する形態。
・主端末装置又は副端末装置の一方のみでコンテンツを提供する形態。
The following forms can be considered as contents provision forms.
A mode in which the same content is simultaneously provided in the main terminal device and the sub-terminal device.
A form in which different contents are provided in the main terminal device and the sub-terminal device, respectively.
A form in which content is provided by only one of the main terminal device and the sub-terminal device.

これら様々な形態を切り換えるため、主端末装置で提示していたコンテンツを副端末装置に切り換えて提示する必要性や、逆に副端末装置で提示していたコンテンツを主端末装置に切り換えて提示する必要性が生じる。液晶投影装置を用いて静止画を投影するプレゼンテーション環境において、最新画像とプレゼンテーション切り換え直前の画像を同時に表示する技術が開示されている(特許文献1参照)。すなわち、液晶投影装置への入力画像信号が切り換わると、液晶投影装置は最新画像を表示し、液晶投影装置が備える画像信号出力へ切り換わる直前の画像を出力し、画像信号出力へ接続された別の液晶投影装置が切り換え直前の画像を表示する。   In order to switch between these various forms, it is necessary to switch and present the content presented on the main terminal device to the sub-terminal device, or conversely present the content presented on the sub-terminal device to the main terminal device. A need arises. In a presentation environment in which a still image is projected using a liquid crystal projector, a technique for simultaneously displaying the latest image and the image immediately before the presentation switching is disclosed (see Patent Document 1). That is, when the input image signal to the liquid crystal projector is switched, the liquid crystal projector displays the latest image, outputs the image immediately before switching to the image signal output provided in the liquid crystal projector, and is connected to the image signal output. Another liquid crystal projector displays the image just before switching.

特開2005−049424号公報JP 2005-049424 A

特許文献1に開示されている技術を動画映像や動的グラフィック描画を伴うアプリケーションなどのコンテンツに適用すると、視聴者がコンテンツを見逃す虞がある。つまり、コンテンツ映像を表示する液晶投影装置を切り換える際、切り換えに対する視聴者の視覚反応が遅れると、切り換え時に提示されているコンテンツ映像を見逃してしまう。静止画を表示するプレゼンテーションにおいては、視聴者の反応が遅れても、同じ内容が表示され続けるため、見逃しが生じる虞はない。しかし、動画映像や動的グラフィック描画を伴うアプリケーションなどのコンテンツの場合、表示内容が常に変化するため、見逃しの可能性が高まる。   When the technology disclosed in Patent Document 1 is applied to content such as a moving image and an application involving dynamic graphic drawing, the viewer may miss the content. That is, when switching the liquid crystal projection device that displays the content video, if the viewer's visual response to the switching is delayed, the content video presented at the time of switching is missed. In presentations that display still images, the same content continues to be displayed even if the viewer's response is delayed, so there is no possibility of overlooking. However, in the case of content such as a moving image or an application accompanied by dynamic graphic drawing, the display content changes constantly, so that the possibility of being overlooked increases.

特に、コンテンツを提示する端末装置を切り換える際、視聴者の視点移動が大きい環境において、視点移動に要する期間中に提示されるコンテンツ映像を視聴者が見逃す虞があった。視聴者の視点移動が大きい環境としては、例えば、視聴者の前方に大画面で大型スピーカを備えるコンテンツ提示端末装置が位置し、視聴者が手元に小画面で小型スピーカを備えるコンテンツ提示端末装置を持っている状況が挙げられる。   In particular, when switching the terminal device that presents content, in an environment where the viewer's viewpoint movement is large, the viewer may miss the content video presented during the period required for the viewpoint movement. As an environment in which the viewer's viewpoint movement is large, for example, a content presentation terminal device having a large screen and a large speaker is positioned in front of the viewer, and a content presentation terminal device having a small screen and a small speaker at hand is provided. The situation you have is listed.

そこで、コンテンツ提示端末装置の切り換え時に、切り換え先の装置において切り換え元よりも時間的に遅れてコンテンツを提示すれば、両装置において切り換え時のコンテンツを時間的に重複して提示できる。本発明は、視聴者の視点移動に要する期間に提示されるコンテンツ映像を視聴者が見逃さないように防止することを目的とする。   Therefore, when the content presentation terminal device is switched, if the content is presented at the switching destination device with a time delay from the switching source, the content at the time of switching can be presented in both devices in a time-overlapping manner. An object of the present invention is to prevent a viewer from overlooking a content video presented during a period required for the viewer's viewpoint movement.

上記課題を解決するために、本発明に係る映像表示システムは、第1の装置及び第2の装置を備え、前記第1の装置から前記第2の装置へと映像の表示を切り換える際の移行期間にて前記第1の装置及び前記第2の装置で映像を時間的に重複して表示させる。前記第1の装置は、映像を表示させるために映像信号を出力する映像出力手段と、映像信号を前記第2の装置に送信する送信手段と、前記映像出力手段が映像信号を出力した後で遅延時間をもって当該映像信号を前記第2の装置に送信するように前記送信手段を制御する制御手段と、を備える。前記第2の装置は前記送信手段からの映像信号を受信し、前記移行期間にて、前記第1の装置で表示される映像よりも時間的に遅れて映像を表示する。   In order to solve the above-described problem, a video display system according to the present invention includes a first device and a second device, and transition when switching video display from the first device to the second device. In the period, the first device and the second device display images overlapping in time. The first device includes a video output means for outputting a video signal for displaying a video, a transmission means for transmitting the video signal to the second device, and after the video output means outputs the video signal. Control means for controlling the transmission means to transmit the video signal to the second device with a delay time. The second device receives the video signal from the transmission means, and displays the video with a time lag behind the video displayed on the first device in the transition period.

本発明は、視聴者の視点移動に要する期間中に提示される映像を視聴者が見逃さないように防止できる。   The present invention can prevent the viewer from overlooking the video presented during the period required for the viewer to move the viewpoint.

図2乃至6と併せて本発明の第1実施形態を説明するために、装置の構成例を概略的に示すブロック図である。FIG. 7 is a block diagram schematically showing a configuration example of an apparatus for explaining the first embodiment of the present invention in conjunction with FIGS. 図1の蓄積再生部101の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an accumulation / playback unit 101 in FIG. 1. 図1の映像音声提示部111の構成例を示すブロック図である。It is a block diagram which shows the structural example of the audiovisual presentation part 111 of FIG. 主端末部100及び副端末部110にて実行される処理を説明するフローチャートである。4 is a flowchart for explaining processing executed in a main terminal unit 100 and a sub-terminal unit 110. 主端末部100及び副端末部110における映像輝度、音声音量の推移を例示した図である。It is the figure which illustrated transition of the video brightness in the main terminal part 100 and the subterminal part 110, and an audio volume. 主端末部100及び副端末部110における再生位置の時間的変化を例示した図である。It is the figure which illustrated the time change of the reproduction position in the main terminal unit 100 and the subterminal unit 110. 図8乃至12と併せて本発明の第2実施形態を説明するために、装置の構成例を概略的に示すブロック図である。FIG. 13 is a block diagram schematically showing an example of the configuration of an apparatus for explaining a second embodiment of the present invention in conjunction with FIGS. 図7の放送受信部801の構成例を示すブロック図である。It is a block diagram which shows the structural example of the broadcast receiving part 801 of FIG. 図7のプログラム提示部811の構成例を示すブロック図である。It is a block diagram which shows the structural example of the program presentation part 811 of FIG. 主端末部800及び副端末部810にて実行される処理を説明するフローチャートである。7 is a flowchart for explaining processing executed in a main terminal unit 800 and a sub terminal unit 810. プログラム映像透過率、プログラム音量、効果音音量の推移を例示した図である。It is the figure which illustrated transition of program picture transmissivity, program volume, and sound effect volume. 主端末部800及び副端末部810にてプログラムの実行を開始した時点からの時間経過を例示した図である。It is the figure which illustrated time passage from the time of starting execution of a program in main terminal unit 800 and subterminal unit 810.

[第1実施形態]
以下、本発明の第1実施形態に係る映像表示システムとして、第1の装置(以下、主端末部という)にて提示していた映像及び音声を、視聴者の操作指示により第2の装置(以下、副端末部という)にて提示する例を説明する。
図1は、本実施形態に係るシステムの構成例を概略的に示す図であり、主端末部100及び副端末部110で構成され、例えば主端末部100が映像表示装置であって、副端末部110が遠隔操作装置である。
[First embodiment]
Hereinafter, as the video display system according to the first embodiment of the present invention, the video and audio presented by the first device (hereinafter referred to as the main terminal unit) are converted into the second device ( Hereinafter, an example of presentation at the sub terminal unit) will be described.
FIG. 1 is a diagram schematically illustrating a configuration example of a system according to the present embodiment, which includes a main terminal unit 100 and a sub terminal unit 110. For example, the main terminal unit 100 is a video display device, and the sub terminal The unit 110 is a remote control device.

主端末部100は、蓄積再生部101、映像出力部102、音声出力部103を備える。蓄積再生部101は蓄積装置及び復号装置などから構成され、符号化された映像データ及び音声データを蓄積する。以下、符号化された映像データ及び音声データをコンテンツと称する場合がある。蓄積再生部101は、副端末部110の操作部114から操作信号125を受信し、操作信号125に応じて蓄積装置に蓄積された映像データ及び音声データを復号して再生する。また主端末部100は副端末部110に対し、符号化された映像情報及び音声情報を含む符号化映像音声信号120を無線方式で送信する。映像出力部102はディスプレイ装置などで構成され、蓄積再生部101が出力した映像信号105を受けて映像を出力する。また音声出力部103は、音声アンプ及びスピーカなどで構成され、蓄積再生部101が出力した音声信号106を受けて音声を出力する。   The main terminal unit 100 includes a storage / playback unit 101, a video output unit 102, and an audio output unit 103. The storage / playback unit 101 includes a storage device, a decoding device, and the like, and stores encoded video data and audio data. Hereinafter, the encoded video data and audio data may be referred to as content. The storage / playback unit 101 receives the operation signal 125 from the operation unit 114 of the sub-terminal unit 110, and decodes and plays back the video data and audio data stored in the storage device according to the operation signal 125. In addition, the main terminal unit 100 transmits an encoded video / audio signal 120 including encoded video information and audio information to the sub-terminal unit 110 by a wireless method. The video output unit 102 is configured by a display device or the like, and receives the video signal 105 output from the storage / playback unit 101 and outputs a video. The audio output unit 103 includes an audio amplifier, a speaker, and the like. The audio output unit 103 receives the audio signal 106 output from the storage / playback unit 101 and outputs audio.

副端末部110は、映像音声提示部111、映像出力部112、音声出力部113、操作部114を備える。映像音声提示部111は、復号装置などで構成され、主端末部100から受信した符号化映像音声信号120を復号する。映像出力部112はディスプレイ装置などで構成され、映像音声提示部111が出力した映像信号115を受けて映像を出力する。音声出力部113は音声アンプ及びスピーカなどで構成され、映像音声提示部111が出力した音声信号116を受けて音声を出力する。操作部114は操作ボタンやスイッチなどを有し、視聴者の操作指示を受け付けると、赤外線などの操作信号125に変換して該信号を主端末部100へ送信する。   The sub-terminal unit 110 includes a video / audio presentation unit 111, a video output unit 112, an audio output unit 113, and an operation unit 114. The video / audio presentation unit 111 includes a decoding device and the like, and decodes the encoded video / audio signal 120 received from the main terminal unit 100. The video output unit 112 is configured by a display device or the like, and receives the video signal 115 output from the video / audio presentation unit 111 and outputs a video. The audio output unit 113 includes an audio amplifier and a speaker, and receives the audio signal 116 output from the video / audio presentation unit 111 and outputs audio. The operation unit 114 includes operation buttons, switches, and the like. When an operation instruction from the viewer is received, the operation unit 114 converts the operation signal 125 into an operation signal 125 such as infrared rays and transmits the signal to the main terminal unit 100.

図2は、図1に示した蓄積再生部101の構成例のブロック図である。図中の映像信号105、音声信号106、符号化映像音声信号120、操作信号125は、既述の通りである。蓄積再生部101は符号化映像音声蓄積部200、符号化映像音声読み出し部201、デマックス部202、映像復号部203、輝度調整部204、音声復号部205、音量調整部206を備える。さらには符号化映像音声読み出し部210、符号化映像音声送信部211、提示制御部220、操作信号受信部221が設けられている。なお符号化映像音声読み出し部201は符号化映像音声蓄積部200に対する第1の読み出し手段を構成し、符号化映像音声読み出し部210は符号化映像音声蓄積部200に対する第2の読み出し手段を構成する。なお以下では、符号化映像音声読み出し部を単に読み出し部という。   FIG. 2 is a block diagram of a configuration example of the storage / playback unit 101 shown in FIG. The video signal 105, audio signal 106, encoded video / audio signal 120, and operation signal 125 in the figure are as described above. The storage / playback unit 101 includes an encoded video / audio storage unit 200, an encoded video / audio read unit 201, a demax unit 202, a video decoding unit 203, a luminance adjustment unit 204, an audio decoding unit 205, and a volume adjustment unit 206. Furthermore, an encoded video / audio reading unit 210, an encoded video / audio transmission unit 211, a presentation control unit 220, and an operation signal reception unit 221 are provided. The encoded video / audio reading unit 201 constitutes a first reading unit for the encoded video / audio storage unit 200, and the encoded video / audio reading unit 210 constitutes a second reading unit for the encoded video / audio storage unit 200. . Hereinafter, the encoded video / audio reading unit is simply referred to as a reading unit.

符号化映像音声蓄積部200は、ハードディスクドライブ装置などで構成され、符号化された映像データ及び音声データを蓄積する。映像符号化方式としては、例えば、MPEG-2 Video(ISO/IEC 13818-2)方式を用いることができる。これは、“Information technology -- Generic coding of moving pictures and associated audio information :Video”の規格による。また音声符号化方式としては、例えば、AAC(ISO/IEC 13818-7)方式を用いることができる。これは“Information technology -- Generic coding of moving pictures and associated audio information -- Part 7: Advanced Audio Coding(AAC)”の規格による。符号化映像音声蓄積部200は、符号化した映像及び音声のデータをMPEG-2 Systems(ISO/IEC 13818-1)にて規定されているTransport Stream(以下、MPEG-2 TSという)方式により多重化する。なお符号化した映像及び音声のデータとは、MPEG-2 Video方式で符号化した映像及びAAC方式で符号化した音声のデータである。符号化映像音声蓄積部200は、多重化した一体のデータをハードディスクドライブ装置に蓄積する。なおMPEG-2 Systemsの規格は、“Information technology -- Generic coding of moving pictures and associated audio information: Systems”である。映像符号化方式、音声符号化方式、多重化方式については本例に限らず、他の方式を用いてもよい。   The encoded video / audio storage unit 200 is composed of a hard disk drive device or the like, and stores encoded video data and audio data. As a video encoding method, for example, an MPEG-2 Video (ISO / IEC 13818-2) method can be used. This is based on the standard of “Information technology-Generic coding of moving pictures and associated audio information: Video”. As a speech encoding method, for example, an AAC (ISO / IEC 13818-7) method can be used. This is in accordance with the standard of “Information technology-Generic coding of moving pictures and associated audio information-Part 7: Advanced Audio Coding (AAC)”. The encoded video / audio storage unit 200 multiplexes encoded video and audio data by a Transport Stream (hereinafter referred to as MPEG-2 TS) method defined by MPEG-2 Systems (ISO / IEC 13818-1). Turn into. Note that the encoded video and audio data are video data encoded by the MPEG-2 Video system and audio data encoded by the AAC system. The encoded video / audio storage unit 200 stores the multiplexed integrated data in the hard disk drive device. The MPEG-2 Systems standard is “Information technology-Generic coding of moving pictures and associated audio information: Systems”. The video encoding method, the audio encoding method, and the multiplexing method are not limited to this example, and other methods may be used.

第1の読み出し部201は、視聴者に提示すべき再生位置に応じた符号化映像音声のデータを、符号化映像音声蓄積部200から読み出す。デマックス部202は、符号化映像音声信号を、PID(Packet Identifier)に従って符号化映像信号と符号化音声信号に分離し、各信号を映像復号部203と音声復号部205にそれぞれ出力する。なおPIDはMPEG-2 Systemsにて定義されている。   The first reading unit 201 reads out encoded video / audio data corresponding to the reproduction position to be presented to the viewer from the encoded video / audio storage unit 200. The demux unit 202 separates the encoded video / audio signal into an encoded video signal and an encoded audio signal according to a PID (Packet Identifier), and outputs each signal to the video decoding unit 203 and the audio decoding unit 205. PID is defined by MPEG-2 Systems.

映像復号部203は、MPEG-2 Video方式などで符号化された映像信号を復号し、輝度調整部204に出力する。輝度調整部204は、映像信号の輝度を調整し、映像信号105を出力する。また音声復号部205は、AAC方式などで符号化された符号化音声信号を復号し、音量調整部206に出力する。音量調整部206は音声ボリュームなどにより構成され、音量を調整して音声信号106を出力する。   The video decoding unit 203 decodes a video signal encoded by the MPEG-2 Video method or the like and outputs the decoded video signal to the luminance adjustment unit 204. The luminance adjusting unit 204 adjusts the luminance of the video signal and outputs the video signal 105. Also, the audio decoding unit 205 decodes an encoded audio signal encoded by the AAC method or the like, and outputs the decoded audio signal to the volume adjustment unit 206. The volume adjustment unit 206 includes an audio volume and adjusts the volume and outputs the audio signal 106.

第2の読み出し部210は、第1の読み出し部201と同様、符号化映像音声蓄積部200から、視聴者に提示すべき再生位置に応じた符号化映像音声のデータを読み出す。読み出し部201及び210は、互いに無関係な独立した再生位置に応じて符号化映像音声信号を読み出すことができる。これは、符号化映像音声蓄積部200をランダムアクセス可能なハードディスクドライブ装置などで構成することにより実現できる。読み出し部210が符号化映像音声蓄積部200から読み出した符号化映像音声信号は符号化映像音声送信部211に送られ、ここで該送信部は電波方式にて符号化映像音声信号120を送信する。電波方式としては、IEEE802.11(IEEE:The Institute of Electrical and Electronics Engineers, Inc.)方式が知られている。RTP(Real-time Transport Protocol)方式において、MPEG-2 TSを伝送する方式が規定されている。IEEE802.11とRTPを組み合わせることで、本実施形態に適用できる。   Similar to the first readout unit 201, the second readout unit 210 reads out encoded video / audio data corresponding to the playback position to be presented to the viewer from the encoded video / audio storage unit 200. The reading units 201 and 210 can read the encoded video / audio signal in accordance with independent playback positions that are not related to each other. This can be realized by configuring the encoded video / audio storage unit 200 with a hard disk drive device or the like that can be randomly accessed. The encoded video / audio signal read out from the encoded video / audio storage unit 200 by the reading unit 210 is sent to the encoded video / audio transmission unit 211, where the transmission unit transmits the encoded video / audio signal 120 by a radio wave system. . As a radio system, an IEEE 802.11 (IEEE: The Institute of Electrical and Electronics Engineers, Inc.) system is known. In the RTP (Real-time Transport Protocol) system, a system for transmitting MPEG-2 TS is defined. The present embodiment can be applied by combining IEEE802.11 and RTP.

操作信号受信部221は赤外線などの操作信号125を受信し、操作指示を提示制御部220へ伝える。提示制御部220は、操作信号受信部221を介して視聴者の操作指令を受け付け、読み出し部201及び210、輝度調整部204、音量調整部206を制御する。つまり、提示制御部220は読み出し部201,210に対して読み出し位置をそれぞれに指示し、輝度調整部204に対して映像輝度を指示する。また、提示制御部220は音量調整部206に対して音量を指示する。これにより映像信号105、音声信号106、符号化映像音声信号120の内容が制御される。   The operation signal receiving unit 221 receives an operation signal 125 such as infrared rays and transmits an operation instruction to the presentation control unit 220. The presentation control unit 220 receives a viewer operation command via the operation signal receiving unit 221 and controls the reading units 201 and 210, the luminance adjustment unit 204, and the volume adjustment unit 206. In other words, the presentation control unit 220 instructs the reading units 201 and 210 to read the reading positions, and instructs the luminance adjustment unit 204 to specify the video luminance. The presentation control unit 220 instructs the volume adjustment unit 206 to adjust the volume. As a result, the contents of the video signal 105, the audio signal 106, and the encoded video / audio signal 120 are controlled.

図3は、図1に示す映像音声提示部111の構成例を示す。なお符号化映像音声信号120、映像信号115、音声信号116については既述の通りである。映像音声提示部111は、符号化映像音声受信部311、デマックス部302、映像復号部303、輝度調整部304、音声復号部305、音量調整部306、提示制御部320を備える。   FIG. 3 shows a configuration example of the audio video presentation unit 111 shown in FIG. The encoded video / audio signal 120, the video signal 115, and the audio signal 116 are as described above. The video / audio presentation unit 111 includes an encoded video / audio reception unit 311, a demax unit 302, a video decoding unit 303, a luminance adjustment unit 304, an audio decoding unit 305, a volume adjustment unit 306, and a presentation control unit 320.

符号化映像音声受信部311は、符号化映像音声送信部211が送信した符号化映像音声信号120を受信してデマックス部302に出力するとともに、符号化映像音声信号120の受信開始を提示制御部320へ通知する。デマックス部302、映像復号部303、輝度調整部304、音声復号部305、音量調整部306の各機能に関しては、図2に示すデマックス部202、映像復号部203、輝度調整部204、音声復号部205、音量調整部206と同様である。よって、それらの説明を省略する。
提示制御部320は、輝度調整部304に対して映像輝度を指示し、音量調整部306に対して音量を指示することで、映像信号115及び音声信号116の内容を制御する。
The encoded video / audio reception unit 311 receives the encoded video / audio signal 120 transmitted from the encoded video / audio transmission unit 211 and outputs the encoded video / audio signal 120 to the demux unit 302, and also presents the reception start of the encoded video / audio signal 120. 320 is notified. Regarding the functions of the demax unit 302, the video decoding unit 303, the luminance adjustment unit 304, the audio decoding unit 305, and the volume adjustment unit 306, the demax unit 202, the video decoding unit 203, the luminance adjustment unit 204, and the audio decoding unit illustrated in FIG. 205 and the sound volume adjustment unit 206. Therefore, those descriptions are omitted.
The presentation control unit 320 controls the contents of the video signal 115 and the audio signal 116 by instructing the video luminance to the luminance adjustment unit 304 and instructing the volume to the volume adjustment unit 306.

図4の左側のフローチャートは、映像及び音声を提示する装置が、主端末部100から副端末部110へと切り換わる際、主端末部100にて実行される処理の流れを示す。
主端末部100が再生処理を開始する(S400)。その際、読み出し部201は、操作信号受信部221及び提示制御部220を介して視聴者の操作指示を受け付け、指示された再生位置に応じた符号化映像音声信号を符号化映像音声蓄積部200より読み出す。デマックス部202は、符号化映像音声信号のデマックス処理を実行する。そして映像復号部203は符号化映像信号の復号処理を実行し、音声復号部205は符号化音声信号の復号処理を実行する。
The flowchart on the left side of FIG. 4 shows the flow of processing executed in the main terminal unit 100 when the device that presents video and audio switches from the main terminal unit 100 to the sub-terminal unit 110.
The main terminal unit 100 starts the reproduction process (S400). At that time, the reading unit 201 receives an operation instruction of the viewer via the operation signal receiving unit 221 and the presentation control unit 220, and an encoded video / audio storage unit 200 receives an encoded video / audio signal corresponding to the instructed reproduction position. Read from. The demax unit 202 executes demax processing of the encoded video / audio signal. The video decoding unit 203 executes decoding processing of the encoded video signal, and the audio decoding unit 205 executes decoding processing of the encoded audio signal.

次に輝度調整部204は、映像の輝度が最大となるように輝度調整し(S401)、音量調整部206は、音量が最大となるように音声出力を調整する(S402)。そして視聴者が操作部114を用いて、コンテンツの提示端末装置の切り換え操作を行うと、その操作指示が操作信号受信部221から提示制御部220に通知される(S403)。輝度調整部204は映像の輝度を中間レベルに調整し(S404)、音量調整部206は音量が中間レベルとなるように音声出力を調整する(S405)。   Next, the luminance adjusting unit 204 adjusts the luminance so that the luminance of the video is maximized (S401), and the volume adjusting unit 206 adjusts the audio output so that the volume is maximized (S402). When the viewer performs a switching operation of the content presentation terminal device using the operation unit 114, the operation instruction is notified from the operation signal receiving unit 221 to the presentation control unit 220 (S403). The luminance adjusting unit 204 adjusts the luminance of the video to the intermediate level (S404), and the volume adjusting unit 206 adjusts the audio output so that the volume becomes the intermediate level (S405).

提示制御部220は、読み出し部210が読み出すべき、読出し位置を算出する(S406)。この読み出し位置は、読み出し部201が現時点で読み出している位置よりも所定時間(以下、N秒と記す)だけ遡った位置である。この時間(N値)は1秒程度でよく、設定により視聴者が操作し易い範囲で変化させることができる。以下では、符号化映像音声蓄積部200をLBA(Logical Block Addressing)方式に準拠したハードディスクドライブ装置を用いて構成する例について、読み出し位置の算出方法を説明する。ハードディスクドライブ装置は、その記録領域が512バイトを単位とするセクタに分かれており、セクタアドレスを指定することにより、512バイトごとにデータの読み書きが可能であるものとする。また、ハードディスクドライブ装置には、セクタアドレスが増加する順序に従って、符号化映像音声信号が時間的に連続して記録されているものとする。読み出し部210の読み出し位置に対応するセクタアドレスは、下式により算出される。

Figure 2011114378
The presentation control unit 220 calculates a reading position that the reading unit 210 should read (S406). This reading position is a position that is back by a predetermined time (hereinafter referred to as N seconds) from the position that the reading unit 201 is currently reading. This time (N value) may be about 1 second, and can be changed within a range in which the viewer can easily operate by setting. Hereinafter, a method for calculating a read position will be described for an example in which the encoded video / audio storage unit 200 is configured using a hard disk drive device compliant with the LBA (Logical Block Addressing) method. In the hard disk drive device, the recording area is divided into sectors each having 512 bytes, and data can be read and written every 512 bytes by specifying a sector address. Also, it is assumed that the encoded video / audio signals are continuously recorded in the hard disk drive device in the order of increasing sector addresses. The sector address corresponding to the reading position of the reading unit 210 is calculated by the following equation.
Figure 2011114378

上式中のSA2は、読み出し部210が読み出すべき位置に対応するセクタアドレスであり、SA1は、読み出し部201が読み出している位置に対応するセクタアドレスである。BRは、符号化映像音声信号のビットレート(符号化映像音声信号が1秒間当たりに占めるデータ容量)である。なおSA2の値が整数でない場合は、切り捨て処理又は切り上げ処理を行えばよく、得られる値は、読み出し部210が読み出す位置に対応するセクタアドレスとなる。
上式において、SA2が負値になる場合や、SA2が、読み出し部201の読み出しているコンテンツの記録範囲外のセクタアドレスになる場合には、セクタアドレスの変更を要する。つまり、読み出し部201が読み出しているコンテンツの先頭位置に対応するセクタアドレスを、読み出し部210の読み出し位置に対応するセクタアドレスSA2とする。また、この場合、提示制御部220は下式によりNの値を変更する。

Figure 2011114378
SA2 in the above equation is a sector address corresponding to the position to be read by the reading unit 210, and SA1 is a sector address corresponding to the position being read by the reading unit 201. BR is the bit rate of the encoded video / audio signal (data capacity occupied by the encoded video / audio signal per second). If the value of SA2 is not an integer, rounding down or rounding up may be performed, and the obtained value is a sector address corresponding to the position read by the reading unit 210.
In the above equation, when SA2 becomes a negative value, or when SA2 becomes a sector address outside the recording range of the content read by the reading unit 201, the sector address needs to be changed. That is, the sector address corresponding to the start position of the content read by the reading unit 201 is set as the sector address SA2 corresponding to the reading position of the reading unit 210. In this case, the presentation control unit 220 changes the value of N by the following formula.
Figure 2011114378

こうして読み出し部210は、読み出し部201に比してN秒の遅延時間をもって符号化映像音声蓄積部200から符号化映像音声信号を読み出す。この読み出し位置は、S406にて算出した読み出し位置である。符号化映像音声送信部211は、符号化映像音声信号120の送信を開始する(S407)。そしてN秒が経過するまでの時間待ち処理(S408)の後、輝度調整部204は、映像の輝度が最小となるように輝度調整する(S409)。音量調整部206は、音量が最小となるように音声出力を調整する(S410)。
主端末部100が再生を停止し(S411)、その際、読み出し部201は符号化映像音声の読み出しを停止する。デマックス部202は、デマックス処理を停止し、映像復号部203や音声復号部205は復号処理を停止する。
In this way, the reading unit 210 reads the encoded video / audio signal from the encoded video / audio storage unit 200 with a delay time of N seconds as compared with the reading unit 201. This read position is the read position calculated in S406. The encoded video / audio transmission unit 211 starts transmission of the encoded video / audio signal 120 (S407). Then, after the time waiting process until N seconds elapse (S408), the luminance adjusting unit 204 adjusts the luminance so that the luminance of the video is minimized (S409). The volume adjustment unit 206 adjusts the audio output so that the volume is minimized (S410).
The main terminal unit 100 stops reproduction (S411), and at that time, the reading unit 201 stops reading of the encoded video and audio. The demax unit 202 stops the demax process, and the video decoding unit 203 and the audio decoding unit 205 stop the decoding process.

符号化映像音声送信部211は、符号化映像音声信号120の送信を停止する(S412)。その際、読み出し部210は符号化映像音声の読み出しを停止する。送信停止の原因には、提示対象であるコンテンツが終端に到達した場合や、視聴者の停止操作指示による場合などが挙げられるが、その如何は問わない。   The encoded video / audio transmission unit 211 stops transmission of the encoded video / audio signal 120 (S412). At this time, the reading unit 210 stops reading the encoded video / audio. The cause of transmission stop includes the case where the content to be presented has reached the end or the case where the content is a stop operation instruction from the viewer, but it does not matter.

図4の右側のフローチャートは、映像及び音声を提示する装置が、主端末部100から副端末部110へ切り換わる際、副端末部110にて実行される処理の流れを示す。先ず、符号化映像音声受信部311は、符号化映像音声信号120の受信を検知し、該信号をデマックス部302に出力するとともに、符号化映像音声信号120の受信を開始した旨を提示制御部320に通知する(S500)。本ステップS500は前記S407に対応しており、主端末部100が符号化映像音声信号120の送信を開始することにより、副端末部110は符号化映像音声信号120の受信を開始する。   The flowchart on the right side of FIG. 4 shows the flow of processing executed in the sub-terminal unit 110 when the device for presenting video and audio switches from the main terminal unit 100 to the sub-terminal unit 110. First, the encoded video / audio reception unit 311 detects the reception of the encoded video / audio signal 120, outputs the signal to the demux unit 302, and indicates that the reception of the encoded video / audio signal 120 has started. 320 is notified (S500). This step S500 corresponds to S407. When the main terminal unit 100 starts transmitting the encoded video / audio signal 120, the sub-terminal unit 110 starts receiving the encoded video / audio signal 120.

副端末部110が再生を開始し(S501)、その際、デマックス部302は、符号化映像音声信号のデマックス処理を実行する。映像復号部303は符号化映像信号の復号処理を実行し、音声復号部305は符号化音声信号の復号処理を実行する。そして輝度調整部304は、映像の輝度が中間レベルとなるように輝度調整し(S502)、音量調整部306は、音量が中間レベルとなるように音声出力を調整する(S503)。そして、N秒が経過するまでの時間待ち処理(S504)の後、輝度調整部304は、映像の輝度が最大となるように輝度調整する(S505)。音量調整部306は、音量が最大となるように音声出力を調整する(S506)。   The sub-terminal unit 110 starts reproduction (S501), and at that time, the demax unit 302 executes demax processing of the encoded video / audio signal. The video decoding unit 303 executes a decoding process for the encoded video signal, and the audio decoding unit 305 executes a decoding process for the encoded audio signal. Then, the luminance adjustment unit 304 adjusts the luminance so that the luminance of the video becomes an intermediate level (S502), and the volume adjustment unit 306 adjusts the audio output so that the volume becomes an intermediate level (S503). Then, after the time waiting process until N seconds elapse (S504), the luminance adjustment unit 304 adjusts the luminance so that the luminance of the video is maximized (S505). The volume adjustment unit 306 adjusts the audio output so that the volume is maximized (S506).

符号化映像音声受信部311は符号化映像音声信号120の受信を停止する(S507)。本ステップS507は前記S412に対応しており、主端末部100が符号化映像音声信号120の送信を停止することにより、副端末部110は符号化映像音声信号120の受信を停止する。
副端末部110が再生を停止し(S508)。その際、デマックス部302はデマックス処理を停止する。映像復号部303、音声復号部305は復号処理を停止する。
The encoded video / audio reception unit 311 stops receiving the encoded video / audio signal 120 (S507). This step S507 corresponds to S412, and when the main terminal unit 100 stops transmitting the encoded video / audio signal 120, the sub-terminal unit 110 stops receiving the encoded video / audio signal 120.
The sub-terminal unit 110 stops the reproduction (S508). At that time, the demax unit 302 stops the demax process. The video decoding unit 303 and the audio decoding unit 305 stop the decoding process.

図5は、主端末部100の映像輝度、音声音量、及び副端末部110の映像輝度、音声音量の時間的な推移例を示す。横軸は経過時間を表し、T600乃至603が時刻を示す。また上方に主端末部100の映像輝度レベルと音声音量レベルの時間的変化を示し、下方に副端末部110の映像輝度レベルと音声音量レベルの時間的変化を示している。
時刻T600にて主端末部100は再生を開始する(図4のS400参照)。このとき、主端末部100により提示される映像の輝度は最大であり(S401参照)、主端末部100による音声出力の音量は最大である(S402参照)。
FIG. 5 shows an example of temporal transition of the video luminance and audio volume of the main terminal unit 100 and the video luminance and audio volume of the sub-terminal unit 110. The horizontal axis represents elapsed time, and T600 to 603 indicate time. Further, the temporal change in the video luminance level and the audio volume level of the main terminal unit 100 is shown above, and the temporal change in the video luminance level and the audio volume level of the sub-terminal unit 110 is shown below.
The main terminal unit 100 starts reproduction at time T600 (see S400 in FIG. 4). At this time, the luminance of the video presented by the main terminal unit 100 is maximum (see S401), and the volume of audio output by the main terminal unit 100 is maximum (see S402).

時刻T600から時刻T601までの期間中、主端末部100はコンテンツの映像及び音声を提示する。一方、副端末部110では、映像輝度及び音声音量ともに最小である。
時刻T601にて視聴者によって端末切り換え操作が行われる(S403参照)。主端末部100では、映像輝度が中間レベルとなり(S404参照)、音量が中間レベルとなる(S405参照)。
主端末部100が符号化映像音声信号120の送信を開始し(S407参照)、副端末部110は符号化映像音声信号120の受信を開始する(S500参照)。そして副端末部110は再生を開始する(S501参照)。その際、副端末部110では、映像輝度が中間レベルであり(S502参照)、音量レベルが中間レベルである(S503参照)。
時刻T601からN秒間経過すると時刻T602となる(S408及びS504参照)。時刻T601から時刻T602までの移行期間中、主端末部100及び副端末部110はともにコンテンツの映像及び音声を提示する。
During the period from time T600 to time T601, the main terminal unit 100 presents content video and audio. On the other hand, in the sub-terminal unit 110, both the video luminance and the audio volume are minimum.
A terminal switching operation is performed by the viewer at time T601 (see S403). In the main terminal unit 100, the video luminance is at an intermediate level (see S404), and the volume is at an intermediate level (see S405).
The main terminal unit 100 starts transmitting the encoded video / audio signal 120 (see S407), and the sub-terminal unit 110 starts receiving the encoded video / audio signal 120 (see S500). Then, the sub terminal unit 110 starts reproduction (see S501). At that time, in the sub-terminal unit 110, the video luminance is an intermediate level (see S502), and the volume level is an intermediate level (see S503).
When N seconds elapse from time T601, time T602 is reached (see S408 and S504). During the transition period from time T601 to time T602, both the main terminal unit 100 and the sub terminal unit 110 present video and audio of content.

時刻T602にて、主端末部100の映像輝度は最小となり(S409参照)、主端末部100の音声音量も最小となる(S410参照)。その後、主端末部100は再生を停止する(S411参照)。一方、副端末部110では映像輝度が最大となり(S505参照)、音声音量が最大となる(S506参照)。
時刻T602から時刻T603までの期間中、副端末部110はコンテンツの映像及び音声を提示する。一方、主端末部100では、映像輝度及び音声音量ともに最小である。
時刻T603にて、主端末部100は符号化映像音声信号120の送信を停止する(S412参照)。副端末部110は符号化映像音声信号120の受信を停止する(S507参照)。副端末部110は再生を停止する(S508参照)。
At time T602, the video luminance of the main terminal unit 100 is minimized (see S409), and the audio volume of the main terminal unit 100 is also minimized (see S410). Thereafter, the main terminal unit 100 stops the reproduction (see S411). On the other hand, in the sub-terminal unit 110, the video luminance is maximized (see S505), and the audio volume is maximized (see S506).
During the period from time T602 to time T603, the sub-terminal unit 110 presents content video and audio. On the other hand, in the main terminal unit 100, both the video luminance and the audio volume are minimum.
At time T603, the main terminal unit 100 stops the transmission of the encoded video / audio signal 120 (see S412). The sub-terminal unit 110 stops receiving the encoded video / audio signal 120 (see S507). The sub terminal unit 110 stops the reproduction (see S508).

図6は横軸に時刻を示し、縦軸に主端末部100及び副端末部110における再生位置の時間的変化を示したグラフである。図中の時刻T600乃至603は図5に示す時刻と同一時刻である。
主端末部100における再生位置は、時刻T600での位置(点P0参照)と時刻T602での位置(点P2参照)とを繋いだ右上がりの線分に従って時間的に変化する。また、副端末部110における再生位置は、時刻T601での位置(点P1参照)と時刻T603での位置(点P3参照)とを繋いだ右上がりの線分に従って時間的に変化する。
FIG. 6 is a graph in which time is shown on the horizontal axis, and time-dependent changes in playback positions in the main terminal unit 100 and the sub terminal unit 110 are shown on the vertical axis. Times T600 to 603 in the figure are the same as the time shown in FIG.
The playback position in the main terminal unit 100 changes over time according to a line segment that rises to the right connecting the position at time T600 (see point P0) and the position at time T602 (see point P2). In addition, the playback position in the sub-terminal unit 110 changes over time according to a line segment that rises to the right connecting the position at time T601 (see point P1) and the position at time T603 (see point P3).

時刻T600にて主端末部100は再生を開始する(図4のS400参照)。そして時刻T601にて端末切り換え操作が行われ(S403参照)、副端末部110が再生を開始する(S501参照)。読み出し部210は、読み出し部201が読み出している位置よりも、N秒分だけ時間的に遡った位置のデータを読み出す。したがって、図示のように、副端末部110が再生する位置は、主端末部100が再生する位置に対して、N秒遡った位置となる。
時刻T601からN秒が経過すると時刻T602となり(S408及びS504参照)、時刻T602にて主端末部100は再生を停止する(S411参照)。副端末部110はその後も再生を続行し、時刻T603にて再生を停止する(S508参照)。
The main terminal unit 100 starts reproduction at time T600 (see S400 in FIG. 4). At time T601, a terminal switching operation is performed (see S403), and the sub-terminal unit 110 starts reproduction (see S501). The reading unit 210 reads data at a position that is back in time by N seconds from the position read by the reading unit 201. Therefore, as shown in the figure, the position reproduced by the sub-terminal unit 110 is a position that is N seconds backward from the position reproduced by the main terminal unit 100.
When N seconds elapse from time T601, time T602 is reached (see S408 and S504), and the main terminal unit 100 stops reproduction at time T602 (see S411). The sub-terminal unit 110 continues the reproduction after that, and stops the reproduction at time T603 (see S508).

第1実施形態によれば、コンテンツを提示する装置が切り換わる際、切り換え先の装置は切り換え元の装置よりも時間的に遅れてコンテンツを提示する。これにより、両装置においてコンテンツが時間的に重複して提示されるので、視聴者の視点移動に要する期間中に提示されるコンテンツ映像を視聴者が見逃さないように防止できる。   According to the first embodiment, when the device that presents the content is switched, the switching destination device presents the content with a time lag behind the switching source device. As a result, the contents are presented overlappingly in both devices, so that it is possible to prevent the viewer from overlooking the content video presented during the period required for the viewer to move the viewpoint.

[第2実施形態]
次に本発明の第2実施形態について説明する。第2実施形態では、主端末部にて提示していたプログラムコンテンツを、副端末部へと切り換えて提示する例を説明する。ここで、プログラムコンテンツとは、プログラムの実行により生成される映像および音声を含むコンテンツを指す。
図7は、第2実施形態に係るシステムの概略構成を示し、主端末部800及び副端末部810から構成される。主端末部800は、放送受信部801、映像出力部802、音声出力部803を備える。放送受信部801はチューナ及び復号装置などで構成され、副端末部810の操作部814から操作信号825を受信する。放送受信部801は、操作信号825に応じて放送波830を受信し、復調及び復号したデータに基づき、映像出力部802及び音声出力部803を用いて放送番組を提示する。また、主端末部800は、復号された映像音声信号820、プログラム信号821、及びプログラム提示制御信号822を副端末部810へ無線送信する。映像出力部802はディスプレイ装置などで構成され、放送受信部801が出力した映像信号805を受けて映像を出力する。また音声出力部803は音声アンプ及びスピーカなどで構成され、放送受信部801が出力した音声信号806を受けて音声を出力する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the second embodiment, an example will be described in which the program content presented at the main terminal unit is presented by switching to the sub-terminal unit. Here, the program content refers to content including video and audio generated by executing the program.
FIG. 7 shows a schematic configuration of a system according to the second embodiment, which includes a main terminal unit 800 and a sub terminal unit 810. The main terminal unit 800 includes a broadcast receiving unit 801, a video output unit 802, and an audio output unit 803. The broadcast receiving unit 801 includes a tuner and a decoding device, and receives an operation signal 825 from the operation unit 814 of the sub-terminal unit 810. The broadcast receiving unit 801 receives a broadcast wave 830 according to the operation signal 825, and presents a broadcast program using the video output unit 802 and the audio output unit 803 based on the demodulated and decoded data. The main terminal unit 800 wirelessly transmits the decoded video / audio signal 820, the program signal 821, and the program presentation control signal 822 to the sub-terminal unit 810. The video output unit 802 is configured by a display device or the like, and receives the video signal 805 output from the broadcast receiving unit 801 and outputs a video. The audio output unit 803 includes an audio amplifier and a speaker. The audio output unit 803 receives the audio signal 806 output from the broadcast receiving unit 801 and outputs audio.

副端末部810は、プログラム提示部811、映像出力部812、音声出力部813、操作部814を備える。プログラム提示部811はプログラムを実行するマイクロプロセッサなどで構成され、主端末部800から復号された映像音声信号820、プログラム信号821、及びプログラム提示制御信号822を受信する。プログラム提示部811は、主端末部800から受けとったプログラムを実行し、映像出力部812及び音声出力部813を用いて映像及び音声をそれぞれ出力する。映像出力部812はディスプレイ装置などで構成され、プログラム提示部811が出力した映像信号815を受けて映像を出力する。また、音声出力部813は音声アンプ及びスピーカなどで構成され、プログラム提示部811が出力した音声信号816を受けて音声を出力する。操作部814は操作ボタンやスイッチなどを有しており、視聴者の操作指示を受け付け、赤外線通信などにより操作信号825を主端末部800に送信する。   The sub-terminal unit 810 includes a program presentation unit 811, a video output unit 812, an audio output unit 813, and an operation unit 814. The program presentation unit 811 includes a microprocessor or the like that executes a program, and receives the decoded video / audio signal 820, program signal 821, and program presentation control signal 822 from the main terminal unit 800. The program presentation unit 811 executes the program received from the main terminal unit 800 and outputs video and audio using the video output unit 812 and the audio output unit 813, respectively. The video output unit 812 is configured by a display device or the like, and receives the video signal 815 output from the program presentation unit 811 and outputs a video. The audio output unit 813 includes an audio amplifier and a speaker. The audio output unit 813 receives the audio signal 816 output from the program presentation unit 811 and outputs audio. The operation unit 814 has operation buttons, switches, and the like, receives an operation instruction from the viewer, and transmits an operation signal 825 to the main terminal unit 800 by infrared communication or the like.

図8は、放送受信部801の構成例を示しており、図中の放送波830や、各信号805、806、820乃至822、825については既述の通りである。放送受信部801は、チューナ部900、デマックス部901、映像復号部902、映像合成部903、音声復号部904、音声合成部905、映像音声送信部906を備える。放送受信部801はさらに、プログラム復号部907、第1のプログラム実行部908、プログラム映像生成部909、プログラム映像透過率調整部910、プログラム音声生成部911、プログラム音量調整部912、遅延処理部920を備える。さらにはプログラム送信部921、プログラム提示制御部930、番組情報取得部940、選局制御部941、操作信号受信部942が設けられている。   FIG. 8 shows a configuration example of the broadcast receiving unit 801, and the broadcast wave 830 and the signals 805, 806, 820 to 822, and 825 in the figure are as described above. The broadcast receiving unit 801 includes a tuner unit 900, a demax unit 901, a video decoding unit 902, a video synthesis unit 903, an audio decoding unit 904, an audio synthesis unit 905, and a video / audio transmission unit 906. The broadcast receiving unit 801 further includes a program decoding unit 907, a first program execution unit 908, a program video generation unit 909, a program video transmittance adjustment unit 910, a program audio generation unit 911, a program volume adjustment unit 912, and a delay processing unit 920. Is provided. Furthermore, a program transmission unit 921, a program presentation control unit 930, a program information acquisition unit 940, a channel selection control unit 941, and an operation signal reception unit 942 are provided.

チューナ部900は、ISDB-T(Integrated Services Digital Broadcasting for Terrestrial)方式などで変調された放送波830を復調し、符号化映像音声信号を出力する。後段のデマックス部901は、符号化映像音声信号をPIDに従って分離する。分離後の符号化映像信号は映像復号部902へ送られ、符号化音声信号は音声復号部904へ送られ、符号化プログラム信号はプログラム復号部907へ送られ、番組情報信号は番組情報取得部940へ送られる。映像復号部902は、MPEG-2 Video方式などに従う符号化映像信号を復号し、映像信号を出力する。音声復号部904は、AAC方式などに従う符号化音声信号を復号し、音声信号を出力する。映像音声送信部906は、映像復号部902からの映像信号、及び音声復号部904からの音声信号を無線方式で副端末部810に送信する。無線方式としては、Wireless HD(登録商標)やWHDI(登録商標)が提案されており、一般にWireless HDMI(登録商標)と呼ばれている。なおWHDIは“Wireless Home Digital Interface”の略号であり、HDMIは“High-Definition Multimedia Interface”の略号であり、両方式とも本実施形態に適用可能である。   The tuner unit 900 demodulates a broadcast wave 830 modulated by an ISDB-T (Integrated Services Digital Broadcasting for Terrestrial) system and outputs an encoded video / audio signal. The subsequent demax unit 901 separates the encoded video / audio signal according to the PID. The separated encoded video signal is sent to the video decoding unit 902, the encoded audio signal is sent to the audio decoding unit 904, the encoded program signal is sent to the program decoding unit 907, and the program information signal is sent to the program information acquisition unit. 940. The video decoding unit 902 decodes an encoded video signal conforming to the MPEG-2 Video system and outputs a video signal. The audio decoding unit 904 decodes an encoded audio signal conforming to the AAC method and outputs an audio signal. The video / audio transmission unit 906 transmits the video signal from the video decoding unit 902 and the audio signal from the audio decoding unit 904 to the sub-terminal unit 810 in a wireless manner. As wireless systems, Wireless HD (registered trademark) and WHDI (registered trademark) have been proposed, and are generally called Wireless HDMI (registered trademark). Note that WHDI is an abbreviation for “Wireless Home Digital Interface”, and HDMI is an abbreviation for “High-Definition Multimedia Interface”, both of which are applicable to this embodiment.

プログラム復号部907は符号化されたプログラム信号を復号する。放送波830を介してプログラムを送信する方法としては、例えば、MHP(ETSI ES 201 812)方式が知られており、本実施形態に適用可能である。これは、“Multimedia Home Platform”の規格による。MHP方式にて放送局は、Sun Microsystems社が開発したプログラミング言語Java(登録商標)のバイトコードをDSM-CC(ISO/IEC 13818-10)方式を用いて符号化して送信する。これは、“Information technology -- Generic coding of moving pictures and associated audio information -- Part 10: Conformance extensions for Digital Storage Media Command and Control (DSM-CC) ”の規格による。受信機は符号化されたプログラム信号を受信して復号し、受信機内のJVMにより実行する。なおJVMは“Java(登録商標) Virtual Machine”の略号である。   The program decoding unit 907 decodes the encoded program signal. As a method for transmitting a program via the broadcast wave 830, for example, an MHP (ETSI ES 201 812) method is known and can be applied to this embodiment. This is based on the “Multimedia Home Platform” standard. In the MHP system, a broadcasting station encodes and transmits a byte code of a programming language Java (registered trademark) developed by Sun Microsystems using a DSM-CC (ISO / IEC 13818-10) system. This is based on the standard of “Information technology-Generic coding of moving pictures and associated audio information-Part 10: Conformance extensions for Digital Storage Media Command and Control (DSM-CC)”. The receiver receives and decodes the encoded program signal and executes it by the JVM in the receiver. JVM is an abbreviation of “Java (registered trademark) Virtual Machine”.

プログラム実行部908は、図示しないマイクロプロセッサによりプログラムを実行する。前述のようにJVMによってJava(登録商標)バイトコードが解釈されて実行される。後段のプログラム映像生成部909は、点・線・矩形などの図形描画機能を組み合わせて、プログラム実行部908が指示したグラフィックを描画し、プログラム映像信号として出力する。プログラム映像透過率調整部910はプログラム映像生成部909からのプログラム映像信号を受けて、後述のプログラム提示制御部930からの指令に従い、プログラム映像信号に透過率情報を付加することでプログラム映像の透過率を調整する。つまり、ここでは映像合成部903が映像信号とプログラム映像信号を合成する際に使用するプログラム映像の透過率を調整する処理が実行される。なおプログラム映像透過率調整部を以下、単に透過率調整部という。
映像合成部903は、映像復号部902が出力した映像信号と、透過率調整部910が出力したプログラム映像信号を合成する。この際、プログラム映像信号の透過率に従い、映像信号とプログラム映像信号が合成される。例えば透過率を百分率で表すものとし、0%のとき(以下、プログラム映像が「不透明」であると表現する)、映像復号部902による映像がプログラム映像により遮られるため、プログラム映像信号だけが映像合成部903より出力される。透過率が50%のとき(以下、プログラム映像が「半透明」であると表現する)、映像復号部902による映像とプログラム映像が半々に混合された状態の映像信号が映像合成部903より出力される。透過率が100%のとき(以下、プログラム映像が「透明」であると表現する)、映像復号部902による映像がプログラム映像により遮られずに、その映像信号だけが映像合成部903より出力される。
The program execution unit 908 executes a program with a microprocessor (not shown). As described above, the Java (registered trademark) bytecode is interpreted and executed by the JVM. The subsequent program video generation unit 909 draws the graphic instructed by the program execution unit 908 by combining graphic drawing functions such as dots, lines, and rectangles, and outputs the graphic as a program video signal. The program video transmissivity adjustment unit 910 receives the program video signal from the program video generation unit 909, and adds transparency information to the program video signal in accordance with a command from the program presentation control unit 930 described later, thereby transmitting the program video. Adjust the rate. That is, here, a process of adjusting the transmittance of the program video used when the video synthesis unit 903 synthesizes the video signal and the program video signal is executed. Hereinafter, the program video transmittance adjusting unit is simply referred to as a transmittance adjusting unit.
The video synthesis unit 903 synthesizes the video signal output from the video decoding unit 902 and the program video signal output from the transmittance adjustment unit 910. At this time, the video signal and the program video signal are synthesized according to the transmittance of the program video signal. For example, when the transmittance is expressed as a percentage and 0% (hereinafter, the program video is expressed as “opaque”), the video by the video decoding unit 902 is blocked by the program video, so only the program video signal is video. Output from the combining unit 903. When the transmissivity is 50% (hereinafter, the program video is expressed as “semi-transparent”), a video signal in a state where the video by the video decoding unit 902 and the program video are mixed in half is output from the video synthesis unit 903. Is done. When the transmittance is 100% (hereinafter, the program video is expressed as “transparent”), the video by the video decoding unit 902 is not blocked by the program video, and only the video signal is output from the video synthesis unit 903. The

プログラム音声生成部911は、プログラム実行部908が指示した音声信号を生成する。生成方法としては、例えば、AAC方式により符号化された音声をプログラム中に埋め込み、音声復号部(図示せず)により音声データを復号する方法がある。プログラム音量調整部912は音声ボリュームなどを用いて構成され、音声出力の音量調整を行う。音声合成部905は、音声復号部904が出力する音声信号と、プログラム音量調整部912が出力するプログラム音声信号とを合成する。遅延処理部920は、プログラム復号部907が出力したプログラム信号を図示しないメモリに一時記憶し、プログラム提示制御部930からその出力を命じられた場合、プログラムを読み出してプログラム送信部921へ出力する。プログラム送信部921は、遅延処理部920が出力したプログラム信号を所定の電波方式で副端末部810に送信する。電波方式としては、例えば、IEEE802.11方式とFTP(File Transfer Protocol)方式を組み合わせて、本実施形態に適用できる。   The program sound generation unit 911 generates a sound signal instructed by the program execution unit 908. As a generation method, for example, there is a method in which a voice encoded by the AAC method is embedded in a program, and voice data is decoded by a voice decoding unit (not shown). The program volume adjustment unit 912 is configured using an audio volume or the like, and adjusts the volume of audio output. The voice synthesizer 905 synthesizes the voice signal output from the voice decoder 904 and the program voice signal output from the program volume adjuster 912. The delay processing unit 920 temporarily stores the program signal output from the program decoding unit 907 in a memory (not shown), and when the output is instructed from the program presentation control unit 930, reads the program and outputs it to the program transmission unit 921. The program transmission unit 921 transmits the program signal output from the delay processing unit 920 to the sub-terminal unit 810 using a predetermined radio wave method. As the radio wave system, for example, the IEEE 802.11 system and the FTP (File Transfer Protocol) system can be combined and applied to the present embodiment.

プログラム提示制御部930は、透過率調整部910に対して透過率を指示し、プログラム音量調整部912に対して音量を指示し、遅延処理部920に対してプログラム送信開始タイミングを指示する。これにより映像信号805、音声信号806、プログラム信号821の内容がそれぞれ制御される。また、プログラム提示制御部930は、プログラム提示制御信号822、つまり副端末部810におけるプログラム提示のタイミングを制御する信号を出力する。プログラム提示制御信号822の送受信方式としては、例えば、IEEE802.11方式とRFC854(TELNET PROTOCOL SPECIFICATION)方式を組み合わせて、本実施形態に適用できる。   The program presentation control unit 930 instructs the transmittance adjustment unit 910 on the transmittance, instructs the program volume adjustment unit 912 on the volume, and instructs the delay processing unit 920 on the program transmission start timing. As a result, the contents of the video signal 805, the audio signal 806, and the program signal 821 are controlled. Further, the program presentation control unit 930 outputs a program presentation control signal 822, that is, a signal for controlling the timing of program presentation in the sub-terminal unit 810. As a transmission / reception method of the program presentation control signal 822, for example, an IEEE802.11 method and an RFC854 (TELNET PROTOCOL SPECIFICATION) method can be combined and applied to the present embodiment.

番組情報取得部940は、デマックス部901からの番組情報、例えばEIT(Event Information Table)などで構成される番組情報を取得する。操作信号受信部942は、赤外線通信などで操作信号825を受信し、操作指示を選局制御部941へ伝える。選局制御部941は、操作信号受信部942を介して受け付けた視聴者の操作指示に従って選局制御を行う。具体的には、選局すべきチャンネルを、チューナ部900へ伝える処理が行われる。さらに、選局すべきチャンネルの映像情報を伝送するPIDを、番組情報取得部940より読み出して映像復号部902へ伝える処理が行われる。同様に、音声情報を伝送するPIDを音声復号部904へ伝えるとともに、プログラム情報を伝送するPIDをプログラム復号部907へ伝える処理が実行される。なおPIDにより多重化したデータを取り扱う方法は、MPEG-2 Systemsの規格に詳述されている。   The program information acquisition unit 940 acquires program information from the demax unit 901, for example, program information including EIT (Event Information Table). The operation signal receiving unit 942 receives the operation signal 825 by infrared communication or the like, and transmits an operation instruction to the channel selection control unit 941. The channel selection control unit 941 performs channel selection control in accordance with the viewer's operation instruction received via the operation signal reception unit 942. Specifically, a process of transmitting a channel to be selected to tuner unit 900 is performed. Further, the PID for transmitting the video information of the channel to be selected is read from the program information acquisition unit 940 and transmitted to the video decoding unit 902. Similarly, a process of transmitting a PID for transmitting audio information to the audio decoding unit 904 and transmitting a PID for transmitting program information to the program decoding unit 907 is executed. A method of handling data multiplexed by PID is described in detail in the MPEG-2 Systems standard.

図9は、プログラム提示部811の構成例を示し、図中の各信号815、816、820乃至822は既述の通りである。プログラム提示部811は、映像音声受信部1006、プログラム受信部1021、第2のプログラム実行部1008、プログラム映像生成部1009、プログラム映像透過率調整部1010、映像合成部1003を備える。さらには、プログラム音声生成部1011、プログラム音量調整部1012、効果音生成部1040、効果音音量調整部1041、音声合成部1005、プログラム提示制御部1030が設けられている。   FIG. 9 shows a configuration example of the program presentation unit 811. The signals 815, 816, and 820 to 822 in the figure are as described above. The program presentation unit 811 includes a video / audio reception unit 1006, a program reception unit 1021, a second program execution unit 1008, a program video generation unit 1009, a program video transmittance adjustment unit 1010, and a video synthesis unit 1003. Furthermore, a program sound generation unit 1011, a program sound volume adjustment unit 1012, a sound effect generation unit 1040, a sound effect sound volume adjustment unit 1041, a sound synthesis unit 1005, and a program presentation control unit 1030 are provided.

映像音声受信部1006は、映像音声送信部906が送信した映像音声信号820を電波方式で受信する。プログラム受信部1021は、プログラム送信部921からプログラム信号821を電波方式で受信し、受信したプログラム信号をプログラム実行部1008に出力する。なおプログラム実行部1008、プログラム映像生成部1009、透過率調整部1010、プログラム音声生成部1011、プログラム音量調整部1012の機能に関しては、図8にて説明した各部908乃至912と同様であるため、それらの説明を省略する。   The video / audio reception unit 1006 receives the video / audio signal 820 transmitted by the video / audio transmission unit 906 by a radio wave method. The program receiving unit 1021 receives the program signal 821 from the program transmitting unit 921 by a radio wave system, and outputs the received program signal to the program executing unit 1008. The functions of the program execution unit 1008, the program video generation unit 1009, the transmittance adjustment unit 1010, the program audio generation unit 1011 and the program volume adjustment unit 1012 are the same as the units 908 to 912 described in FIG. Those descriptions are omitted.

効果音生成部1040は効果音信号を生成して、これを効果音音量調整部1041に出力し、音声合成部1005を介して音声出力部813から効果音を発生させる。生成方法としては、例えば、AAC方式により予め音声データを作成し不揮発性メモリ(図示せず)に格納しておき、音声復号部(図示せず)により音声データを復号する方法がある。効果音については視聴者の注意を喚起する音声であれば、その如何は問わない。効果音音量調整部1041は、音声ボリュームなどを用いて構成され、効果音の音量調整を行う。   The sound effect generation unit 1040 generates a sound effect signal, outputs the sound effect signal to the sound effect sound volume adjustment unit 1041, and generates a sound effect from the sound output unit 813 via the sound synthesis unit 1005. As a generation method, for example, there is a method in which voice data is created in advance by the AAC method and stored in a non-volatile memory (not shown), and the voice data is decoded by a voice decoding unit (not shown). The sound effect is not particularly limited as long as it is a sound that alerts the viewer. The sound effect volume adjustment unit 1041 is configured using an audio volume or the like, and adjusts the sound effect volume.

映像合成部1003は、映像音声受信部1006が出力する映像信号と、透過率調整部1010が出力するプログラム映像信号を合成する。透過率調整部1010が出力するプログラム映像信号は透過率の情報を含む。透過率を映像合成に適用する方法は、前述した通りである。音声合成部1005は、映像音声受信部1006が出力する音声信号と、プログラム音量調整部1012が出力するプログラム音声信号と、効果音音量調整部1041が出力する効果音信号を合成する。   The video synthesis unit 1003 synthesizes the video signal output from the video / audio reception unit 1006 and the program video signal output from the transmittance adjustment unit 1010. The program video signal output from the transmittance adjusting unit 1010 includes transmittance information. The method of applying the transmittance to the image composition is as described above. The audio synthesizing unit 1005 synthesizes the audio signal output from the video / audio receiving unit 1006, the program audio signal output from the program sound volume adjusting unit 1012, and the sound effect signal output from the sound effect sound volume adjusting unit 1041.

プログラム提示制御部1030は、プログラム提示制御信号822を受けて、透過率調整部1010に対して透過率を指示し、プログラム音量調整部1012に対してプログラム音量を指示し、効果音音量調整部1041に対して音量を指示する。これにより、映像信号815及び音声信号816の内容がそれぞれ制御される。
図10の左側のフローチャートは、プログラム映像及びプログラム音声を提示する端末部が主端末部800から副端末部810へ切り換わる際、主端末部800にて実行される処理の流れを示す。
Upon receiving the program presentation control signal 822, the program presentation control unit 1030 instructs the transmittance adjustment unit 1010 to specify the transmittance, instructs the program volume adjustment unit 1012 to specify the program volume, and effects sound volume adjustment unit 1041. The volume is instructed to. Thereby, the contents of the video signal 815 and the audio signal 816 are controlled.
The flowchart on the left side of FIG. 10 shows the flow of processing executed in the main terminal unit 800 when the terminal unit that presents the program video and program audio switches from the main terminal unit 800 to the sub terminal unit 810.

放送受信部801は予めプログラムを受信している状態にあるものとする。遅延処理部920は、内部のメモリにプログラムを記憶させる(S1100)。主端末部800において、プログラム提示制御部930の指示により、プログラム実行部908がプログラムの実行を開始する(S1101)。プログラム映像生成部909は、プログラム実行部908の指示に従い、プログラム映像信号を生成する。プログラム音声生成部911は、プログラム実行部908の指示に従い、プログラム音声信号を生成する。   It is assumed that the broadcast receiving unit 801 is in a state of receiving a program in advance. The delay processing unit 920 stores the program in the internal memory (S1100). In the main terminal unit 800, in response to an instruction from the program presentation control unit 930, the program execution unit 908 starts executing the program (S1101). The program video generation unit 909 generates a program video signal according to instructions from the program execution unit 908. The program sound generation unit 911 generates a program sound signal in accordance with an instruction from the program execution unit 908.

透過率調整部910は、プログラム映像が不透明となるよう透過率を0%に調整する(S1102)。プログラム音量調整部912は、プログラム音量が最大となるように調整する(S1103)。そしてN秒の時間経過待ちとなる(S1104)。N値は10程度でよく、この値は視聴者が操作し易い範囲で変化させることができる。プログラム提示制御部930の指示により、遅延処理部920はプログラムをプログラム送信部921へ出力し、プログラム送信部921は副端末部810に対してプログラム信号821を送信する(S1105)。そしてM秒の時間経過待ちとなる(S1106)。Mは正値であればよい。   The transmittance adjusting unit 910 adjusts the transmittance to 0% so that the program image becomes opaque (S1102). The program volume adjustment unit 912 adjusts so that the program volume is maximized (S1103). Then, the process waits for N seconds (S1104). The N value may be about 10, and this value can be changed within a range in which the viewer can easily operate. In response to an instruction from the program presentation control unit 930, the delay processing unit 920 outputs a program to the program transmission unit 921, and the program transmission unit 921 transmits a program signal 821 to the sub-terminal unit 810 (S1105). Then, the process waits for M seconds (S1106). M may be a positive value.

プログラム提示制御部930は、副端末部810へプログラム提示制御信号822(この場合、プログラム提示開始命令)を送信する(S1107)。透過率調整部910は、プログラム映像が半透明となるよう透過率を50%に調整する(S1108)。プログラム音量調整部912は、プログラム音量を最小に調整する(S1109)。そしてN秒の時間経過待ちとなる(S1110)。
透過率調整部910は、プログラム映像が透明となるよう透過率を100%に調整する(S1111)。主端末部800において、プログラム実行部908が、プログラムの実行を停止する(S1112)。
The program presentation control unit 930 transmits a program presentation control signal 822 (in this case, a program presentation start command) to the sub-terminal unit 810 (S1107). The transmittance adjusting unit 910 adjusts the transmittance to 50% so that the program video is translucent (S1108). The program volume adjustment unit 912 adjusts the program volume to the minimum (S1109). Then, the process waits for N seconds (S1110).
The transmittance adjusting unit 910 adjusts the transmittance to 100% so that the program video is transparent (S1111). In the main terminal unit 800, the program execution unit 908 stops the execution of the program (S1112).

図10の右側のフローチャートは、プログラム映像及びプログラム音声を提示する装置が主端末部800から副端末部810へ切り換わる際、副端末部810にて実行される処理の流れを示す。
プログラム受信部1021は、主端末部800からプログラム信号821を受信し、プログラム実行部1008へプログラムを出力する(S1200)。本ステップS1200は前記S1105に対応しており、主端末部800がプログラムを送信し、副端末部810はプログラムを受信する。プログラム実行部1008はプログラムの実行を開始する(S1201)。その際、プログラム映像生成部1009は、プログラム実行部1008の指示に従い、プログラム映像信号を生成する。プログラム音声生成部1011は、プログラム実行部1008の指示に従い、プログラム音声信号を生成する。
The flowchart on the right side of FIG. 10 shows the flow of processing executed by the sub-terminal unit 810 when the apparatus for presenting program video and program audio switches from the main terminal unit 800 to the sub-terminal unit 810.
The program receiving unit 1021 receives the program signal 821 from the main terminal unit 800 and outputs the program to the program execution unit 1008 (S1200). Step S1200 corresponds to S1105, in which the main terminal unit 800 transmits a program and the sub-terminal unit 810 receives the program. The program execution unit 1008 starts executing the program (S1201). At that time, the program video generation unit 1009 generates a program video signal in accordance with an instruction from the program execution unit 1008. The program sound generation unit 1011 generates a program sound signal in accordance with an instruction from the program execution unit 1008.

透過率調整部1010はプログラム映像が透明となるよう透過率を100%に調整する(S1202)。プログラム音量調整部1012はプログラム音量を最小に調整する(S1203)。効果音音量調整部1041は効果音音量を最小に調整する(S1204)。
プログラム提示制御部1030は前記プログラム提示開始命令を受信する(S1205)。本ステップS1205は前記S1107に対応しており、主端末部800がプログラム提示開始命令を送信し、これを副端末部810が受信する。透過率調整部1010はプログラム映像が半透明となるよう透過率を50%に調整する(S1206)。効果音音量調整部1041は効果音の音量を最大に調整する(S1207)。そしてN秒の時間経過待ちとなる(S1208)。透過率調整部1010はプログラム映像が不透明となるよう透過率を0%に調整する(S1209)。プログラム音量調整部1012はプログラム音量を最大に調整する(S1210)。効果音音量調整部1041は効果音の音量を最小に調整する(S1211)。
The transmittance adjusting unit 1010 adjusts the transmittance to 100% so that the program image is transparent (S1202). The program volume adjustment unit 1012 adjusts the program volume to the minimum (S1203). The sound effect volume adjustment unit 1041 adjusts the sound effect sound volume to the minimum (S1204).
The program presentation control unit 1030 receives the program presentation start command (S1205). Step S1205 corresponds to S1107, and the main terminal unit 800 transmits a program presentation start command, which is received by the sub-terminal unit 810. The transmittance adjusting unit 1010 adjusts the transmittance to 50% so that the program video is translucent (S1206). The sound effect volume adjustment unit 1041 adjusts the sound effect volume to the maximum (S1207). Then, the process waits for N seconds (S1208). The transmittance adjusting unit 1010 adjusts the transmittance to 0% so that the program image becomes opaque (S1209). The program volume adjustment unit 1012 adjusts the program volume to the maximum (S1210). The sound effect volume adjustment unit 1041 adjusts the sound effect sound volume to the minimum (S1211).

プログラム実行部1008はプログラムの実行を停止する(S1212)。プログラムの実行停止については、視聴者が操作部814を介して実行停止の操作をしたとき、あるいはプログラムによる処理が完了したときなどが挙げられるが、本実施形態にて停止条件の如何は問わない。
図11は、主端末部800のプログラム映像透過率、プログラム音量、及び副端末部810のプログラム映像透過率、プログラム音量、効果音音量の時間的な推移例を示す。横軸は経過時間を表し、T1300乃至1304が時刻を示す。また上方に主端末部800のプログラム映像透過率、プログラム音量レベルの時間的変化を示し、下方に副端末部810のプログラム映像透過率、プログラム音量レベル、効果音の音量レベルの時間的変化を示している。
The program execution unit 1008 stops executing the program (S1212). Examples of the program execution stop include when the viewer performs an execution stop operation via the operation unit 814 or when the processing by the program is completed, but any stop condition may be used in the present embodiment. .
FIG. 11 shows a temporal transition example of the program video transmission rate and program volume of the main terminal unit 800 and the program video transmission rate, program volume and sound effect volume of the sub-terminal unit 810. The horizontal axis represents the elapsed time, and T1300 to 1304 indicate the time. In addition, the upper part shows temporal changes in the program video transmittance and program volume level of the main terminal unit 800, and the lower part shows temporal changes in the program video transmittance, program volume level and sound effect sound level of the sub terminal part 810. ing.

時刻T1300にて、主端末部800はプログラムの実行を開始する(図10のS1101参照)。この際、主端末部800のプログラム映像透過率は最小(プログラム映像が不透明:0%)であり(S1102参照)、主端末部800のプログラム音量は最大である(S1103参照)。
時刻T1300からN秒が経過すると時刻T1301となる(S1104参照)。この時点で主端末部800はプログラムを副端末部810に送信する(S1105参照)。副端末部810はプログラムを受信し(S1200参照)、その実行を開始する(S1201参照)。この際、副端末部810のプログラム映像透過率は最大(プログラム映像が透明:100%)である(S1202参照)。副端末部810のプログラム音量は最小であり(S1203参照)、副端末部810の効果音の音量は最小である(S1204参照)。
At time T1300, the main terminal unit 800 starts executing the program (see S1101 in FIG. 10). At this time, the program video transmissivity of the main terminal unit 800 is minimum (program video is opaque: 0%) (see S1102), and the program volume of the main terminal unit 800 is maximum (see S1103).
When N seconds elapse from time T1300, time T1301 is reached (see S1104). At this point, the main terminal unit 800 transmits the program to the sub-terminal unit 810 (see S1105). The sub-terminal unit 810 receives the program (see S1200) and starts executing it (see S1201). At this time, the program video transmissivity of the sub-terminal unit 810 is maximum (program video is transparent: 100%) (see S1202). The program volume of the sub-terminal unit 810 is minimum (see S1203), and the volume of sound effects of the sub-terminal unit 810 is minimum (see S1204).

時刻T1301からM秒が経過すると時刻T1302となる(S1106参照)。時刻T1300から時刻T1302までの期間中、主端末部800はプログラムコンテンツを提示するが、副端末部810はプログラムコンテンツを提示しない。時刻T1302にて、主端末部800はプログラム提示開始命令を副端末部810に送信する(S1107参照)。時刻T1302から時刻T1303までの移行期間中、主端末部800のプログラム映像は半透明となり(S1108参照)、主端末部800のプログラム音量は最小となる(S1109参照)。なお、本例ではプログラム音量調整部1012により、移行期間中にプログラム音量が最小となるように調整しているが、移行期間中にプログラム音声を出力しない形態でもよい。つまり、この場合にはプログラム音量調整部1012により、移行期間中にプログラム音声のミュート処理が行われる。   When M seconds elapse from time T1301, time T1302 is reached (see S1106). During the period from time T1300 to time T1302, the main terminal unit 800 presents program content, but the sub-terminal unit 810 does not present program content. At time T1302, the main terminal unit 800 transmits a program presentation start command to the sub-terminal unit 810 (see S1107). During the transition period from time T1302 to time T1303, the program video of the main terminal unit 800 is translucent (see S1108), and the program volume of the main terminal unit 800 is minimized (see S1109). In this example, the program volume adjustment unit 1012 adjusts the program volume to be minimized during the transition period. However, the program volume may not be output during the transition period. That is, in this case, the program sound volume adjustment unit 1012 performs a program sound mute process during the transition period.

副端末部810は主端末部800からプログラム提示開始命令を受信し(S1205参照)、プログラムの提示を開始する。この際、副端末部810のプログラム映像は半透明であり(S1206参照)、副端末部810の効果音の音量は最大である(S1207参照)。副端末部810のプログラム音量は、引き続き最小である。
時刻T1302からN秒が経過すると時刻T1303となる(S1110及びS1208参照)。時刻T1302から時刻T1303までの期間中、主端末部800及び副端末部810はともにプログラムコンテンツを提示する。
The sub terminal unit 810 receives a program presentation start command from the main terminal unit 800 (see S1205) and starts presenting the program. At this time, the program video of the secondary terminal unit 810 is translucent (see S1206), and the volume of the sound effect of the secondary terminal unit 810 is maximum (see S1207). The program volume of the sub-terminal unit 810 continues to be minimum.
When N seconds elapse from time T1302, time T1303 is reached (see S1110 and S1208). During the period from time T1302 to time T1303, both the main terminal unit 800 and the sub-terminal unit 810 present program content.

時刻T1303から、主端末部800のプログラム映像は透明となる(S1111参照)。主端末部800はプログラムの実行を停止する(S1112参照)。副端末部810のプログラム映像は不透明となり(S1209参照)、副端末部810のプログラム音量は最大となり(S1210参照)、副端末部810の効果音の音量は最小となる(S1211参照)。時刻T1303から時刻T1304までの期間中、副端末部810はプログラムコンテンツを提示するが、主端末部800はプログラムコンテンツを提示しない。そして時刻T1304にて、副端末部810はプログラムの実行を停止する(S1212参照)。
図12は、横軸に時刻を示し、縦軸には主端末部800及び副端末部810がプログラムの実行を開始した時点からの経過時間を示したグラフである。図中の時刻T1300乃至1304は図11に示す時刻と同一時刻である。
From time T1303, the program video of the main terminal unit 800 becomes transparent (see S1111). The main terminal unit 800 stops the execution of the program (see S1112). The program video of the sub-terminal unit 810 becomes opaque (see S1209), the program volume of the sub-terminal unit 810 is maximized (see S1210), and the volume of the sound effect of the sub-terminal unit 810 is minimized (see S1211). During the period from time T1303 to time T1304, the sub-terminal unit 810 presents program content, but the main terminal unit 800 does not present program content. At time T1304, the sub terminal unit 810 stops executing the program (see S1212).
FIG. 12 is a graph showing the time on the horizontal axis and the elapsed time from the time when the main terminal unit 800 and the sub-terminal unit 810 started executing the program on the vertical axis. Times T1300 to 1304 in the figure are the same as the time shown in FIG.

主端末部800のプログラム実行に係る時間経過は、時刻T1300の時点を始点(点Q0参照)とし、時刻T1303の時点を終点(点Q3参照)する右上がりの線分に従って変化する。また、副端末部810のプログラム実行に係る時間経過は、時刻T1301の時点を始点(点Q1参照)とし、時刻T1304の時点を終点(点Q4参照)とする右上がりの線分に従って変化する。   The time lapse related to the program execution of the main terminal unit 800 changes in accordance with a line that rises to the right starting from the time T1300 as the start point (see point Q0) and ending at the time T1303 (see point Q3). Further, the time lapse related to the program execution of the sub-terminal unit 810 changes in accordance with a line segment rising to the right with the time T1301 as the start point (see point Q1) and the time T1304 as the end point (see point Q4).

時刻T1300にて主端末部800はプログラムの実行を開始する(S1101参照)。時刻T1300からN秒が経過すると時刻T1301となり(S1104参照)、副端末部810がプログラムの実行を開始する(S1201参照)。時刻T1301からM秒が経過すると、時刻T1302となり(S1106参照)、主端末部800から副端末部810へプログラム提示開始命令が送信され(S1107参照)、副端末部810はプログラム映像の提示を開始する。   At time T1300, main terminal unit 800 starts executing the program (see S1101). When N seconds elapse from time T1300, time T1301 is reached (see S1104), and the sub-terminal unit 810 starts executing the program (see S1201). When M seconds elapse from time T1301, time T1302 is reached (see S1106), a program presentation start command is transmitted from the main terminal unit 800 to the subterminal unit 810 (see S1107), and the subterminal unit 810 starts presenting program video. To do.

時刻T1302からN秒が経過すると時刻T1303となり(S1110及びS1208参照)、主端末部800はプログラムの実行を停止する(S1112参照)。その後、時刻T1304にて、副端末部810はプログラムの実行を停止する(S1212参照)。
以上のように、副端末部810は、主端末部800よりもN秒の遅延時間後にプログラムの実行を開始する。従って、時刻T1303にて副端末部810が提示するプログラム内容は、時刻T1302にて主端末部800が提示するプログラム内容に相当する。
When N seconds elapse from time T1302, time T1303 is reached (see S1110 and S1208), and the main terminal unit 800 stops executing the program (see S1112). Thereafter, at time T1304, the sub-terminal unit 810 stops executing the program (see S1212).
As described above, the sub terminal unit 810 starts executing the program after a delay time of N seconds from the main terminal unit 800. Therefore, the program content presented by the sub-terminal unit 810 at time T1303 corresponds to the program content presented by the main terminal unit 800 at time T1302.

第2実施形態によれば、端末装置を切り換える際に、切り換え先の装置は、切り換え元の装置よりも時間的に遅れてプログラムコンテンツを提示する。両装置においてプログラム映像が時間的に重複して提示されるため、視聴者の視点移動に要する期間に提示されるプログラム映像を視聴者が見逃さないように防止できる。また第2実施形態によると、切り換え先の装置から効果音を発することにより、視聴者に注意を喚起することができる。すなわち、プログラムコンテンツの提示装置が切り換わったことに視聴者が気づかず、映像を見逃してしまうといった事態が起きないように防止できる。   According to the second embodiment, when the terminal device is switched, the switching destination device presents the program content with a time lag behind the switching source device. Since the program video is presented in both devices in a time-overlapping manner, it is possible to prevent the viewer from overlooking the program video presented during the period required for the viewer to move the viewpoint. Further, according to the second embodiment, it is possible to alert the viewer by generating sound effects from the switching destination device. That is, it is possible to prevent a situation in which the viewer does not notice that the program content presentation device has been switched and misses the video.

100,800 主端末部(第1の装置)
102,802 映像出力部
110,810 副端末部(第2の装置)
200 符号化映像音声蓄積部
201,210 符号化映像音声読み出し部
204,304 輝度調整部
211 符号化映像音声送信部
220,320 提示制御部
906 映像音声送信部
908,1008 プログラム実行部
910,1010 プログラム映像透過率調整部
920 遅延処理部
921 プログラム送信部
930,1030 プログラム提示制御部
1012 プログラム音量調整部
1040 効果音生成部
100,800 Main terminal (first device)
102,802 Video output unit 110,810 Sub-terminal unit (second device)
200 Coded video / audio storage unit 201, 210 Coded video / audio read unit 204, 304 Brightness adjustment unit 211 Coded video / audio transmission unit 220, 320 Presentation control unit 906 Video / audio transmission unit 908, 1008 Program execution unit 910, 1010 Program Video transmission rate adjustment unit 920 delay processing unit 921 program transmission unit 930, 1030 program presentation control unit 1012 program volume adjustment unit 1040 sound effect generation unit

Claims (8)

第1の装置及び第2の装置を備え、前記第1の装置から前記第2の装置へと映像の表示を切り換える際の移行期間にて前記第1の装置及び前記第2の装置で映像を時間的に重複して表示させる映像表示システムであって、
前記第1の装置は、映像を表示させるために映像信号を出力する映像出力手段と、映像信号を前記第2の装置に送信する送信手段と、前記映像出力手段が映像信号を出力した後で遅延時間をもって当該映像信号を前記第2の装置に送信するように前記送信手段を制御する制御手段と、を備え、
前記第2の装置は前記送信手段からの映像信号を受信し、前記移行期間にて、前記第1の装置で表示される映像よりも時間的に遅れて映像を表示することを特徴とする映像表示システム。
A first device and a second device, and the first device and the second device display a video in a transition period when switching the display of the video from the first device to the second device. A video display system that displays images overlapping in time,
The first device includes a video output means for outputting a video signal for displaying a video, a transmission means for transmitting the video signal to the second device, and after the video output means outputs the video signal. Control means for controlling the transmission means to transmit the video signal to the second device with a delay time,
The second device receives a video signal from the transmission means, and displays a video delayed in time from the video displayed by the first device in the transition period. Display system.
前記第1の装置は、
映像データを蓄積する蓄積手段と、
前記蓄積手段から映像データを読み出す第1の読み出し手段と、
前記第1の読み出し手段が前記蓄積手段から映像データを読み出した時点よりも時間的に遅れて当該映像データを読み出す第2の読み出し手段と、を備え、
前記映像出力手段は前記第1の読み出し手段が読み出した映像データを処理して前記第1の装置の表示手段に映像を表示させ、
前記第2の装置は、前記第2の読み出し手段が読み出した映像データを処理して前記第2の装置の表示手段で映像を表示することを特徴とする、請求項1記載の映像表示システム。
The first device includes:
Storage means for storing video data;
First reading means for reading video data from the storage means;
Second reading means for reading the video data with a time delay from the time when the first reading means read the video data from the storage means,
The video output means processes the video data read by the first reading means to display the video on the display means of the first device,
2. The video display system according to claim 1, wherein the second device processes the video data read by the second reading unit and displays a video on the display unit of the second device. 3.
前記移行期間にて前記第1の装置及び前記第2の装置にて表示される映像がプログラムの実行によって生成される映像データに基づく映像であり、
前記第1の装置は、前記プログラムを実行して該プログラムに従って生成される映像データを前記映像出力手段に出力する第1のプログラム実行手段と、前記プログラムを前記第2の装置に送信するプログラム送信手段と、を備え、
前記第2の装置は、前記プログラム送信手段から受信した前記プログラムの実行を前記第1のプログラム実行手段よりも時間的に遅れて開始する第2のプログラム実行手段を備え、前記プログラムに従って生成される映像データに基づいて映像を表示することを特徴とする、請求項1記載の映像表示システム。
The video displayed on the first device and the second device in the transition period is a video based on video data generated by executing a program,
The first apparatus executes a program and outputs first video execution means for outputting video data generated according to the program to the video output means; and program transmission for transmitting the program to the second apparatus. Means, and
The second apparatus includes second program execution means for starting execution of the program received from the program transmission means with a time delay from the first program execution means, and is generated according to the program. The video display system according to claim 1, wherein the video is displayed based on the video data.
前記第1の装置は、前記プログラムの実行を前記第1のプログラム実行手段よりも遅らせるための遅延処理手段を備え、該遅延処理手段から前記プログラム送信手段を介して前記プログラムが前記第2の装置に送信されることを特徴とする、請求項3記載の映像表示システム。   The first apparatus includes delay processing means for delaying execution of the program from the first program execution means, and the program is transmitted from the delay processing means to the second apparatus via the program transmission means. The video display system according to claim 3, wherein the video display system is transmitted to the network. 前記第2の装置は、前記移行期間にて映像の表示が前記第1の装置から前記第2の装置へ切り換わることを知らせる効果音を発生させる効果音生成手段を備えることを特徴とする、請求項1から4のいずれか1項に記載の映像表示システム。   The second device includes sound effect generating means for generating a sound effect notifying that the video display is switched from the first device to the second device in the transition period. The video display system according to any one of claims 1 to 4. 前記第1の装置又は前記第2の装置は、前記移行期間にて表示される映像の輝度又は透過率を調整する調整手段を備えることを特徴とする、請求項1から5のいずれか1項に記載の映像表示システム。   The said 1st apparatus or the said 2nd apparatus is provided with the adjustment means which adjusts the brightness | luminance or the transmittance | permeability of the image | video displayed in the said transition period, The any one of Claim 1 to 5 characterized by the above-mentioned. The video display system described in 1. 前記制御手段は、前記移行期間では音声を出力しないように音量調整手段を制御することを特徴とする、請求項1から6のいずれか1項に記載の映像表示システム。   The video display system according to any one of claims 1 to 6, wherein the control unit controls the volume adjusting unit so as not to output sound during the transition period. 第1の装置及び第2の装置を備え、前記第1の装置から前記第2の装置へと映像の表示を切り換える際の移行期間にて前記第1の装置及び前記第2の装置で映像を時間的に重複して表示させる映像表示システムの制御方法であって、
前記第1の装置にて映像を表示させるために映像信号を出力するステップと、
前記ステップにて映像信号を出力した後で遅延時間をもって当該映像信号を前記第2の装置に送信するステップと、
前記第2の装置にて前記映像信号を受信し、前記移行期間にて、前記第1の装置で表示される映像よりも時間的に遅れて映像を表示させるステップと、を有することを特徴とする映像表示システムの制御方法。
A first device and a second device, and the first device and the second device display a video in a transition period when switching the display of the video from the first device to the second device. A method of controlling a video display system that displays time overlaps,
Outputting a video signal for displaying a video on the first device;
Transmitting the video signal to the second device with a delay time after outputting the video signal in the step;
Receiving the video signal at the second device, and displaying the video with a time lag behind the video displayed on the first device in the transition period. Control method for video display system.
JP2009266325A 2009-11-24 2009-11-24 Video display system and method of controlling the same Pending JP2011114378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009266325A JP2011114378A (en) 2009-11-24 2009-11-24 Video display system and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266325A JP2011114378A (en) 2009-11-24 2009-11-24 Video display system and method of controlling the same

Publications (2)

Publication Number Publication Date
JP2011114378A true JP2011114378A (en) 2011-06-09
JP2011114378A5 JP2011114378A5 (en) 2012-12-27

Family

ID=44236428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266325A Pending JP2011114378A (en) 2009-11-24 2009-11-24 Video display system and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2011114378A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014131113A (en) * 2012-12-28 2014-07-10 Sony Corp Reproducer, reproducing method, and recording medium
CN112584064A (en) * 2019-09-30 2021-03-30 广州视源电子科技股份有限公司 Courseware annotating method, system, device and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333359A (en) * 2002-05-13 2003-11-21 Sony Corp Video display system and video display controller
JP2009016990A (en) * 2007-07-02 2009-01-22 Panasonic Corp Stream transmission server and stream transmission system
JP2009021698A (en) * 2007-07-10 2009-01-29 Toshiba Corp Video display terminal device, and display switching method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333359A (en) * 2002-05-13 2003-11-21 Sony Corp Video display system and video display controller
JP2009016990A (en) * 2007-07-02 2009-01-22 Panasonic Corp Stream transmission server and stream transmission system
JP2009021698A (en) * 2007-07-10 2009-01-29 Toshiba Corp Video display terminal device, and display switching method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014131113A (en) * 2012-12-28 2014-07-10 Sony Corp Reproducer, reproducing method, and recording medium
CN112584064A (en) * 2019-09-30 2021-03-30 广州视源电子科技股份有限公司 Courseware annotating method, system, device and storage medium
CN112584064B (en) * 2019-09-30 2023-09-08 广州视源电子科技股份有限公司 Annotating method, system, equipment and storage medium for courseware

Similar Documents

Publication Publication Date Title
JP6846130B2 (en) Methods and devices for overlaying 3D graphics on 3D video
JP4859219B2 (en) Video output apparatus and control method thereof
JP4408845B2 (en) Video composition apparatus and program
KR100992767B1 (en) Video data reproducing apparatus, video data generating apparatus, and recording medium
WO2011016240A1 (en) Video reproducing device
CN102292994A (en) Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
US9414042B2 (en) Program guide graphics and video in window for 3DTV
JP5879169B2 (en) Subtitle synchronized playback apparatus and program thereof
JP6803463B2 (en) Display device and its control method
CN102196206A (en) Linkage method of video apparatus, video apparatus and video system
CN109691115B (en) Image display device and image display method
JP2011114378A (en) Video display system and method of controlling the same
JP2009296604A (en) Video data reproducing device, video data generating device, and recording medium
JP5202193B2 (en) Image processing apparatus and method
EP2408214A2 (en) Playback apparatus, playback method, and program
JP2012090006A (en) Video display device
JP4800353B2 (en) Video composition device, program, and recording medium
JP4964319B2 (en) Video composition device, program, and recording medium
WO2012017687A1 (en) Image reproduction device
JP4964318B2 (en) Recording medium and data generation device for display data
JP5148651B2 (en) Recording medium and data generation device for display data
JP5350050B2 (en) Broadcast receiving apparatus and control method thereof
JP4964320B2 (en) Video composition apparatus and recording medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140902