[go: up one dir, main page]

JP2013031138A - Electronic apparatus and recording method - Google Patents

Electronic apparatus and recording method Download PDF

Info

Publication number
JP2013031138A
JP2013031138A JP2011167748A JP2011167748A JP2013031138A JP 2013031138 A JP2013031138 A JP 2013031138A JP 2011167748 A JP2011167748 A JP 2011167748A JP 2011167748 A JP2011167748 A JP 2011167748A JP 2013031138 A JP2013031138 A JP 2013031138A
Authority
JP
Japan
Prior art keywords
video
user
glasses
stereoscopic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011167748A
Other languages
Japanese (ja)
Inventor
Yutaka Araki
裕 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011167748A priority Critical patent/JP2013031138A/en
Publication of JP2013031138A publication Critical patent/JP2013031138A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus capable of preventing a user from missing a stereoscopic video and a recording method.SOLUTION: An electronic apparatus of one embodiment comprises receiving means and video record controlling means. The receiving means receives a video. When the video is a stereoscopic video and a user does not wear spectacles for stereoscopic viewing, the video record controlling means automatically records the video. The electronic apparatus of the one embodiment has such structure and, accordingly, can prevent the user from missing the stereoscopic video.

Description

本発明の実施の形態は、電子機器および録画方法に関する。   Embodiments described herein relate generally to an electronic device and a recording method.

近年の技術発達により、映像を立体的にユーザに視認させることの可能な電子機器が開発され、普及し始めている。   Due to recent technological development, electronic devices that allow a user to visually recognize a video in three dimensions have been developed and are beginning to spread.

ユーザが立体的に視認することのできる映像(以下、立体視映像とも呼ぶ)の表示方法
の一例として立体視用メガネをもちいた映像表示方法が存在する。この方法では、ユーザは立体視用メガネを装着し、これを通して映像を視聴することで立体視映像を立体として捉えることができる。
There is an image display method using stereoscopic glasses as an example of a display method of an image (hereinafter also referred to as a stereoscopic image) that can be viewed stereoscopically by a user. In this method, the user can view a stereoscopic video as a stereoscopic by wearing stereoscopic glasses and viewing the video through the glasses.

このような立体視用メガネを用いた立体視映像の表示方法においては、ユーザは立体視用メガネを装着していないときは、映像を立体視として捉えることができない。   In such a stereoscopic image display method using stereoscopic glasses, the user cannot grasp the image as stereoscopic vision when the user does not wear the stereoscopic glasses.

特開2008−118197号公報JP 2008-118197 A

例えば、電子機器が立体視映像でない映像(以下、2D映像とも呼ぶ)を表示しているときに、表示番組が変わる又はチャンネルが変更される等によって、突然立体視映像が表示されると、ユーザは立体視用メガネを装着していない場合が多いため、これを立体視映像として楽しむことができない。   For example, when a stereoscopic video is suddenly displayed due to a display program change or a channel change while the electronic device is displaying a video that is not a stereoscopic video (hereinafter also referred to as a 2D video), the user Since many of them do not wear stereoscopic glasses, they cannot be enjoyed as stereoscopic images.

本発明は上記に鑑みたもので、ユーザの立体視映像を見逃すことを低減することのできる電子機器および録画方法を提供することを課題とする。   The present invention has been made in view of the above, and it is an object of the present invention to provide an electronic device and a recording method that can reduce oversight of a user's stereoscopic video.

実施の形態の電子機器は、受信手段と、録画制御手段とを具備する。受信手段は、映像を受信する。録画制御手段は前記映像が立体視映像であって、ユーザが立体視視聴用のメガネを装着していないとき、自動的に前記映像を録画する。   The electronic device according to the embodiment includes a receiving unit and a recording control unit. The receiving means receives video. The recording control means automatically records the video when the video is a stereoscopic video and the user does not wear glasses for stereoscopic viewing.

実施形態における映像表示システムの一例を示す概念図。The conceptual diagram which shows an example of the video display system in embodiment. 実施形態におけるDTVおよびシャッタメガネの内部構造の一例を示すブロック図。The block diagram which shows an example of the internal structure of DTV and shutter glasses in embodiment. 実施形態における立体視映像録画処理に関する構成の一例を示すブロック図。The block diagram which shows an example of the structure regarding the stereoscopic vision video recording process in embodiment. 実施形態における表示部に表示された選択用画面の一例を示す概念図。The conceptual diagram which shows an example of the screen for selection displayed on the display part in embodiment. 実施形態における自動録画に関する処理の一例を示すフロー図。The flowchart which shows an example of the process regarding the automatic video recording in embodiment.

以下で、実施の形態を図面を参照しながら説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は本実施形態における映像出力システム3の一例を示す概念図である。図1にはDTV1、シャッタメガネ2、および映像出力システム3が示されている。   FIG. 1 is a conceptual diagram showing an example of a video output system 3 in the present embodiment. FIG. 1 shows a DTV 1, shutter glasses 2, and a video output system 3.

DTV1は例えばデジタルテレビ(Digital Television)であって本実施形態における電子機器の一例である。本実施形態では電子機器の一例としてDTV1を示すが、これに限定されるものではなく、例えばDVD(Digital Versatile Disc)プレーヤ、HDD(Hard Disk Drive)プレーヤ、STB(Set Top Box)、又はPC(Personal Computer)等の様々なものが電子機器の例として考えられる。   The DTV 1 is, for example, a digital television and is an example of an electronic device in the present embodiment. In the present embodiment, the DTV 1 is shown as an example of an electronic device. However, the present invention is not limited to this example. Various devices such as a personal computer are considered as examples of electronic devices.

DTV1は、例えば放送波等によって受信した放送信号をデコードし、これを映像や音声として、表示部120やスピーカ110から出力することができる。   For example, the DTV 1 can decode a broadcast signal received by a broadcast wave or the like and output the decoded signal as video or audio from the display unit 120 or the speaker 110.

DTV1は撮影部160を有しており、撮影部160は撮影手段としてDTV1正面の像を撮影することができる。つまり、DTV1に正対したユーザの顔を撮影することができる。   The DTV 1 has a photographing unit 160, and the photographing unit 160 can photograph an image in front of the DTV 1 as photographing means. That is, the user's face facing the DTV 1 can be photographed.

また、DTV1は視聴するユーザに対して立体視映像を提供することができる。本実施形態においては、シャッタメガネによる立体視映像のユーザへの提供を例に挙げて説明を行う。しかし、本発明はこれに限定されず、例えば偏光フィルタメガネ等を用いてユーザに立体視映像を提供するとしても良い。DTV1は互いに視差を有する左眼用画像と右眼用画像を交互に表示することによって、シャッタメガネ2を装着したユーザに立体視映像を提供することが可能である(フレームシーケンシャル方式)。   Further, the DTV 1 can provide a stereoscopic video to a user who views the video. In the present embodiment, description will be given by taking as an example the provision of stereoscopic video to the user using shutter glasses. However, the present invention is not limited to this, and a stereoscopic image may be provided to the user using, for example, polarizing filter glasses. The DTV 1 can provide a stereoscopic image to a user wearing the shutter glasses 2 by alternately displaying a left-eye image and a right-eye image having parallax with each other (frame sequential method).

シャッタメガネ2は、左眼用レンズ及び右眼用レンズにそれぞれ遮蔽可能な液晶シャッタが設けられており、これらのレンズとシャッタとを合わせてレンズユニットと呼ぶこととする。シャッタメガネ2はDTV1から受信するシャッタの開閉信号に基づいて左右のレンズユニットのそれぞれのシャッタを異なるタイミングで開閉することで、ユーザに立体視映像を提供する。例えば、DTV1に左眼用画像が表示されているときには、シャッタメガネ2はDTV1からの開閉信号に基づいて右眼用レンズユニットのシャッタを閉状態(遮蔽状態)、左眼用レンズユニットのシャッタを開状態(透過状態)として、ユーザの左眼のみに左眼用画像を見せる。また右眼用画像が表示されているときには左眼用レンズユニットのシャッタを閉状態、右眼用レンズユニットのシャッタを開状態として、ユーザの右眼のみに右眼用画像を見せる。この動作によってユーザは見ている映像を立体として捉えることができる。また、シャッタメガネ2は、ユーザのシャッタメガネ2の装着状態を検知することができ、この装着状態情報が示される装着状態信号をDTV1からの要求に応じて、DTV1に送信することが可能である。   The shutter glasses 2 are provided with liquid crystal shutters that can be shielded by the left-eye lens and the right-eye lens, respectively, and these lenses and the shutter are collectively referred to as a lens unit. The shutter glasses 2 provide stereoscopic images to the user by opening and closing the shutters of the left and right lens units at different timings based on the shutter opening / closing signals received from the DTV 1. For example, when an image for the left eye is displayed on the DTV 1, the shutter glasses 2 closes the shutter of the right eye lens unit (blocked state) based on an open / close signal from the DTV 1 and opens the shutter of the lens unit for the left eye. In the open state (transparent state), the left eye image is shown only to the user's left eye. When the right-eye image is displayed, the shutter of the left-eye lens unit is closed and the shutter of the right-eye lens unit is opened, so that the right-eye image is shown only to the user's right eye. By this operation, the user can grasp the image being viewed as a three-dimensional image. Further, the shutter glasses 2 can detect the user's wearing state of the shutter glasses 2 and can send a wearing state signal indicating the wearing state information to the DTV 1 in response to a request from the DTV 1. .

上記の立体視の原理を詳細に説明すると、人間は通常、物体を位置の異なる左眼と右眼とのそれぞれで見ており、この左眼と右眼とで見る像にはそれぞれ視差が存在する。この視差の存在する左眼で見る像と右眼で見る像とを脳内で合成することによって人間は見ている物体を立体として認識することができる。よって、視差を有する左眼用の画像と右眼用の画像とをそれぞれの眼で見せることによって、ユーザに映像を立体として捉えさせることが可能となる。この原理を用いて上述のようにシャッタメガネ2はDTV1の映像をユーザに立体視映像として提供している。   Explaining in detail the above-mentioned principle of stereoscopic vision, human beings usually see an object with the left eye and the right eye with different positions, and parallax exists in the images seen with the left eye and the right eye. To do. By synthesizing the image seen with the left eye and the image seen with the right eye in the brain where the parallax exists, a human can recognize the object being seen as a solid. Therefore, the left eye image and the right eye image having parallax can be viewed by the respective eyes, thereby allowing the user to perceive the video as a three-dimensional image. Using this principle, as described above, the shutter glasses 2 provide the user with the video of the DTV 1 as a stereoscopic video.

映像出力システム3はDTV1及びシャッタメガネ2によって構成される。上述のように、ユーザはシャッタメガネ2を装着して、DTV1に表示されている映像を見ることで、この映像を立体視映像として認識することができる。   The video output system 3 includes a DTV 1 and shutter glasses 2. As described above, the user can recognize this video as a stereoscopic video by wearing the shutter glasses 2 and watching the video displayed on the DTV 1.

次にDTV1およびシャッタメガネ2の内部構造に関して詳細に説明を行う。   Next, the internal structure of the DTV 1 and the shutter glasses 2 will be described in detail.

図2は本実施形態におけるDTV1およびシャッタメガネ2の内部構造の一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the internal structure of the DTV 1 and the shutter glasses 2 in the present embodiment.

まず、DTV1の内部構造に関して説明を行う。   First, the internal structure of the DTV 1 will be described.

DTV1は、装置各部の動作を制御する制御部156を備えている。制御部156は、CPU(Central Processing Unit)等を内蔵している。制御部156は、操作部116から入力される操作信号や、リモートコントローラ117から送信され受光部118を介して受信される操作信号に応じて、ROM(Read Only Memory)157に予め記憶されたシステム制御プログラム及び各種処理プログラムを起動させる。制御部156は、起動したプログラムに従って、RAM(Random Access Memory)158をワークメモリとして装置各部の動作を制御する。また、制御部156は各種機能を実行するための処理部を有している。この処理部については図3を用いて後述にて説明を行う。   The DTV 1 includes a control unit 156 that controls the operation of each unit of the apparatus. The control unit 156 includes a CPU (Central Processing Unit) and the like. The control unit 156 is a system stored in advance in a ROM (Read Only Memory) 157 according to an operation signal input from the operation unit 116 or an operation signal transmitted from the remote controller 117 and received via the light receiving unit 118. A control program and various processing programs are started. The control unit 156 controls the operation of each unit of the apparatus using a RAM (Random Access Memory) 158 as a work memory according to the activated program. Further, the control unit 156 has a processing unit for executing various functions. This processing unit will be described later with reference to FIG.

入力端子144は、BS/CSデジタル放送受信用のアンテナ143が受信した衛星デジタルテレビジョン放送信号を衛星デジタル放送用のチューナ145に供給する。チューナ145は、受信したデジタル放送信号のチューニングを行い、チューニングしたデジタル放送信号をPSK(Phase Shift Keying)復調器146に送信する。PSK復調器146は、TS(Transport Stream)の復調を行い、復調したTSをTS復号器147aに供給し、TS復号器147aは、TSをデジタル映像信信号、デジタル音声信号、およびデータ信号を含むデジタル信号に復号した後、信号処理部100にこれを出力する。ここでのデジタル映像信号とはDTV1が出力可能な映像に関するデジタル信号であり、音声信号はDTV1が出力可能な音声に関するデジタル信号である。またデータ信号とは、例えばDTV1が電子番組表であるEPG(Electronic Program Guide)を生成するときに使用する情報である番組関連情報等を含む、放送波の放送番組に関する情報に関するデジタル信号である。またこのデータ信号の中には、受信する映像が立体視映像であるか否かを示すフラグも含まれる。   The input terminal 144 supplies the satellite digital television broadcast signal received by the BS / CS digital broadcast reception antenna 143 to the satellite digital broadcast tuner 145. The tuner 145 tunes the received digital broadcast signal and transmits the tuned digital broadcast signal to a PSK (Phase Shift Keying) demodulator 146. The PSK demodulator 146 demodulates a TS (Transport Stream) and supplies the demodulated TS to the TS decoder 147a. The TS decoder 147a includes the TS as a digital video signal, a digital audio signal, and a data signal. After decoding into a digital signal, it is output to the signal processing unit 100. Here, the digital video signal is a digital signal related to video that the DTV 1 can output, and the audio signal is a digital signal related to audio that the DTV 1 can output. The data signal is a digital signal related to information related to a broadcast program of broadcast waves including, for example, program related information that is information used when the DTV 1 generates an EPG (Electronic Program Guide) that is an electronic program guide. The data signal also includes a flag indicating whether the received video is a stereoscopic video.

入力端子149は、地上波デジタル放送受信用のアンテナ148が受信した地上波デジタルテレビジョン放送信号を地上波デジタル放送用のチューナ150に供給する。チューナ150は、受信したデジタル放送信号のチューニングを行い、チューニングしたデジタル放送信号をそれぞれのOFDM(Orthogonal Frequency Division Multiplexing)復調器151に送信する。OFDM復調器151は、TSの復調を行い、復調したTSをそれぞれのTS復号器147bに供給し、TS復号器147bは、TSをデジタル映像信号及び音声信号等に復号した後、信号処理部100にこれを出力する。また、DTV1は、一例として、アンテナ148が接続される入力端子149にCATV(Common Antenna Television)用のチューナを接続することによってCATVも視聴することができる。   The input terminal 149 supplies a terrestrial digital television broadcast signal received by the terrestrial digital broadcast receiving antenna 148 to the terrestrial digital broadcast tuner 150. The tuner 150 tunes the received digital broadcast signal, and transmits the tuned digital broadcast signal to each OFDM (Orthogonal Frequency Division Multiplexing) demodulator 151. The OFDM demodulator 151 demodulates the TS and supplies the demodulated TS to each TS decoder 147b. The TS decoder 147b decodes the TS into a digital video signal, an audio signal, and the like, and then the signal processing unit 100. To output this. As an example, the DTV 1 can also watch CATV by connecting a CATV (Common Antenna Television) tuner to the input terminal 149 to which the antenna 148 is connected.

信号処理部100は、TS復号器147a、147b、または制御部156から出力されたデジタル信号に、適切な信号処理を施す。より具体的には、信号処理部100はデジタル信号を映像信号、デジタル音声信号、およびデータ信号に分離する。分離された映像信号はグラフィック処理部152に、音声信号は音声処理部153に出力される。データ信号は、制御部156に出力され各種処理に利用される。また、信号処理部100は、ライン入力端子137からの入力信号にも所定のデジタル信号処理を施す。   The signal processing unit 100 performs appropriate signal processing on the digital signal output from the TS decoders 147a and 147b or the control unit 156. More specifically, the signal processing unit 100 separates the digital signal into a video signal, a digital audio signal, and a data signal. The separated video signal is output to the graphic processing unit 152, and the audio signal is output to the audio processing unit 153. The data signal is output to the control unit 156 and used for various processes. The signal processing unit 100 also performs predetermined digital signal processing on the input signal from the line input terminal 137.

OSD(On Screen Display)信号生成部154は、制御部156の制御に従って、UI(ユーザ・インタフェース)画面などを表示するためのOSD信号を生成する。また信号処理部100においてデジタル放送信号から分離されたデータ信号は、OSD信号生成部154により適切なフォーマットのOSD信号に変換され、グラフィック処理部152に出力される。   An OSD (On Screen Display) signal generation unit 154 generates an OSD signal for displaying a UI (user interface) screen and the like under the control of the control unit 156. The data signal separated from the digital broadcast signal in the signal processing unit 100 is converted into an OSD signal of an appropriate format by the OSD signal generation unit 154 and output to the graphic processing unit 152.

グラフィック処理部152は、信号処理部100から出力されるデジタルの映像信号のデコード処理を行う。デコードされた映像信号は、OSD信号生成部154から出力されたOSD信号と重ね合わせて合成され、映像処理部155に出力される。グラフィック処理部152は、デコードされた映像信号またはOSD信号を、映像処理部155に選択的に出力することもできる。   The graphic processing unit 152 performs a decoding process on the digital video signal output from the signal processing unit 100. The decoded video signal is combined with the OSD signal output from the OSD signal generation unit 154 to be combined and output to the video processing unit 155. The graphic processing unit 152 can also selectively output the decoded video signal or OSD signal to the video processing unit 155.

映像処理部155は、グラフィック処理部152から出力された信号に対して画質の補正を行った上で、表示部処理部155で表示可能なフォーマットの映像信号に変換する。映像処理部155で変換された映像信号は、表示部120に表示される。   The video processing unit 155 performs image quality correction on the signal output from the graphic processing unit 152 and converts the signal into a video signal in a format that can be displayed by the display unit processing unit 155. The video signal converted by the video processing unit 155 is displayed on the display unit 120.

表示部120はLCD(Liquid Crystal Display)によって構成されており、液晶によって映像を表示する。   The display unit 120 is configured by an LCD (Liquid Crystal Display), and displays an image using liquid crystal.

音声処理部153は、入力された音声信号を、スピーカ110で再生可能なフォーマットの音声信号に変換する。変換された音声信号は、スピーカ110に出力されて再生される。   The audio processing unit 153 converts the input audio signal into an audio signal in a format that can be reproduced by the speaker 110. The converted audio signal is output to the speaker 110 and reproduced.

LAN端子131は、LANI/F164を介して制御部156に接続されている。LAN端子131は、イーサネット(登録商標)を用いた一般的なLAN対応ポートとして使用される。本実施形態においてLAN端子131にはLANケーブルが接続されており、インターネット4と通信可能となっている。   The LAN terminal 131 is connected to the control unit 156 via the LAN I / F 164. The LAN terminal 131 is used as a general LAN-compatible port using Ethernet (registered trademark). In this embodiment, a LAN cable is connected to the LAN terminal 131 so that it can communicate with the Internet 4.

撮影部160は表示部120の下側に設けられており、カメラ160正面の像を撮像することができる。撮影部160は撮像した映像の中からユーザの顔を検出することができ、更に、検出したユーザの顔の情報を登録されたユーザの顔の情報と照合することで、検出されたユーザが登録されたユーザであるか否かを判別することができる。DTV1は、撮影部160によって撮像された映像にユーザの顔が存在する(検出された)場合、つまり一般的にはユーザがDTV1を視聴している場合には、これに基づいて各種処理を実行することができる。また、ユーザの顔が登録されたユーザと一致するような場合には、ユーザ個別の機能又は設定を実行することができる。撮影部160は、撮像した映像よりユーザの顔が検出できた場合には、制御部156に検出できた旨を示す情報を通知し、登録ユーザの顔を認識できた場合には、このユーザを示す認識情報を制御部156に通知する機能を有している。ここでの顔検出の方法としては、例えばユーザの顔や、肩の輪郭に基づいて顔を検出するとしても良いし、これとは異なる方法で認識しても良い。また、ここでの顔認識の技術の方法としては、例えばユーザの目、鼻、口等の形状を認識し、これに基づいてユーザを認識(認識)しても良いし、これとは異なる特徴量に基づいて認識するとしても良い。   The imaging unit 160 is provided below the display unit 120 and can capture an image in front of the camera 160. The photographing unit 160 can detect the user's face from the captured video, and further, the detected user's face information is collated with the registered user's face information to register the detected user. It is possible to determine whether or not the user is a registered user. When the user's face is present (detected) in the video imaged by the imaging unit 160, that is, when the user is viewing the DTV 1, the DTV 1 executes various processes based on this. can do. Further, when the user's face matches the registered user, the user's individual function or setting can be executed. When the user's face can be detected from the captured video, the imaging unit 160 notifies the control unit 156 of information indicating that the user's face has been detected. It has a function of notifying the controller 156 of recognition information to be shown. As a face detection method here, for example, the face may be detected based on the user's face or the contour of the shoulder, or may be recognized by a different method. In addition, as a method of the face recognition technique here, for example, the shape of the user's eyes, nose, mouth, etc. may be recognized, and the user may be recognized (recognized) based on the shape. It may be recognized based on the quantity.

USB(Universal Serial Bus)端子133は、USB I/F166を介して制御部156に接続されている。USB端子133は、一般的なUSB対応ポートとして使用される。USB端子133には、例えばハブを介して、携帯電話、デジタルカメラ、各種メモリカードに対するカードリーダ/ライタ、HDD、キーボード等が接続される。制御部156は、USB端子133を介して接続される機器との間で、情報の通信(送受信)を行うことができる。   A USB (Universal Serial Bus) terminal 133 is connected to the control unit 156 via the USB I / F 166. The USB terminal 133 is used as a general USB compatible port. For example, a mobile phone, a digital camera, a card reader / writer for various memory cards, an HDD, a keyboard, and the like are connected to the USB terminal 133 via a hub. The control unit 156 can perform communication (transmission / reception) of information with a device connected via the USB terminal 133.

HDD170はDTV1に内蔵される磁気記憶媒体であってDTV1が有する各種情報を記憶する機能を有している。また、HDD170は、録画された放送された番組等を映像として記憶することも可能である。   The HDD 170 is a magnetic storage medium built in the DTV 1 and has a function of storing various information possessed by the DTV 1. The HDD 170 can also store recorded broadcast programs and the like as videos.

通信部162は、例えば赤外線通信モジュールであり赤外線によってシャッタメガネ2との無線通信を行うことができる。制御部156は立体視映像の右眼用の画像と左眼用の画像の表示の状態を検知し、この立体視映像の表示状態に基づいて、通信部162によってシャッタメガネ2にシャッタの開閉信号を送信する機能を有している。制御部156は表示部120が右眼用の画像を表示しているときは、シャッタメガネ2の右眼用シャッタが開(透過状態)、左眼用シャッタ(遮蔽状態)が閉とし、左眼用の画像を表示しているときは、右眼用シャッタが閉(遮蔽状態)、左眼用シャッタが開(透過状態)となるように通信部162によって開閉信号を送信する。また、通信部162はシャッタメガネ2の通信部22から送信されるユーザのシャッタメガネ2の装着状態の情報を示す装着状態信号を受信することができる。この装着状態信号に関しては後述にて説明を行う。   The communication unit 162 is an infrared communication module, for example, and can perform wireless communication with the shutter glasses 2 using infrared rays. The control unit 156 detects the display state of the right-eye image and the left-eye image of the stereoscopic video, and based on the display state of the stereoscopic video, the communication unit 162 sends a shutter open / close signal to the shutter glasses 2. It has the function to transmit. When the display unit 120 displays an image for the right eye, the control unit 156 opens the shutter for the right eye of the shutter glasses 2 (transmission state), closes the shutter for the left eye (shielding state), and closes the left eye. When the image for use is displayed, the communication unit 162 transmits an open / close signal so that the right-eye shutter is closed (shielded) and the left-eye shutter is opened (transmitted). Further, the communication unit 162 can receive a wearing state signal indicating information on the wearing state of the user's shutter glasses 2 transmitted from the communication unit 22 of the shutter glasses 2. This wearing state signal will be described later.

次に、シャッタメガネ2の内部構造に関する説明を行う。   Next, the internal structure of the shutter glasses 2 will be described.

制御部21はシャッタメガネ2の全体の制御を行い、MPU(Micro Processing Unit)を内蔵する。制御部21は接続される各モジュールと信号の送受信を行うことが可能である。   The control unit 21 controls the entire shutter glasses 2 and incorporates an MPU (Micro Processing Unit). The control unit 21 can transmit / receive signals to / from each connected module.

通信部22は、例えば赤外線通信モジュールであり赤外線によってDTV1との無線通信を行うことができる。本実施形態では通信部162および通信部22は赤外線通信モジュールであり、DTV1とシャッタメガネ2とは赤外線によって通信を行うものとして例示しているが、これに限定されない。例えばBloutooth(登録商標)等の無線規格をはじめ、有線、無線に関わらず様々な通信規格に準拠した通信モジュールによって通信部162および通信部22は構成され得る。通信部22はDTV1の通信部162より送信されるシャッタメガネ2への開閉信号を受信する機能、及びシャッタメガネ2のユーザ装着状態を示す装着状態信号を送信する機能を有している。   The communication unit 22 is an infrared communication module, for example, and can perform wireless communication with the DTV 1 using infrared rays. In the present embodiment, the communication unit 162 and the communication unit 22 are infrared communication modules, and the DTV 1 and the shutter glasses 2 are illustrated as communicating with infrared rays, but are not limited thereto. For example, the communication unit 162 and the communication unit 22 can be configured by communication modules compliant with various communication standards, including wireless standards such as Bluetooth (registered trademark) and wired and wireless. The communication unit 22 has a function of receiving an opening / closing signal to the shutter glasses 2 transmitted from the communication unit 162 of the DTV 1 and a function of transmitting a wearing state signal indicating a user wearing state of the shutter glasses 2.

装着検知部23は、装着検知手段としてユーザのシャッタメガネ2の装着を検知する機能を有するスイッチである。例えば、本実施形態においてこの装着検知部23はシャッタメガネ2の鼻パッド(にあたる位置)に設けられる押圧スイッチであるとする。装着検知部23は、ユーザがシャッタメガネ2を装着するとき、ユーザの鼻と接触し、この接触による押圧を検知する。本実施形態において、装着検知部23は鼻パッド(にあたる位置)に設けられる押圧スイッチとして例示しているがこれに限定されるものでなく、他にも様々な構成態様によって実現されることが可能である。装着検知部23は例えば静電式のタッチセンサ等のセンサによって構成されているとしてもよいし、これの設けられる箇所もユーザの鼻と接触する箇所ではなく、耳と接触する箇所であるように構成されていてもよい。更に装着検知部23はユーザの顔の一部との接触を検知するように構成されているとも限定されず、例えば装着/非装着の状態をユーザがDTV1に報知するために押圧を行うスイッチであるとしてもよい。このとき、押圧検知部23はシャッタメガネ2のフレームの一部に押圧を検知するスイッチとして設けられ、ユーザがこのスイッチを押圧することによって装着/非装着の情報をトグルで切り換えて出力する(例えばシャッタメガネ2の電源のON/OFFを切り替える電源スイッチ等であってもよい)。装着検知部23は制御部21からの装着状態情報の送信要求に基づいて装着状態情報を制御部21に送信する。   The wearing detection unit 23 is a switch having a function of detecting the wearing of the user's shutter glasses 2 as a wearing detection unit. For example, in the present embodiment, it is assumed that the wearing detection unit 23 is a press switch provided on the nose pad (corresponding position) of the shutter glasses 2. When the user wears the shutter glasses 2, the wearing detection unit 23 comes into contact with the user's nose and detects a press due to this contact. In the present embodiment, the attachment detection unit 23 is illustrated as a press switch provided on the nose pad (corresponding position), but is not limited to this, and can be realized by various other configuration modes. It is. For example, the attachment detection unit 23 may be configured by a sensor such as an electrostatic touch sensor, and the portion where the attachment detection unit 23 is provided is not a portion that contacts the user's nose but a portion that contacts the ear. It may be configured. Further, the wearing detection unit 23 is not limited to being configured to detect contact with a part of the user's face, and is, for example, a switch that is pressed by the user to notify the DTV 1 of the wearing / non-wearing state. There may be. At this time, the press detection unit 23 is provided as a switch for detecting a press on a part of the frame of the shutter glasses 2, and when the user presses the switch, information on mounting / non-mounting is toggled and output (for example, It may be a power switch for switching on / off the power of the shutter glasses 2). The attachment detection unit 23 transmits the attachment state information to the control unit 21 based on the transmission request for the attachment state information from the control unit 21.

シャッタ駆動部24は、液晶によって構成されたシャッタ部25を駆動させる液晶駆動装置である。シャッタ駆動部24は通信部22が受信する、DTV1からの開閉信号に基づいて、シャッタ部25の左右それぞれの液晶シャッタを駆動させる機能を有している。   The shutter drive unit 24 is a liquid crystal drive device that drives a shutter unit 25 made of liquid crystal. The shutter drive unit 24 has a function of driving the left and right liquid crystal shutters of the shutter unit 25 based on an open / close signal from the DTV 1 received by the communication unit 22.

シャッタ部25は、シャッタメガネ2のレンズユニットに設けられており、シャッタ駆動部24によって駆動され、右眼用、左眼用それぞれのレンズユニットで遮蔽、透過を切り替える。また、シャッタメガネ2のシャッタ部25は開閉信号を受信していないときには透過状態となっている。   The shutter unit 25 is provided in the lens unit of the shutter glasses 2 and is driven by the shutter driving unit 24 to switch between shielding and transmission by the right-eye lens unit and the left-eye lens unit. The shutter unit 25 of the shutter glasses 2 is in a transmissive state when it does not receive an open / close signal.

シャッタメガネ2は通信部22によってDTV1の通信部162から送信された信号を受信し、この信号に基づいた所定の動作を行う。本実施形態に於いてDTV1が送信する信号は2種類存在し、この2種類の信号はシャッタメガネ2の遮蔽、透過状態を制御するための信号である開閉信号と、シャッタメガネ2のユーザの装着状態の情報の信号である装着状態信号を送信するための要求信号である装着状態信号要求である。   The shutter glasses 2 receive a signal transmitted from the communication unit 162 of the DTV 1 by the communication unit 22 and perform a predetermined operation based on this signal. In the present embodiment, there are two types of signals transmitted by the DTV 1, and these two types of signals are an opening / closing signal that is a signal for controlling the shielding / transmission state of the shutter glasses 2, and a user wearing the shutter glasses 2. It is a mounting state signal request that is a request signal for transmitting a mounting state signal that is a signal of state information.

シャッタメガネ2の通信部22が開閉信号を受信すると、制御部21はこの信号に基づいてシャッタ駆動部24にシャッタ部25を駆動させるように指示を行う。シャッタ駆動部24はこの指示に基づいてシャッタ部25の遮蔽と透過とを切り替える。また、シャッタメガネ2の通信部22が装着状態信号要求を受信すると、制御部21は装着検知部23より装着状態情報を取得し、これを装着情報信号として通信部22によって送信する。本実施形態に於いては装着情報信号要求を受信したときに、制御部21が装着状態情報を装着検知部23より取得するものとして説明するが、これに限定されるものではない。例えば、装着状態検知部23はユーザがシャッタメガネ2を装着/取り外ししたときに、この装着/取り外しを検知し、この装着状態情報を制御部21に送信してもよい。このときには、制御部21は自身の内蔵するキャッシュに装着状態情報を保持しておき、DTV1からの装着状態信号送信要求に基づいてこの情報を装着状態信号として送信するとすればよい。   When the communication unit 22 of the shutter glasses 2 receives the open / close signal, the control unit 21 instructs the shutter drive unit 24 to drive the shutter unit 25 based on this signal. Based on this instruction, the shutter drive unit 24 switches between shielding and transmitting the shutter unit 25. When the communication unit 22 of the shutter glasses 2 receives the mounting state signal request, the control unit 21 acquires the mounting state information from the mounting detection unit 23 and transmits the mounting state information as a mounting information signal by the communication unit 22. In the present embodiment, it is assumed that the control unit 21 acquires the mounting state information from the mounting detection unit 23 when a mounting information signal request is received. However, the present invention is not limited to this. For example, when the user wears / removes the shutter glasses 2, the wearing state detection unit 23 may detect the wearing / removal and transmit the wearing state information to the control unit 21. At this time, the control unit 21 may hold the mounting state information in its own cache and transmit this information as a mounting state signal based on the mounting state signal transmission request from the DTV 1.

上述の構成により、DTV1は通信部162を介してユーザがシャッタメガネ2を装着しているか否かを検出することができる。   With the above-described configuration, the DTV 1 can detect whether or not the user wears the shutter glasses 2 via the communication unit 162.

例えば、放送波で2D映像が表示されているときに、突然映像が立体視映像に切り替われるような場合、ユーザはシャッタメガネ2を装着できていない場合が想定され、ユーザはシャッタメガネ2を装着していない間は、立体視映像を立体として認識(視聴)することができない。さらに立体視映像は、一般的に立体視視聴用メガネを装着しないと、まともな映像として視聴することもできない場合がある。   For example, when a 2D image is displayed on a broadcast wave and the image is suddenly switched to a stereoscopic image, it is assumed that the user cannot wear the shutter glasses 2, and the user wears the shutter glasses 2. While it is not, the stereoscopic video cannot be recognized (viewed) as a three-dimensional image. Further, there are cases where a stereoscopic video cannot be viewed as a proper video unless glasses for stereoscopic viewing are generally worn.

そこで、本実施形態のDTV1ではユーザが立体視視聴用メガネを装着しているか否かを判別し、立体視視聴用メガネを装着していない間は放送されている映像を自動的に録画することができる。次に、これを実行するための構成について説明を行う。   Therefore, in the DTV 1 of this embodiment, it is determined whether or not the user wears the stereoscopic viewing glasses, and the broadcast video is automatically recorded while the stereoscopic viewing glasses are not worn. Can do. Next, a configuration for executing this will be described.

図3は、本実施形態における立体視映像録画処理に関する構成の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of a configuration relating to stereoscopic video recording processing in the present embodiment.

制御部156は映像判別部31を有しており、この映像判別部31はDTV1が現在受信している放送の映像が2D映像であるか、立体視映像であるかの判別を行うことができる。映像判別部31の判別方法の一例としては、放送波のデータ信号に含まれる、映像が立体視映像であるか否かを示すフラグ(情報)を読み取り、これに基づいて受信している映像が2D映像であるか立体視映像であるかを判別する方法が挙げられる。本実施形態ではこの方法を採用しており、映像判別部31は信号処理部100より、現在受信している映像のデータ信号を受け取り、このデータ信号に基づいて判別を行う。2D映像であるか立体視映像であるかの判別方法としてはこれに限定されず、映像自体を解析することで判別する方法等も考えられる。映像判別部31は、受信する放送波の映像が立体視映像であると判別すると、メガネ装着検出部32及び録画制御部33にその旨を通知する。   The control unit 156 includes a video discriminating unit 31, which can discriminate whether the broadcast video currently received by the DTV 1 is a 2D video or a stereoscopic video. . As an example of the discrimination method of the video discriminating unit 31, a flag (information) indicating whether or not the video is a stereoscopic video, which is included in the data signal of the broadcast wave, is read, and the video received based on this is read. A method for determining whether a 2D image or a stereoscopic image is available. In the present embodiment, this method is adopted, and the video discriminating unit 31 receives the data signal of the video currently received from the signal processing unit 100 and discriminates based on this data signal. The method for discriminating whether the video is a 2D video or a stereoscopic video is not limited to this, and a method of discriminating by analyzing the video itself may be considered. If the video discriminating unit 31 discriminates that the received broadcast wave video is a stereoscopic video, the video discriminating unit 31 notifies the glasses wearing detection unit 32 and the recording control unit 33 to that effect.

メガネ装着検出部32は、ユーザがシャッタメガネ2を装着しているか否かを検出する機能を有している。本実施形態において、このメガネ装着の検出方法としては幾つかの方法が挙げられる。   The glasses wearing detection unit 32 has a function of detecting whether or not the user is wearing the shutter glasses 2. In the present embodiment, there are several methods for detecting the wearing of the glasses.

まず一つは、シャッタメガネ2から受信する、シャッタメガネ2がユーザに装着されているか否かを示す装着状態信号に基づいて検出する方法である。メガネ装着検出部32は、通信部162を介して装着状態信号要求をシャッタメガネ2に送信することができ、シャッタメガネ2より装着状態信号を受信することができる。   First, there is a method of detecting based on a wearing state signal received from the shutter glasses 2 and indicating whether or not the shutter glasses 2 are worn by the user. The glasses wearing detection unit 32 can transmit a wearing state signal request to the shutter glasses 2 via the communication unit 162, and can receive the wearing state signal from the shutter glasses 2.

他の検出方法としては、撮影部160が撮影するユーザの映像に基づいて、ユーザのメガネの装着を検出する方法である。メガネ装着検出部32は撮影部160で撮影された映像を解析し、映像の中のユーザがシャッタメガネ2を装着しているか否かを判別することができる。この場合、メガネ装着検出部32は撮影した映像の中からユーザの肩、頭の形等を認識し、認識した頭の位置にシャッタメガネ2が存在するか否かを判別する。また、例えばメガネ装着検出部32が検出し易いようにシャッタメガネ2にはマーカ等が設けられているとしてもよい。   Another detection method is a method of detecting the wearing of the user's glasses based on the user's image captured by the imaging unit 160. The glasses wearing detection unit 32 can analyze the video shot by the shooting unit 160 and determine whether the user in the video is wearing the shutter glasses 2. In this case, the glasses wearing detection unit 32 recognizes the user's shoulder, head shape, and the like from the captured video and determines whether or not the shutter glasses 2 are present at the recognized head position. Further, for example, a marker or the like may be provided on the shutter glasses 2 so that the glasses wearing detection unit 32 can easily detect them.

更に他の検出方法としては、シャッタメガネ2を装着しているか否かをユーザに尋ねる方法が考えられる。この場合、DTV1はOSD等により、ユーザが現在シャッタメガネを装着して否かを尋ねる旨の映像を表示し、ユーザがリモコン操作によって答えることとなる。   As another detection method, a method of asking the user whether or not the shutter glasses 2 are worn can be considered. In this case, the DTV 1 displays an image indicating that the user asks whether or not the user is currently wearing the shutter glasses by OSD or the like, and the user answers by remote control operation.

メガネ装着検出部32は、上述の内の少なくとも何れか方法を用いてユーザがシャッタメガネ2を装着しているか否かを判別する(ユーザのシャッタメガネ2の装着を検知する)。そして、メガネ装着検出部32は、この判別による結果を録画制御部33に対して出力する。   The glasses wearing detection unit 32 determines whether the user is wearing the shutter glasses 2 using at least one of the methods described above (detects the user wearing the shutter glasses 2). Then, the glasses wearing detection unit 32 outputs the result of this determination to the recording control unit 33.

録画制御部33は立体視映像が表示される場合の録画を制御する機能を有している。録画制御部33は、立体視映像が表示される場合に、録画を開始するか否かをユーザに選択させるための画像を作成することができる。この選択用の画面はOSD(On Screen Display)信号生成部154に出力され、映像と重畳して表示される。この、選択用の画面の例を図4に示す。図4には、立体視映像表示時に自動的に映像の録画を行うか否かをユーザが選択するための選択用画面41が表示部120に表示されている様子を示している。ユーザは選択用画面41を表示しているときに、リモートコントローラ117によって自動録画を行うか否かの選択をすることができる。   The recording control unit 33 has a function of controlling recording when a stereoscopic video is displayed. The recording control unit 33 can create an image for allowing the user to select whether or not to start recording when a stereoscopic video is displayed. This selection screen is output to an OSD (On Screen Display) signal generation unit 154, and is displayed so as to be superimposed on the video. An example of this selection screen is shown in FIG. FIG. 4 shows a state where a selection screen 41 is displayed on the display unit 120 for the user to select whether or not to automatically record a video when displaying a stereoscopic video. The user can select whether or not to perform automatic recording by the remote controller 117 while the selection screen 41 is displayed.

また録画制御部33は、選択用画面41を用いて自動的な録画開始の実行が選択された場合には、この録画処理を制御する機能を有している。この録画では、放送波より取得した映像・音声をHDD170に記憶する。本実施形態では記憶先をHDD170として例示するが、これに限定されず、例えば外付け記憶装置等のDTV1の外部記憶装置を記憶先としてもよい。   Further, the recording control unit 33 has a function of controlling the recording process when the automatic recording start execution is selected using the selection screen 41. In this recording, the video / audio acquired from the broadcast wave is stored in the HDD 170. In the present embodiment, the storage destination is exemplified as the HDD 170, but the storage destination is not limited to this. For example, an external storage device of the DTV 1 such as an external storage device may be used as the storage destination.

次に、本実施形態における処理フローについて説明を行う。   Next, the processing flow in this embodiment will be described.

図5は、本実施形態における自動録画に関する処理の一例を示すフロー図である。   FIG. 5 is a flowchart showing an example of processing related to automatic recording in the present embodiment.

まず、映像判別部31が放送波のデータ信号を取得(受信)する(ステップS51)。   First, the video discriminating unit 31 acquires (receives) a broadcast wave data signal (step S51).

映像判別部31は放送波のデータ信号を取得すると、このデータ信号の上記フラグに基づいて、現在受信している放送波の映像が立体視映像であるか否かを判別する(ステップS52)。この判別方法としては、データ信号に基づいて判別するとしても良いし、映像自体の解析によって判別を行うとしても良い。放送波により立体視映像が提供される場合には、取得する立体視映像は例えばSide-by-side、Top-bottom等の特有の映像フォーマットによって送信されている場合が多い。映像判別部31は放送波の映像を解析し、この映像がSide-by-side、Top-bottom等の特定映像フォーマットであることを検知すると、この映像が立体視映像であると判別する。本実施形態の立体視映像の判別方法としてはこれに限定されず、その他様々な方法が考えられる。   When obtaining the broadcast wave data signal, the video discriminating unit 31 discriminates whether or not the currently received broadcast wave video is a stereoscopic video based on the flag of the data signal (step S52). As this determination method, it may be determined based on a data signal, or may be determined by analyzing the video itself. When a stereoscopic video is provided by a broadcast wave, the acquired stereoscopic video is often transmitted in a specific video format such as side-by-side or top-bottom. When the video discriminating unit 31 analyzes the video of the broadcast wave and detects that this video is a specific video format such as Side-by-side, Top-bottom, etc., it discriminates that this video is a stereoscopic video. The method for discriminating stereoscopic images of the present embodiment is not limited to this, and various other methods are conceivable.

ステップS52で映像判別部31が放送波の映像が立体視映像であると判別すると(ステップS52:Yes)、次に、メガネ装着検出部32はユーザがシャッタメガネ2を装着しているか否かの判別を行い(ステップS53)、判別結果を録画制御部33に出力する。ここでの判別方法としては上述のように、シャッタメガネ2から装着状態に関する信号を受信することで装着の判別を行う方法と、撮影部160で撮影した映像に基づいて装着を判別する方法とが考えられる。ここでは、映像判別部31が放送波の映像が立体視映像と判別したことをトリガーとして、シャッタメガネ2との通信、ユーザの撮影を行って、装着の判別をするとしても良い。もしくは、メガネ装着検出部32が、例えばそれ以前の所定のタイミングで装着の判別を行っており、立体視映像の判別をトリガーとして、このメガネ装着の判別結果を録画制御部33に出力するとしても良い。   When the video discriminating unit 31 discriminates that the broadcast wave video is a stereoscopic video image in step S52 (step S52: Yes), the glasses wearing detection unit 32 then determines whether or not the user wears the shutter glasses 2. The discrimination is performed (step S53), and the discrimination result is output to the recording control unit 33. As a determination method here, as described above, there are a method of determining mounting by receiving a signal related to the mounting state from the shutter glasses 2, and a method of determining mounting based on an image photographed by the photographing unit 160. Conceivable. Here, the video discriminating unit 31 may determine the wearing by performing communication with the shutter glasses 2 and photographing the user by using the fact that the video of the broadcast wave is discriminated as a stereoscopic video. Alternatively, for example, the glasses wearing detection unit 32 determines the wearing at a predetermined timing before that, and the discrimination result of the wearing of the glasses is output to the recording control unit 33 using the discrimination of the stereoscopic video as a trigger. good.

ステップS53において、メガネ装着検出部32はユーザがシャッタメガネ2を装着していないと判別すると(ステップS53:No)、録画制御部33は現在、立体視映像の表示開始時の録画設定が有効となっているか否かの判別を行う(ステップS54)。この設定を有効にするか否かはユーザによって、図4の画面を用いて選択されている。   In step S53, when the glasses wearing detection unit 32 determines that the user does not wear the shutter glasses 2 (step S53: No), the recording control unit 33 determines that the recording setting at the start of displaying the stereoscopic video is currently valid. It is determined whether or not (step S54). Whether or not to enable this setting is selected by the user using the screen of FIG.

ステップS52で映像判別部31が放送波の映像が立体視映像でないと判別した場合(ステップS52:No)、ステップS53においてメガネ装着検出部32はユーザがシャッタメガネ2を装着していると判別した場合(ステップS53:Yes)、又は、録画制御部33が立体視映像の表示開始時の録画設定が無効となっていると判別した場合(ステップS54:No)、DTV1は受信した放送波の映像を表示する(ステップS55)。なおこのとき、DTV1は受信した映像が2D映像である場合には2D映像として表示するための所定の処理を実行して表示し、立体視映像である場合には立体視映像として表示するための処理の処理を実行して表示する。   When the video discriminating unit 31 discriminates that the broadcast wave video is not a stereoscopic video image in step S52 (step S52: No), the spectacle wearing detection unit 32 discriminates that the user is wearing the shutter glasses 2 in step S53. In this case (step S53: Yes), or when the recording control unit 33 determines that the recording setting at the start of displaying the stereoscopic video is invalid (step S54: No), the DTV 1 receives the received broadcast wave video. Is displayed (step S55). At this time, when the received video is a 2D video, the DTV 1 executes and displays a predetermined process for displaying as a 2D video, and displays a stereoscopic video when the received video is a stereoscopic video. Execute the process and display it.

ステップS54において、録画制御部33が立体視映像の表示開始時の録画設定が無効となっていると判別した場合(ステップS54:Yes)、録画制御部33は放送波の録画を開始する(ステップS56)。   In step S54, when the recording control unit 33 determines that the recording setting at the start of stereoscopic video display is invalid (step S54: Yes), the recording control unit 33 starts recording broadcast waves (step S54). S56).

そして、DTV1は受信した放送波の映像を表示する(ステップS57)。このとき、放送波の映像は立体視映像であり、DTV1はこの映像を立体視映像の表示方式によって表示するとしても良いし、この映像を2D映像として表示するための変換処理を行って、2D映像として表示するとしてもよい。   Then, the DTV 1 displays the received broadcast wave video (step S57). At this time, the video of the broadcast wave is a stereoscopic video, and the DTV 1 may display this video by a stereoscopic video display method, or performs a conversion process for displaying this video as a 2D video, and 2D It may be displayed as a video.

次にメガネ装着検出部32はユーザがシャッタメガネ2を装着したか否かの判別を行う(ステップS58)。ユーザのシャッタメガネ2の装着を検出していない間(装着していないと判別している間)は(ステップS58:No)、処理はステップS57に戻り、DTV1は映像を表示し続ける。   Next, the glasses wearing detection unit 32 determines whether or not the user has worn the shutter glasses 2 (step S58). While the user's wearing of the shutter glasses 2 is not detected (while it is determined that the user is not wearing) (step S58: No), the process returns to step S57, and the DTV 1 continues to display the video.

ステップS58において、メガネ装着検出部32がユーザのメガネ装着を検出すると(ステップS58;Yes)、録画制御部33は、自動的に録画した映像を再生・表示する(ステップS59)。録画制御部33は録画された映像を再生する再生部(再生手段)を有しており、録画制御部33は再生部の録画した映像の再生開始後も、映像の録画を継続する。例えば録画映像の早送り等により、録画映像の再生位置が現在放送している映像に追いつくと、録画制御部33は録画映像の再生を終わり、DTV1は通常の放送波の映像を表示する。   In step S58, when the glasses wearing detection unit 32 detects that the user wears glasses (step S58; Yes), the recording control unit 33 automatically reproduces and displays the recorded video (step S59). The recording control unit 33 has a reproduction unit (reproduction means) for reproducing the recorded video, and the recording control unit 33 continues to record the video even after the reproduction of the video recorded by the reproduction unit is started. For example, when the playback position of the recorded video catches up with the currently broadcast video due to, for example, fast-forwarding of the recorded video, the recording control unit 33 ends the playback of the recorded video, and the DTV 1 displays a normal broadcast wave video.

以上の処理によって、立体視用のメガネを装着してないときに、立体視映像が放送されても、録画された映像を視聴できるので、ユーザは最初からその立体視映像を立体として視聴することができる。また、立体視映像の録画と同時に、同映像の再生を行うことで、再生が追いつけば、ユーザはそのまま放送波の視聴を行うことができる。   With the above processing, even when a stereoscopic video is broadcast when the glasses for stereoscopic viewing are not worn, the recorded video can be viewed, so the user can view the stereoscopic video as a stereoscopic from the beginning. Can do. In addition, by reproducing the video simultaneously with the recording of the stereoscopic video, if the reproduction catches up, the user can view the broadcast wave as it is.

さらに、ユーザが立体視用メガネを装着すると自動的に録画している立体視映像の再生を開始することで、ユーザの再生指示の手間を省くことができる。この場合、立体視映像が表示されているときにユーザが立体視用のメガネを装着するということは、ユーザが現在表示している映像を立体として視聴したいという意思があるものと考えられ、自動的に立体視映像を再生することで、ユーザの再生指示の手間を省いている。   Furthermore, when the user wears the stereoscopic glasses, the reproduction of the stereoscopic video that has been recorded automatically is started, thereby saving the user from having to issue a reproduction instruction. In this case, if the user wears stereoscopic glasses when the stereoscopic video is displayed, it is considered that the user has an intention to view the currently displayed video as a stereoscopic image. In addition, since the stereoscopic video is reproduced, it is possible to save the user from having to issue a reproduction instruction.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1…DTV、2…シャッタメガネ、3…映像出力システム、4…インターネット、110…スピーカ、120…表示部、100…信号処理部、116…操作部、117…リモートコントローラ、118…受光部、131…LAN端子、133…USB端子、137…ライン入力端子、143…アンテナ、144…入力端子、145…チューナ、146…PSK復調器、147…TS復号器、148…アンテナ、149…入力端子、150…チューナ、151…OFDM復調器、152…グラフィック処理部、153…音声処理部、154…OSD信号生成部、155…映像処理部、156…制御部、157…ROM、158…RAM、160…撮影部、162…通信部、164…LAN I/F、166…USB I/F、170…HDD、21…制御部、22…通信部、23…装着検知部、24…シャッタ駆動部、25…シャッタ部、31…映像判別部、32…メガネ装着検出部、33…録画制御部、41…選択用画面 DESCRIPTION OF SYMBOLS 1 ... DTV, 2 ... Shutter glasses, 3 ... Video output system, 4 ... Internet, 110 ... Speaker, 120 ... Display part, 100 ... Signal processing part, 116 ... Operation part, 117 ... Remote controller, 118 ... Light receiving part, 131 ... LAN terminal, 133 ... USB terminal, 137 ... line input terminal, 143 ... antenna, 144 ... input terminal, 145 ... tuner, 146 ... PSK demodulator, 147 ... TS decoder, 148 ... antenna, 149 ... input terminal, 150 ... Tuner, 151 ... OFDM demodulator, 152 ... Graphic processing unit, 153 ... Audio processing unit, 154 ... OSD signal generation unit, 155 ... Video processing unit, 156 ... Control unit, 157 ... ROM, 158 ... RAM, 160 ... Photographing , 162 ... communication unit, 164 ... LAN I / F, 166 ... USB I / F, 170 ... HDD, 2 DESCRIPTION OF SYMBOLS 1 ... Control part, 22 ... Communication part, 23 ... Wearing detection part, 24 ... Shutter drive part, 25 ... Shutter part, 31 ... Image | video discrimination | determination part, 32 ... Glasses wearing detection part, 33 ... Recording control part, 41 ... For selection screen

Claims (10)

映像を受信する受信手段と、
前記映像が立体視映像であって、ユーザが立体視視聴用のメガネを装着していないとき、自動的に前記映像を録画する録画制御手段と、
を具備する電子機器。
Receiving means for receiving video;
Recording control means for automatically recording the video when the video is a stereoscopic video and the user does not wear glasses for stereoscopic viewing;
An electronic device comprising:
録画制御手段は、ユーザが前記立体視視聴用のメガネを装着していないときに、前記立体視映像の受信を開始すると、前記録画を開始する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the recording control unit starts the recording when reception of the stereoscopic video is started when a user does not wear the glasses for stereoscopic viewing. 前記受信手段が受信する映像が立体視映像であるか否かを判別する映像判別手段を更に具備する請求項1記載の電子機器。   The electronic apparatus according to claim 1, further comprising a video discriminating unit that discriminates whether or not the video received by the receiving unit is a stereoscopic video. 前記映像判別手段は、前記受信する映像と共に受信する情報に基づいて前記判別を行う請求項3記載の電子機器。   The electronic device according to claim 3, wherein the video discriminating unit performs the discrimination based on information received together with the received video. ユーザが立体視視聴用のメガネを装着しているか否かを判別するメガネ装着判別手段を更に具備する請求項1記載の電子機器。   The electronic device according to claim 1, further comprising glasses wearing determination means for determining whether or not the user is wearing glasses for stereoscopic viewing. 前記メガネ装着判別手段は、前記立体視視聴用のメガネとの通信に基づいて前記判別を行う請求項5記載の電子機器。   The electronic apparatus according to claim 5, wherein the glasses wearing determination unit performs the determination based on communication with the glasses for stereoscopic viewing. 周囲を撮影する撮影手段を更に具備し、
前記メガネ装着判別手段は、前記撮影された映像に基づいて前記判別を行う請求項5記載の電子機器。
It further comprises a photographing means for photographing the surroundings,
The electronic apparatus according to claim 5, wherein the glasses wearing determination unit performs the determination based on the captured video.
録画された映像を再生する再生手段を更に具備し、
ユーザが前記立体視視聴用のメガネを装着すると、前記録画制御手段が前記録画を継続したまま、前記再生手段が前記録画制御手段によって録画された前記映像を再生する請求項1記載の電子機器。
It further comprises playback means for playing back the recorded video,
2. The electronic apparatus according to claim 1, wherein when the user wears the glasses for stereoscopic viewing, the playback unit plays back the video recorded by the recording control unit while the recording control unit continues the recording.
前記録画制御手段は前記録画を実行するか否かをユーザに選択させるための映像を出力し、この選択に基づいて録画の実行を制御する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the recording control unit outputs an image for allowing a user to select whether or not to perform the recording, and controls the execution of the recording based on the selection. 映像を受信し、
受信した前記映像が立体視映像であって、ユーザが立体視視聴用のメガネを装着していないとき、自動的に前記映像を録画する録画方法。
Receive video,
A recording method for automatically recording the video when the received video is a stereoscopic video and the user does not wear glasses for stereoscopic viewing.
JP2011167748A 2011-07-29 2011-07-29 Electronic apparatus and recording method Pending JP2013031138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011167748A JP2013031138A (en) 2011-07-29 2011-07-29 Electronic apparatus and recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011167748A JP2013031138A (en) 2011-07-29 2011-07-29 Electronic apparatus and recording method

Publications (1)

Publication Number Publication Date
JP2013031138A true JP2013031138A (en) 2013-02-07

Family

ID=47787709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011167748A Pending JP2013031138A (en) 2011-07-29 2011-07-29 Electronic apparatus and recording method

Country Status (1)

Country Link
JP (1) JP2013031138A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005913A (en) * 2004-05-17 2006-01-05 Matsushita Electric Ind Co Ltd Recording / playback device
JP2011097470A (en) * 2009-10-30 2011-05-12 Toshiba Corp Stereoscopic image reproduction apparatus, stereoscopic image reproduction method, and stereoscopic image reproduction system
JP2011133832A (en) * 2009-12-25 2011-07-07 Toshiba Corp Image display device, method, and position determination device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005913A (en) * 2004-05-17 2006-01-05 Matsushita Electric Ind Co Ltd Recording / playback device
JP2011097470A (en) * 2009-10-30 2011-05-12 Toshiba Corp Stereoscopic image reproduction apparatus, stereoscopic image reproduction method, and stereoscopic image reproduction system
JP2011133832A (en) * 2009-12-25 2011-07-07 Toshiba Corp Image display device, method, and position determination device

Similar Documents

Publication Publication Date Title
JP4937369B2 (en) Electronic device, video output system, and video output method
JP5293500B2 (en) Display device and control method
US20110156998A1 (en) Method for switching to display three-dimensional images and digital display system
US20110157329A1 (en) Method for switching to display three-dimensional images and digital display system
JP5452537B2 (en) Video display system and display device
CN102239699A (en) Stereoscopic video player, stereoscopic video playback system, stereoscopic video playback method, and semiconductor device for stereoscopic video playback
JP2011223558A (en) Video signal processing apparatus and active shutter spectacle
US20110206353A1 (en) Televison apparatus
JP2011211660A (en) Image display apparatus, image display system, and display method
US20120212589A1 (en) Playback methods and playback apparatuses for processing multi-view content
JP5563625B2 (en) Image analysis apparatus, image analysis method, and image analysis system
US8957950B2 (en) Electronic apparatus and image output method
EP2575358B1 (en) Display apparatus and control method thereof
US20120163766A1 (en) Reproduction device
JP2012029235A (en) Electronic device and image processing method
US8717424B2 (en) Display apparatus and recording medium for controlling playback of three-dimensional video based on detected presence of stereoscopic-viewing glasses
JP4937390B2 (en) 3D image display device and 3D image glasses
JP5550520B2 (en) Playback apparatus and playback method
JP2013031138A (en) Electronic apparatus and recording method
US20120268559A1 (en) Electronic apparatus and display control method
CN102378034B (en) Video display system and display unit
US20120249754A1 (en) Electronic apparatus, display control method for video data, and program
JP5500347B2 (en) Video appreciation device
JP2011158695A (en) Stereoscopic video viewing glasses
JP5586403B2 (en) Video data transmitting apparatus and video data transmitting method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130108