[go: up one dir, main page]

JP2015070455A - Imaging display device and control method - Google Patents

Imaging display device and control method Download PDF

Info

Publication number
JP2015070455A
JP2015070455A JP2013203078A JP2013203078A JP2015070455A JP 2015070455 A JP2015070455 A JP 2015070455A JP 2013203078 A JP2013203078 A JP 2013203078A JP 2013203078 A JP2013203078 A JP 2013203078A JP 2015070455 A JP2015070455 A JP 2015070455A
Authority
JP
Japan
Prior art keywords
image
unit
data
display
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013203078A
Other languages
Japanese (ja)
Other versions
JP6119534B2 (en
Inventor
雅也 仁平
Masaya Nihei
雅也 仁平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2013203078A priority Critical patent/JP6119534B2/en
Publication of JP2015070455A publication Critical patent/JP2015070455A/en
Application granted granted Critical
Publication of JP6119534B2 publication Critical patent/JP6119534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Television Signal Processing For Recording (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging display device capable of displaying with a sense of presence, and to provide a control method of the same.SOLUTION: The imaging display device comprises: a projector 18 for displaying a display image; a second imaging unit 15 for imaging the face of a user viewing the display image displayed by the projector; a face recognition unit 401 which performs face recognition of an image imaged by the imaging unit 15; and a display control unit 404 which, when the face image of a person corresponding to the face recognized by the face recognition unit 401 is included in the display image, emphasizes and displays the face image in the display image.

Description

本発明は、撮像表示装置、及びその制御方法に関する。   The present invention relates to an imaging display device and a control method thereof.

特許文献1には、ムービングプロジェクタシステムが開示されている。特許文献1のプロジェクタシステムは、撮像時にカメラのパン信号、チルト信号等の駆動信号を記録する記録装置を有している。そして、パン信号及びチルト信号に基づいて、ムービングプロジェクタを回転させている。   Patent Document 1 discloses a moving projector system. The projector system disclosed in Patent Document 1 includes a recording device that records drive signals such as a pan signal and a tilt signal of a camera during imaging. Then, the moving projector is rotated based on the pan signal and the tilt signal.

特開平9−149296号公報JP-A-9-149296

特許文献1では、撮像時の角度に応じて、ムービングプロジェクタが回転している。よって、効果的な演出を行うことができる。しかしならが、画像を表示する際に、より臨場感のある表示を行うことが望まれる。   In Patent Document 1, the moving projector rotates according to the angle at the time of imaging. Therefore, an effective presentation can be performed. However, it is desirable to display more realistically when displaying an image.

本発明は上記の点に鑑みなされたもので、より臨場感のある表示を行うことができる撮像表示装置、及びその制御方法を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an imaging display device capable of performing a more realistic display and a control method thereof.

本発明の一態様にかかる撮像表示装置は、予め取得された動画形式の表示画像を表示する表示部と、前記表示部が表示している表示画像を見ているユーザの顔を撮像する撮像部と、前記撮像部で撮像された撮像画像に対して顔認識を行う顔認識部と、前記顔認識部で認識された顔に対応する人の顔画像が、前記表示画像に含まれる場合、前記表示画像において前記顔画像を強調表示する表示制御部と、を備えるものである。   An imaging display device according to an aspect of the present invention includes a display unit that displays a display image in a moving image format acquired in advance, and an imaging unit that captures the face of a user who is viewing the display image displayed on the display unit A face recognition unit that performs face recognition on a captured image captured by the imaging unit, and a face image of a person corresponding to the face recognized by the face recognition unit is included in the display image, A display control unit that highlights the face image in the display image.

本発明の一態様にかかる撮像表示装置の制御方法は、予め取得された動画形式の表示画像を表示する表示部と、前記表示部に表示されている表示画像を見ているユーザの顔を撮像する撮像部と、を備えた撮像表示装置の制御方法であって、前記撮像部で撮像された撮像画像に対して顔認識を行うステップと、前記顔認識された顔に対応する人の顔画像が、前記表示画像に含まれる場合、前記表示画像において前記顔画像を強調表示するステップと、を備えるものである。   An imaging display device control method according to an aspect of the present invention includes: a display unit that displays a display image in a moving image format acquired in advance; and a face of a user who is viewing the display image displayed on the display unit A step of performing face recognition on a captured image captured by the imaging unit, and a face image of a person corresponding to the face that has been face-recognized. Is included in the display image, the step of highlighting the face image in the display image is provided.

本発明によれば、臨場感のある表示を行うことができる撮像表示装置、及びその制御方法を提供することを目的とする。   According to the present invention, it is an object to provide an imaging display device capable of performing a realistic display and a control method thereof.

本実施形態に係る撮像装置の全体構成を模式的に示す側面図である。It is a side view which shows typically the whole structure of the imaging device which concerns on this embodiment. 本実施形態に係る撮像装置の全体構成を模式的に示す側面図である。It is a side view which shows typically the whole structure of the imaging device which concerns on this embodiment. 撮像装置のモニタ部の構成を模式的に示す図である。It is a figure which shows typically the structure of the monitor part of an imaging device. 撮像装置の制御系を示すブロック図である。It is a block diagram which shows the control system of an imaging device. 制御データを説明するためのテーブルである。It is a table for demonstrating control data. 強調表示の制御動作を説明するための図である。It is a figure for demonstrating the control operation | movement of an emphasis display. 強調表示の制御動作を説明するための図である。It is a figure for demonstrating the control operation | movement of an emphasis display. 強調表示の制御方法を示すフローチャートである。It is a flowchart which shows the control method of a highlight display. 第1の角度制御方法の制御動作を説明するための図である。It is a figure for demonstrating the control action of the 1st angle control method. 第1の角度制御方法の制御動作を説明するための図である。It is a figure for demonstrating the control action of the 1st angle control method. 第1の角度制御方法の制御動作を説明するための図である。It is a figure for demonstrating the control action of the 1st angle control method. 第1の角度制御方法の制御動作を説明するための図である。It is a figure for demonstrating the control action of the 1st angle control method. 第1の角度制御方法の記録動作を示すフローチャートである。It is a flowchart which shows the recording operation of the 1st angle control method. 第1の角度制御方法の再生動作を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration operation | movement of the 1st angle control method. 第2の角度制御方法の制御動作を説明するための図である。It is a figure for demonstrating the control action of the 2nd angle control method. 第2の角度制御方法の制御動作を説明するための図である。It is a figure for demonstrating the control action of the 2nd angle control method. 第2の角度制御方法の制御動作を示すフローチャートである。It is a flowchart which shows the control action of the 2nd angle control method.

(全体構成)
以下、図面を参照して、本発明の実施の形態に係る撮像装置、及びその制御方法について説明する。まず、図1、図2を用いて、撮像装置の全体構成について説明する。図1、図2は、本実施の形態にかかる撮像装置の全体構成を示す側面図である。撮像装置1は、本体部11と、モニタ部12と、第1駆動機構13と、第2撮像部15と、プロジェクタ18と、第2駆動機構19とを備えている。なお、図1、図2では、XYZ直交座標系を示している。図1、図2では、メインカメラとなる第1撮像部(図1、図2では不図示)のレンズの光軸と平行な方向をZ方向とする。そして、Z方向と垂直な平面をXY平面とする。Y方向が鉛直方向(上下方向)となり、X方向が水平方向(左右方向)となっている。もちろん、上記の方向は、相対的なものであり、撮像装置1の向きに応じて変化する。
(overall structure)
Hereinafter, an imaging device and a control method thereof according to an embodiment of the present invention will be described with reference to the drawings. First, the overall configuration of the imaging apparatus will be described with reference to FIGS. 1 and 2. 1 and 2 are side views showing the overall configuration of the imaging apparatus according to the present embodiment. The imaging device 1 includes a main body unit 11, a monitor unit 12, a first driving mechanism 13, a second imaging unit 15, a projector 18, and a second driving mechanism 19. 1 and 2 show an XYZ orthogonal coordinate system. 1 and 2, the direction parallel to the optical axis of the lens of the first imaging unit (not shown in FIGS. 1 and 2) serving as the main camera is defined as the Z direction. A plane perpendicular to the Z direction is defined as an XY plane. The Y direction is the vertical direction (up and down direction), and the X direction is the horizontal direction (left and right direction). Of course, the above-described directions are relative and change according to the orientation of the imaging device 1.

本体部11は、CMOS撮像素子及びレンズなどを備えた第1撮像部(図1では不図示)を内蔵する筐体を備えている。メインカメラである第1撮像部は、被写体から光を受光して、動画、及び静止画を撮像する。さらに、本体部11は、図示しない、バッテリ、内蔵メモリ、メモリカードスロット、CPU(Central Processing Unit)等を内蔵している。第1撮像部が取得した画像データは、所定の処理が施されて、メモリに格納される。第1撮像部は、撮像装置1の前方を向いて配置されている。すなわち、第1撮像部は、ユーザ21と反対側を向いて配置されている。したがって、第1撮像部は、投影面P側を撮像する。なお、撮影者が、操作ボタン等を押すことで、撮影が開始、又は停止することができる。   The main body 11 includes a housing that houses a first imaging unit (not shown in FIG. 1) that includes a CMOS imaging device and a lens. The first imaging unit, which is the main camera, receives light from the subject and captures moving images and still images. Further, the main body 11 includes a battery, a built-in memory, a memory card slot, a CPU (Central Processing Unit), and the like, not shown. Image data acquired by the first imaging unit is subjected to predetermined processing and stored in a memory. The first imaging unit is arranged facing the front of the imaging device 1. In other words, the first imaging unit is arranged facing the side opposite to the user 21. Therefore, the first imaging unit images the projection plane P side. Note that shooting can be started or stopped by a photographer pressing an operation button or the like.

本体部11の側面には、Y軸周りに開閉可能に設けられたモニタ部12が取り付けられている。例えば、モニタ部12を閉状態とすると、モニタ部12が、本体部11の側面と平行になる。モニタ部12は、液晶モニタ等のディスプレイを内蔵しており、第1撮像部が取得した動画又は静止画を表示する。モニタ部12は、観察者であるユーザ21側に表示画面12aを備えている。したがって、撮像装置1を把持するユーザ21は、モニタ部12の表示画面12aを視認しながら、第1撮像部で撮像を行うことができる。これにより、第1撮像部を所望の被写体に向けながらの撮影が可能になる。図1では、モニタ部12の表示画面12aがXY平面に平行となっている。   A monitor unit 12 is attached to the side surface of the main body 11 so as to be openable and closable around the Y axis. For example, when the monitor unit 12 is in a closed state, the monitor unit 12 is parallel to the side surface of the main body unit 11. The monitor unit 12 has a built-in display such as a liquid crystal monitor, and displays a moving image or a still image acquired by the first imaging unit. The monitor unit 12 includes a display screen 12a on the user 21 side who is an observer. Therefore, the user 21 holding the imaging device 1 can take an image with the first imaging unit while visually recognizing the display screen 12 a of the monitor unit 12. As a result, it is possible to shoot while directing the first imaging unit toward a desired subject. In FIG. 1, the display screen 12a of the monitor unit 12 is parallel to the XY plane.

さらに、モニタ部12は、第1駆動機構13を介して、本体部11に取り付けられている。本体部11は、第1駆動機構13を介して、モニタ部12を回転可能に支持している。第1駆動機構13はモータ等のアクチュエータを備えている。そして、第1駆動機構13は、X軸周りに、モニタ部12を回転駆動する。第1駆動機構13は、本体部11に対するモニタ部12の角度を変える。これにより、本体部11に対してモニタ部12が矢印方向に回転して、モニタ部12が上下に傾いた状態になる。また、撮影者がモニタ部12を直接操作して、モニタ部12を回転させてもよい。図2は、モニタ部12を図1に示す状態から下側に傾けた状態を示している。このように、第1駆動機構13を駆動することによって、表示画面12aの角度が変化する。   Furthermore, the monitor unit 12 is attached to the main body unit 11 via the first drive mechanism 13. The main body 11 supports the monitor unit 12 via the first drive mechanism 13 so as to be rotatable. The first drive mechanism 13 includes an actuator such as a motor. Then, the first drive mechanism 13 rotationally drives the monitor unit 12 around the X axis. The first drive mechanism 13 changes the angle of the monitor unit 12 with respect to the main body unit 11. As a result, the monitor unit 12 rotates in the direction of the arrow with respect to the main body unit 11, and the monitor unit 12 is tilted up and down. Further, the photographer may directly operate the monitor unit 12 to rotate the monitor unit 12. FIG. 2 shows a state where the monitor unit 12 is tilted downward from the state shown in FIG. Thus, by driving the first drive mechanism 13, the angle of the display screen 12a changes.

さらに、モニタ部12にはプロジェクタ18が設けられている。プロジェクタ18は、例えば、小型のピコプロジェクタであり、モニタ部12の表示画面12aとは反対側の背面に設置されている。すなわち、プロジェクタ18は、モニタ部12のユーザ21と反対側に配置されている。プロジェクタ18は、モニタ部12に表示される表示画像を投影面Pに投影する。したがって、ユーザ21は、投影面Pに投影された投影画像を視認することができる。投影面Pは室内の壁面やスクリーンである。   Further, the monitor unit 12 is provided with a projector 18. The projector 18 is a small pico projector, for example, and is installed on the back side of the monitor unit 12 opposite to the display screen 12a. That is, the projector 18 is disposed on the opposite side of the monitor unit 12 from the user 21. The projector 18 projects the display image displayed on the monitor unit 12 onto the projection plane P. Therefore, the user 21 can visually recognize the projection image projected on the projection plane P. The projection plane P is an indoor wall surface or screen.

なお、モニタ部12とプロジェクタ18は、同じ表示画像を同時に表示することができる。たとえは、モニタ部12とプロジェクタ18は、第1撮像部によって取得された動画を表示することができる。あるいは、モニタ部12とプロジェクタ18は、他の撮像装置で取得された動画を表示することができる。この場合、他の撮像装置で取得された動画のファイルを撮像装置1のメモリ等に記憶させておく。あるいは、撮像措置1に通信機能を持たせて、ネットワークを介して他の撮像装置1で撮像された動画データを取得するようにしてもよい。   Note that the monitor unit 12 and the projector 18 can simultaneously display the same display image. For example, the monitor unit 12 and the projector 18 can display the moving image acquired by the first imaging unit. Alternatively, the monitor unit 12 and the projector 18 can display a moving image acquired by another imaging device. In this case, a moving image file acquired by another imaging device is stored in the memory or the like of the imaging device 1. Alternatively, the imaging measure 1 may be provided with a communication function to acquire moving image data captured by another imaging device 1 via a network.

このように、撮像装置1は、同時に同じ画像を表示可能なモニタ部12及びプロジェクタ18を備えている。換言すると、撮像装置1は2つの表示部を備えている。もちろん、プロジェクタ18をOFFして、モニタ部12のみで表示を行ってもよい。さらには、モニタ部12をOFFして、プロジェクタ18のみで表示を行ってもよい。例えば、ユーザが操作ボタン等を押すことによって、プロジェクタ18をON/OFFすることができる。これにより、モニタ部12の液晶モニタのみの単独表示か、モニタ部12の液晶モニタとプロジェクタ18の同時表示かを選択することができる。   As described above, the imaging apparatus 1 includes the monitor unit 12 and the projector 18 that can simultaneously display the same image. In other words, the imaging device 1 includes two display units. Of course, the projector 18 may be turned off and display may be performed only by the monitor unit 12. Furthermore, the monitor unit 12 may be turned off and display may be performed only by the projector 18. For example, the projector 18 can be turned ON / OFF by the user pressing an operation button or the like. Thereby, it is possible to select whether the liquid crystal monitor of the monitor unit 12 alone is displayed or the liquid crystal monitor of the monitor unit 12 and the projector 18 are simultaneously displayed.

プロジェクタ18は、第2駆動機構19を介して、モニタ部12に取り付けられている。すなわち、モニタ部12は、第2駆動機構19を介して、プロジェクタ18を回転可能に支持している。第2駆動機構19は、プロジェクタ18の光軸周りにプロジェクタ18を回転する。第2駆動機構19は、プロジェクタ19の投影レンズ及び表示素子を含む全体を回転させる。これにより、投影面Pに投影されている投影画像の傾きを変えることができる。例えば、図1に示す状態では、プロジェクタ18の投影レンズの光軸、及び第1撮像部の光軸が平行になっている。したがって、図1に示す状態において、第2駆動機構19は、Z軸周りにプロジェクタ18を回転させる。換言すると、第2駆動機構19は、投影面Pに対して垂直な軸周りにプロジェクタ18を回転する。これにより、投影面Pに投影される投影画像を傾けることができる。   The projector 18 is attached to the monitor unit 12 via the second drive mechanism 19. In other words, the monitor unit 12 supports the projector 18 via the second drive mechanism 19 so as to be rotatable. The second drive mechanism 19 rotates the projector 18 around the optical axis of the projector 18. The second drive mechanism 19 rotates the entire projector 19 including the projection lens and the display element. Thereby, the inclination of the projection image projected on the projection plane P can be changed. For example, in the state shown in FIG. 1, the optical axis of the projection lens of the projector 18 and the optical axis of the first imaging unit are parallel. Therefore, in the state shown in FIG. 1, the second drive mechanism 19 rotates the projector 18 around the Z axis. In other words, the second drive mechanism 19 rotates the projector 18 around an axis perpendicular to the projection plane P. Thereby, the projection image projected on the projection plane P can be tilted.

また、第1駆動機構13を駆動することで、モニタ部12とともにプロジェクタ18もX軸周りに回転する。これにより、プロジェクタ18の投影方向が上下に変化する。よって、投影面Pにおける投影位置を変化させることができる。図2では図1に示す状態から、投影面Pにおける投影画像の高さが変化している。このように、第1駆動機構13は、モニタ部12とプロジェクタ18の向きを変化している。また、第1駆動機構13は、プロジェクタ18の投影方向を変化している。第1駆動機構13と第2駆動機構19の制御方法については後述する。   Further, by driving the first drive mechanism 13, the projector 18 together with the monitor unit 12 rotates around the X axis. Thereby, the projection direction of the projector 18 changes up and down. Therefore, the projection position on the projection plane P can be changed. In FIG. 2, the height of the projected image on the projection plane P changes from the state shown in FIG. Thus, the first drive mechanism 13 changes the orientation of the monitor unit 12 and the projector 18. Further, the first drive mechanism 13 changes the projection direction of the projector 18. A method for controlling the first drive mechanism 13 and the second drive mechanism 19 will be described later.

モニタ部12の構成について、図3を用いて説明する。図3は、モニタ部12の構成を模式的に示す図である。図3は、モニタ部12を表示側から見た図を示している。モニタ部12の表示側には、矩形状の表示画面12aが設けられている。表示画面12aは、第1撮像部で撮像した画像を表示する。モニタ部12の側方には、第1駆動機構13が設けられている。第1駆動機構13がモニタ部12を回転駆動することで、表示画面12aの表示方向が変わる。例えば、第1駆動機構13は、表示画面12aの表示方向を上下に傾ける。   The configuration of the monitor unit 12 will be described with reference to FIG. FIG. 3 is a diagram schematically illustrating the configuration of the monitor unit 12. FIG. 3 shows a view of the monitor unit 12 as viewed from the display side. On the display side of the monitor unit 12, a rectangular display screen 12a is provided. The display screen 12a displays an image captured by the first imaging unit. A first drive mechanism 13 is provided on the side of the monitor unit 12. When the first drive mechanism 13 rotates the monitor unit 12, the display direction of the display screen 12a changes. For example, the first drive mechanism 13 tilts the display direction of the display screen 12a up and down.

さらに、モニタ部12には、サブカメラとなる第2撮像部15が設けられている。第2撮像部15は、表示画面12aの外側に配置されている。ここでは、第2撮像部15は、表示画面12aの上に固定されている。第2撮像部15は、モニタ部12の表示側を撮像する。第2撮像部15は、撮像装置1を把持した撮影者を撮像するために設けられている。撮影者がモニタ部12の表示画面12aを見ながら撮影すると、第2撮像部15は撮影者を撮像する。なお、第2撮像部15のレンズの光軸は、表示画面12aと垂直になっている。第2撮像部15は、モニタ部12の回転角度に応じて撮像方向が変化する。   Further, the monitor unit 12 is provided with a second imaging unit 15 serving as a sub camera. The second imaging unit 15 is disposed outside the display screen 12a. Here, the second imaging unit 15 is fixed on the display screen 12a. The second imaging unit 15 images the display side of the monitor unit 12. The second imaging unit 15 is provided to capture an image of a photographer who holds the imaging device 1. When the photographer takes a picture while looking at the display screen 12a of the monitor unit 12, the second imaging unit 15 takes an image of the photographer. Note that the optical axis of the lens of the second imaging unit 15 is perpendicular to the display screen 12a. The imaging direction of the second imaging unit 15 changes according to the rotation angle of the monitor unit 12.

なお、プロジェクタ18は、モニタ部12の表示画面12aと反対側の面に設けられている。したがって、第1駆動機構13がモニタ部12を駆動すると、プロジェクタ18の角度も変化する。また、第2撮像部15の光軸は、プロジェクタ18と平行になっている。   The projector 18 is provided on the surface of the monitor unit 12 opposite to the display screen 12a. Therefore, when the first drive mechanism 13 drives the monitor unit 12, the angle of the projector 18 also changes. In addition, the optical axis of the second imaging unit 15 is parallel to the projector 18.

第2撮像部15の近傍にはライト16が設けられている。ライト16は、LED(Light Emitting Diode)などの光源を備えおり、照明光を出射する。照明光は、第2撮像部15で撮像される被写体を照明する。   A light 16 is provided in the vicinity of the second imaging unit 15. The light 16 includes a light source such as an LED (Light Emitting Diode) and emits illumination light. The illumination light illuminates the subject imaged by the second imaging unit 15.

(制御系)
次に、図4を参照して、撮像装置1の制御系について説明する。図4は、撮像装置1の制御系を示すブロック図である。
(Control system)
Next, the control system of the imaging apparatus 1 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a control system of the imaging apparatus 1.

中央制御部400はCPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成されている。中央制御部400をマイクロコンピュータで構成することができる。中央制御部400は、撮像、各種画像の表示、又は後述する画像処理や画像表示等に関する撮像装置1全体の処理を統括的に制御する。   The central control unit 400 is configured by a semiconductor integrated circuit including a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) as a work area, and the like. The central control unit 400 can be constituted by a microcomputer. The central control unit 400 comprehensively controls processing of the entire imaging apparatus 1 related to imaging, display of various images, or image processing and image display described below.

メインカメラとなる第1撮像部14は、ズームレンズ101、フォーカスレンズ102、絞り103、及び撮像素子104を備えている。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ102は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り103は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で構成される。   The first imaging unit 14 serving as a main camera includes a zoom lens 101, a focus lens 102, a diaphragm 103, and an image sensor 104. The zoom lens 101 is moved along the optical axis LA by a zoom actuator (not shown). Similarly, the focus lens 102 moves along the optical axis LA by a focus actuator (not shown). The diaphragm 103 operates by being driven by a diaphragm actuator (not shown). The imaging element 104 is configured by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

撮像素子104はズームレンズ101、フォーカスレンズ102、及び絞り103を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。そして、画像A/D変換部106は、デジタル画像データを、映像信号として、画像入力コントローラ107に出力する。画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。   The image sensor 104 photoelectrically converts light that has passed through the zoom lens 101, the focus lens 102, and the aperture 103 to generate an analog image signal of the subject. After the analog image signal processing unit 105 amplifies the analog image signal, the image A / D conversion unit 106 converts the amplified signal into digital image data. Then, the image A / D conversion unit 106 outputs the digital image data to the image input controller 107 as a video signal. The image input controller 107 takes in digital image data output from the image A / D conversion unit 106 as captured image data and stores it in the main memory 206 via the bus 200.

サブカメラとなる第2撮像部15は、ズームレンズ501、フォーカスレンズ502、絞り503、及び撮像素子504を備えている。ズームレンズ501は図示しないズームアクチュエータによって光軸LBに沿って移動する。同様に、フォーカスレンズ502は、図示しないフォーカスアクチュエータによって光軸LBに沿って移動する。絞り503は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子504は、CCDやCMOS等で構成される。   The second imaging unit 15 serving as a sub camera includes a zoom lens 501, a focus lens 502, a diaphragm 503, and an image sensor 504. The zoom lens 501 is moved along the optical axis LB by a zoom actuator (not shown). Similarly, the focus lens 502 is moved along the optical axis LB by a focus actuator (not shown). The diaphragm 503 operates by being driven by a diaphragm actuator (not shown). The image sensor 504 is configured by a CCD, a CMOS, or the like.

撮像素子504はズームレンズ501、フォーカスレンズ502、及び絞り503を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部505が、このアナログ画像信号を増幅した後、画像A/D変換部506が、その増幅された信号をデジタル画像データに変換する。そして、画像A/D変換部506は、デジタル画像データを、映像信号として、画像入力コントローラ507に出力する。画像入力コントローラ507は、画像A/D変換部506から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。   The image sensor 504 photoelectrically converts light that has passed through the zoom lens 501, the focus lens 502, and the stop 503 to generate an analog image signal of the subject. After the analog image signal processing unit 505 amplifies the analog image signal, the image A / D conversion unit 506 converts the amplified signal into digital image data. Then, the image A / D conversion unit 506 outputs the digital image data to the image input controller 507 as a video signal. The image input controller 507 takes in digital image data output from the image A / D conversion unit 506 as captured image data and stores it in the main memory 206 via the bus 200.

なお、第1撮像部14は、メインカメラであり、第2撮像部15は、サブカメラである。したがって、第2撮像部15は、第1撮像部14よりも撮像性能が低いものとすることができる。例えば、撮像素子504は、撮像素子104よりも画素数が低くなっていてもよい。あるいは、ズームレンズ501、フォーカスレンズ502は、ズームレンズ101、フォーカスレンズ102よりもレンズ性能の低いレンズであってもよい。   The first imaging unit 14 is a main camera, and the second imaging unit 15 is a sub camera. Therefore, the second imaging unit 15 can have imaging performance lower than that of the first imaging unit 14. For example, the image sensor 504 may have a lower number of pixels than the image sensor 104. Alternatively, the zoom lens 501 and the focus lens 502 may be lenses having lower lens performance than the zoom lens 101 and the focus lens 102.

デジタル信号処理部108は、バス200を介して中央制御部400からの指令に基づき、メインメモリ206に格納された撮像画像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなるデータを生成する。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。   Based on a command from the central control unit 400 via the bus 200, the digital signal processing unit 108 takes captured image data stored in the main memory 206, performs predetermined signal processing, and includes a luminance signal and a color difference signal. Generate data. The digital signal processing unit 108 also performs various digital corrections such as offset processing, white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing.

音声処理部202は、バス200を介して中央制御部400の指示に従い、マイク(不図示)等で取得された音声データに所定の処理を施す。例えば、音声データをデジタルデータに変換したり、雑音除去処理等をしたりする。   The audio processing unit 202 performs predetermined processing on audio data acquired by a microphone (not shown) or the like according to an instruction from the central control unit 400 via the bus 200. For example, voice data is converted into digital data, or noise removal processing is performed.

圧縮/伸長処理部201は、バス200を介して中央制御部400からの指示に従って、第1撮像部14によって取得された撮像画像データ及びデジタル音声データに所定の圧縮処理を施して圧縮データを生成する。また、圧縮/伸長処理部201は、中央制御部400からの指示に従って、記録部の一例であるカード型記録媒体302に格納された圧縮データに所定形式の伸張処理を施して非圧縮データを生成する。所定の圧縮処理としては、静止画像に対してはJPEG規格に準拠した圧縮方式を採用することができ、動画に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式を採用することができる。圧縮/伸長処理部201は、第1撮像部14によって取得された撮像画像データに対して、処理を行う。   The compression / decompression processing unit 201 performs predetermined compression processing on the captured image data and digital audio data acquired by the first imaging unit 14 according to an instruction from the central control unit 400 via the bus 200 to generate compressed data. To do. Further, the compression / decompression processing unit 201 generates uncompressed data by performing decompression processing of a predetermined format on the compressed data stored in the card type recording medium 302 which is an example of the recording unit in accordance with an instruction from the central control unit 400 To do. As the predetermined compression processing, a compression method based on the JPEG standard can be adopted for still images, and MPEG2 standard or AVC / H. A compression method compliant with the H.264 standard can be employed. The compression / decompression processing unit 201 performs processing on the captured image data acquired by the first imaging unit 14.

ROM203はバス200を介して中央制御部400に接続されており、中央制御部400が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM204は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。撮像装置1は、様々な撮像のシチュエーションに応じて、いくつかの撮像モードと、各モードにあわせた撮像条件の設定を予めフラッシュROM204に記憶している。そして、ユーザは撮像を開始する前に、各モードの中から最適なモードを選択することにより、最適な撮像条件で撮像を実施することができる。例えば、特定の人物の撮像に適した「ポートレートモード」、運動会等の撮像に適した「スポーツモード」、又は夜景等の暗い場所の撮像に適した「夜景モード」等である。VRAM205は、表示用の撮像データの一時記憶領域として使用される。   The ROM 203 is connected to the central control unit 400 via the bus 200 and stores a control program executed by the central control unit 400 and various data necessary for control. The flash ROM 204 stores various setting information related to the operation of the imaging apparatus 1, such as user setting information. The imaging apparatus 1 stores in advance in the flash ROM 204 several imaging modes and imaging condition settings according to each mode in accordance with various imaging situations. And before starting imaging, the user can perform imaging under optimal imaging conditions by selecting an optimal mode from each mode. For example, a “portrait mode” suitable for capturing a specific person, a “sport mode” suitable for capturing an athletic meet, or a “night view mode” suitable for capturing a dark place such as a night view. The VRAM 205 is used as a temporary storage area for image data for display.

メディア制御部207は、中央制御部400からの指示に従って、カードI/F301を介してカード型記録媒体302に対してデータを書き込み、カード型記録媒体302に記録されたデータを読み出すよう制御する。カード型記録媒体302はSDカードやコンパクトフラッシュ(登録商標)等の外部メモリであり、撮像装置1に対して脱着可能に設けられている。カード型記録媒体302には、第1撮像部14で撮像した動画の撮像画像データが圧縮して格納される。   The media control unit 207 controls to write data to the card type recording medium 302 via the card I / F 301 and to read data recorded on the card type recording medium 302 in accordance with an instruction from the central control unit 400. The card-type recording medium 302 is an external memory such as an SD card or a compact flash (registered trademark), and is provided so as to be removable from the imaging apparatus 1. The card-type recording medium 302 stores the captured image data of the moving image captured by the first imaging unit 14 in a compressed manner.

液晶モニタ304、スピーカ305、操作部306及び入出力端子307は入出力I/F303に接続されている。液晶モニタ304は、モニタ部12に内蔵されている。液晶モニタ304は、例えばVRAM205やメインメモリ206に一時記録された撮像画像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。液晶モニタ304は、第1撮像部14によって取得された動画を表示する。あるいは、液晶モニタ304はカード型記録媒体302に記録されている動画を表示する。   The liquid crystal monitor 304, the speaker 305, the operation unit 306, and the input / output terminal 307 are connected to the input / output I / F 303. The liquid crystal monitor 304 is built in the monitor unit 12. The liquid crystal monitor 304 displays images generated from various image data such as captured image data and various menu image data temporarily recorded in the VRAM 205 or the main memory 206, for example. The liquid crystal monitor 304 displays the moving image acquired by the first imaging unit 14. Alternatively, the liquid crystal monitor 304 displays a moving image recorded on the card type recording medium 302.

スピーカ305は、例えばメインメモリ206に一時記録された音声を出力する。操作部306は、図示しないレリーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ304上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続される。   The speaker 305 outputs sound temporarily recorded in the main memory 206, for example. The operation unit 306 includes an operation key including a release switch and a power switch (not shown), a cross key, a joystick, a touch panel superimposed on the liquid crystal monitor 304, and the like. Accept. The input / output terminal 307 is connected to a television monitor (not shown), a PC (Personal Computer), or the like.

さらに、プロジェクタ18は、入出力I/F303に接続されている。プロジェクタ18は、例えばVRAM205やメインメモリ206に一時記録された撮像画像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。プロジェクタ18は、第1撮像部14によって取得された動画を表示する。あるいは、プロジェクタ18は、カード型記録媒体302に記録されている動画を表示する。   Further, the projector 18 is connected to the input / output I / F 303. The projector 18 displays images generated from various image data such as captured image data and various menu image data temporarily recorded in the VRAM 205 or the main memory 206, for example. The projector 18 displays the moving image acquired by the first imaging unit 14. Alternatively, the projector 18 displays a moving image recorded on the card type recording medium 302.

プロジェクタ18は、液晶モニタ304に表示される表示画像と同じ画像を投影する。したがって、プロジェクタ18は、投影面Pに投影画像を投影する。また、プロジェクタ18は、投影画像のズームやフォーカス等を調整する。   The projector 18 projects the same image as the display image displayed on the liquid crystal monitor 304. Therefore, the projector 18 projects a projection image on the projection plane P. The projector 18 adjusts the zoom and focus of the projection image.

さらに、第1駆動機構13は、入出力I/F303に接続されている。第1駆動機構13はモータ、モータドライバ、及びエンコーダなどを備えている。そして、第1駆動機構13は、液晶モニタ304が設けられているモニタ部12を回転駆動する。例えば、第1駆動機構13は、中央制御部400からの指令値に基づいて、モニタ部12を回転させる。   Further, the first drive mechanism 13 is connected to the input / output I / F 303. The first drive mechanism 13 includes a motor, a motor driver, an encoder, and the like. Then, the first drive mechanism 13 rotationally drives the monitor unit 12 in which the liquid crystal monitor 304 is provided. For example, the first drive mechanism 13 rotates the monitor unit 12 based on a command value from the central control unit 400.

同様に、第2駆動機構19は、入出力I/F303に接続されている。第2駆動機構19はモータ、モータドライバ、及びエンコーダなどを備えている。そして、第2駆動機構19は、プロジェクタ18を回転駆動する。例えば、第2駆動機構19は、中央制御部400からの指令値に基づいて、プロジェクタ18を回転させる。   Similarly, the second drive mechanism 19 is connected to the input / output I / F 303. The second drive mechanism 19 includes a motor, a motor driver, an encoder, and the like. The second drive mechanism 19 rotates the projector 18. For example, the second drive mechanism 19 rotates the projector 18 based on a command value from the central control unit 400.

また、ライト16が入出力I/F303に接続されている。ライト16は、第2撮像部15で撮像される領域を照明する。ライト16は、中央制御部400からの制御信号に基づいて、制御される。例えば、ライト16は、第2撮像部15で撮像される領域が暗い場合に点灯する。もちろん、ユーザが直接、ライト16のON/OFF等を設定するようにしてもよい。   A light 16 is connected to the input / output I / F 303. The light 16 illuminates a region imaged by the second imaging unit 15. The light 16 is controlled based on a control signal from the central control unit 400. For example, the light 16 is lit when the area imaged by the second imaging unit 15 is dark. Of course, the user may directly set ON / OFF of the light 16 or the like.

ジャイロセンサ208は、撮像装置1の3軸の加速度及び角速度の変化を検出する。ジャイロセンサ208が検出した角速度を積分することで、本体部11の角度を求めることができる。   The gyro sensor 208 detects changes in triaxial acceleration and angular velocity of the imaging device 1. By integrating the angular velocity detected by the gyro sensor 208, the angle of the main body 11 can be obtained.

照度センサ209は、撮像装置1の使用環境の照度を検出する。照度センサ209は、投影面Pを含む部屋が明るさを検出する。そして、照度センサ209の検出結果に応じて、中央制御部400が、ライト16を制御する。例えば、照度センサ209で検出された照度が閾値よりも低い場合、中央制御部400は、ライト16をオンする。もちろん、ユーザが直接、ライト16のON/OFF等を設定するようにしてもよい。   The illuminance sensor 209 detects the illuminance of the usage environment of the imaging device 1. The illuminance sensor 209 detects the brightness of the room including the projection plane P. Then, the central control unit 400 controls the light 16 according to the detection result of the illuminance sensor 209. For example, when the illuminance detected by the illuminance sensor 209 is lower than the threshold, the central control unit 400 turns on the light 16. Of course, the user may directly set ON / OFF of the light 16 or the like.

中央制御部400は、顔認識部401と、角度データ取得部402と、制御データ生成部403と、表示制御部404と、回転角度設定部405と、駆動制御部406と、を備えている。顔認識部401は、第2撮像部15が取得した画像に対して、顔認識処理を行う。より具体的には、顔認識部401は、動画のフレーム画像に対して顔認識を行う。   The central control unit 400 includes a face recognition unit 401, an angle data acquisition unit 402, a control data generation unit 403, a display control unit 404, a rotation angle setting unit 405, and a drive control unit 406. The face recognition unit 401 performs face recognition processing on the image acquired by the second imaging unit 15. More specifically, the face recognition unit 401 performs face recognition on a frame image of a moving image.

また、顔認識部401は、顔認識によって抽出された顔の特徴量を抽出する。顔認識部401は、顔の特徴量に基づいて、顔認識されている人を特定する。すなわち、顔認識部401は、顔の特徴量が一致している人は同じ人であると認識する。顔認識部401は、どの人が画像に含まれているかを検出する。顔認識部401は、動画の1フレーム毎に、画像に含まれているユーザを特定する。   Further, the face recognition unit 401 extracts a facial feature amount extracted by face recognition. The face recognition unit 401 identifies a person whose face is recognized based on the feature amount of the face. That is, the face recognizing unit 401 recognizes that the person with the same facial feature amount is the same person. The face recognition unit 401 detects which person is included in the image. The face recognition unit 401 identifies a user included in an image for each frame of a moving image.

角度データ取得部402は、ジャイロセンサ208での検出結果に基づいて、撮像時の本体部11の角度を取得する。例えば、角度データ取得部402は、ジャイロセンサ208が検出した角速度を積分して、本体部11の角度を求めることができる。角度データ取得部402は、1フレーム毎に3軸の回転角度を取得する。   The angle data acquisition unit 402 acquires the angle of the main body 11 during imaging based on the detection result of the gyro sensor 208. For example, the angle data acquisition unit 402 can obtain the angle of the main body 11 by integrating the angular velocity detected by the gyro sensor 208. The angle data acquisition unit 402 acquires a rotation angle of three axes for each frame.

制御データ生成部403は、顔認識データと角度データに基づいて、制御データを生成する。例えば、制御データ生成部403は、1フレーム毎の顔認識データと角度データをテーブルとして保存する。制御データ生成部403は、制御データファイルを、例えば、メインメモリ206又はカード型記録媒体302に格納する。また、制御データファイルは、取得した動画ファイルと対応付けて保存される。   The control data generation unit 403 generates control data based on the face recognition data and the angle data. For example, the control data generation unit 403 stores face recognition data and angle data for each frame as a table. The control data generation unit 403 stores the control data file in the main memory 206 or the card type recording medium 302, for example. The control data file is stored in association with the acquired moving image file.

図5に制御データ生成部403が生成した制御データのテーブルの一例を示す。ここでは、1フレームからnフレームまでの動画に対する制御データが格納されている。なお、録画開始時の先頭フレームが1フレームであり、録画終了時の最終フレームがnフレームとなっている。そして、フレーム番号が動画の経過時間に対応する。   FIG. 5 shows an example of a control data table generated by the control data generation unit 403. Here, control data for a moving image from 1 frame to n frames is stored. Note that the first frame at the start of recording is one frame, and the last frame at the end of recording is n frames. The frame number corresponds to the elapsed time of the moving image.

制御データのテーブルには、1フレーム毎に、顔認識データA、顔認識データB、角度データが対応付けられている。顔認識データAは、ユーザAが撮像されているか否かを示すデータである。すなわち、顔認識データAの縦列にユーザAと示されているフレームでは、撮像画像内にユーザAの顔が含まれており、空欄となっているフレームでは、撮像画像内にユーザAの顔が含まれていない。図5では、3フレーム目〜101フレーム目までユーザAの顔が撮像されている。そして、102フレーム目から200フレーム目までは、ユーザAの顔が撮像されていない。さらに、201フレーム目からnフレーム目までユーザAの顔が撮像されている。このように、ユーザAの顔が検出できたか否かに応じて、顔認識データAが生成される。   In the control data table, face recognition data A, face recognition data B, and angle data are associated with each frame. The face recognition data A is data indicating whether or not the user A is imaged. That is, in the frame indicated as user A in the vertical column of face recognition data A, the face of user A is included in the captured image, and in the frame that is blank, the face of user A is included in the captured image. Not included. In FIG. 5, the face of the user A is captured from the third frame to the 101st frame. The face of the user A is not captured from the 102nd frame to the 200th frame. Further, the face of the user A is captured from the 201st frame to the nth frame. Thus, the face recognition data A is generated depending on whether or not the face of the user A has been detected.

同様に、顔認識データBは、ユーザBが撮像されているか否かを示すデータである。すなわち、顔認識データBにユーザBと示されているフレームでは、撮像画像内にユーザBの顔が含まれており、空欄となっているフレームでは、撮像画像内にユーザBの顔が含まれていない。図5では6フレーム目から102フレーム目までは、ユーザBの顔が検出されている。もちろん、ユーザA,B以外のユーザの顔が撮像される場合は、そのユーザについても顔認識データを保存する。例えば、他のユーザCやユーザDの顔が撮像される場合は、それぞれのユーザについて顔認識データを生成する。   Similarly, the face recognition data B is data indicating whether or not the user B is imaged. That is, in the frame indicated as user B in the face recognition data B, the face of user B is included in the captured image, and in the frame that is blank, the face of user B is included in the captured image. Not. In FIG. 5, the face of user B is detected from the sixth frame to the 102nd frame. Of course, when the faces of users other than the users A and B are imaged, the face recognition data is also stored for the users. For example, when the faces of other users C and D are imaged, face recognition data is generated for each user.

このように、顔認識部401は、顔認識の結果により得られた顔の特徴量によって、顔に対応するユーザを特定する。そして、制御データ生成部403は、撮像画像に登場するユーザ毎に、時系列に沿った顔認識データを取得する。なお、顔認識データとしては、撮像画像におけるユーザの有無に限らず、撮像画像における顔画像の位置や傾きなどが含まれていてもよい。   As described above, the face recognition unit 401 identifies a user corresponding to a face based on the facial feature amount obtained from the face recognition result. Then, the control data generation unit 403 acquires face recognition data in time series for each user appearing in the captured image. Note that the face recognition data is not limited to the presence or absence of the user in the captured image, and may include the position and inclination of the face image in the captured image.

角度データは、例えば、X軸周りの回転角度φ、Y軸周りの回転角度θ、Z軸周りの回転角度Ψを有している。そして、制御データのテーブルには、1フレーム毎に(φ、θ、Ψ)が格納される。例えば、nフレーム目の角度データは、(φn、θn、Ψn)となっている。このように、制御データ生成部403は、撮像時の顔認識データと角度データとに基づいて、制御データを生成する。   The angle data includes, for example, a rotation angle φ around the X axis, a rotation angle θ around the Y axis, and a rotation angle Ψ around the Z axis. The control data table stores (φ, θ, Ψ) for each frame. For example, the angle data of the nth frame is (φn, θn, Ψn). As described above, the control data generation unit 403 generates control data based on the face recognition data and the angle data at the time of imaging.

制御データをメタファイルとして記憶される。あるいは、制御データをストリームデータとして記憶してもよい。また、制御データは撮像と並行して生成されていてもよく、撮像の終了後に生成されていてもよい。また、ユーザが制御データを生成するか否かを指定するようにしてもよい。   Control data is stored as a metafile. Alternatively, the control data may be stored as stream data. Further, the control data may be generated in parallel with imaging, or may be generated after imaging is completed. Moreover, you may make it designate whether a user produces | generates control data.

そして、表示制御部404は、制御データに基づいて、表示を制御する。表示制御部は、制御データと、第2撮像部15が撮像中の撮像画像の顔認識データを比較する。そして、比較結果に応じて、強調表示を行う。例えば、表示制御部404は、プロジェクタ18が投影している投影画像に対して強調表示を行う。このように、表示制御部404は、表示画像に対応する制御データの顔認識データに基づいて、動画形式の表示画像の顔を強調して表示する。この強調表示については後述する。   Then, the display control unit 404 controls display based on the control data. The display control unit compares the control data with the face recognition data of the captured image being captured by the second imaging unit 15. Then, highlighting is performed according to the comparison result. For example, the display control unit 404 highlights the projection image projected by the projector 18. As described above, the display control unit 404 emphasizes and displays the face of the display image in the moving image format based on the face recognition data of the control data corresponding to the display image. This highlighting will be described later.

回転角度設定部405は制御データに基づいて、回転角度を設定する。回転角度設定部405は、例えば、角度データに基づいて、第1駆動機構13と第2駆動機構19の回転角度を設定する。そして、駆動制御部406は、回転角度に応じた指令値を第1駆動機構13、及び第2駆動機構19に出力する。これにより、第1駆動機構13及び第2駆動機構19が設定された回転角度になるように回転する。なお、第1駆動機構13と第2駆動機構19の制御については、後述する。   The rotation angle setting unit 405 sets the rotation angle based on the control data. The rotation angle setting unit 405 sets the rotation angle of the first drive mechanism 13 and the second drive mechanism 19 based on, for example, angle data. Then, the drive control unit 406 outputs a command value corresponding to the rotation angle to the first drive mechanism 13 and the second drive mechanism 19. Thereby, the 1st drive mechanism 13 and the 2nd drive mechanism 19 rotate so that it may become the set rotation angle. The control of the first drive mechanism 13 and the second drive mechanism 19 will be described later.

なお、上記の説明では、制御データがフレーム毎に生成されているものとして説明したが、制御データは複数フレーム毎に生成されていてもよい。あるいは、所定の時間間隔ごとに制御データを生成してもよい。すなわち、制御データを取得した時間又はフレームが、その制御データに対応付けられていればよい。換言すると動画の経過時間とともに制御データが格納されている。よって、動画の経過時間に対応付けて、角度データと顔認識データが記憶される。さらには、角度データと顔認識データは、同じ時間間隔で取得されていなくてもよい。例えば、角度データは、1フレーム毎に取得され、顔認識データは、2フレーム毎に取得されていてもよい。   In the above description, the control data is described as being generated for each frame. However, the control data may be generated for each of a plurality of frames. Or you may produce | generate control data for every predetermined time interval. That is, the time or frame at which the control data is acquired only needs to be associated with the control data. In other words, control data is stored along with the elapsed time of the moving image. Therefore, the angle data and the face recognition data are stored in association with the elapsed time of the moving image. Furthermore, the angle data and the face recognition data may not be acquired at the same time interval. For example, the angle data may be acquired every frame, and the face recognition data may be acquired every two frames.

(強調表示の動作説明)
以下、強調表示の動作について、図6を用いて説明する。図6は、強調表示を行う前の状態を示し、図7は、強調表示が行われている状態を模式的に示す図である。なお、図6、図7では、撮像装置1の構成の一部を省略して図示している。強調表示では、制御データの顔認識データが用いられる。図6、図7では、顔認識データと対応付けられた動画ファイルを再生している状態を模式的に示している。
(Explanation of highlight operation)
Hereinafter, the highlighting operation will be described with reference to FIG. FIG. 6 illustrates a state before highlighting, and FIG. 7 is a diagram schematically illustrating a state where highlighting is performed. In FIGS. 6 and 7, a part of the configuration of the imaging device 1 is omitted. In highlighting, face recognition data of control data is used. 6 and 7 schematically show a state where a moving image file associated with the face recognition data is being reproduced.

図6のように、プロジェクタ18が投影面Pに対して投影画像を投影している。ここでは、既にカード型記録媒体302に記録されている動画ファイルを再生する。以下、プロジェクタ18によって投影された投影画像を再生画像30とする。再生画像30は、ユーザ21a、及びユーザ21bを含んでいる。すなわち、ユーザ21a、及びユーザ21bを被写体として含んで撮像された動画をプロジェクタ18が再生している。この場合、制御データは、図5に示したように、ユーザ21aの顔認識データAとユーザ21bの顔認識データBが含まれている。ここで、制御データに含まれる顔認識データを参照データとする。   As shown in FIG. 6, the projector 18 projects a projection image onto the projection plane P. Here, the moving image file already recorded on the card type recording medium 302 is reproduced. Hereinafter, a projected image projected by the projector 18 is referred to as a reproduced image 30. The reproduced image 30 includes a user 21a and a user 21b. That is, the projector 18 reproduces a moving image captured including the user 21a and the user 21b as subjects. In this case, as shown in FIG. 5, the control data includes face recognition data A of the user 21a and face recognition data B of the user 21b. Here, the face recognition data included in the control data is set as reference data.

さらに、プロジェクタ18による表示中に、第2撮像部15がプロジェクタ18の投影方向と反対方向を撮像する。すなわち、第2撮像部15は、再生画像30を視認している観察者(ユーザ)を撮像する。図6では、第2撮像部15が撮像装置1の後方で再生画像30を視認しているユーザ21a及びユーザ21cを撮像する。顔認識部401は、第2撮像部15で撮像された撮像画像に対して、顔認識を行う。顔認識部401は、ユーザ21aとユーザ21cの顔をそれぞれ認識する。なお、顔認識部401は、第2撮像部15で撮像されている動画の各フレームに対して、顔認識を行う。これにより、第2撮像部15の撮像画像の顔認識データが生成される。ここで、第2撮像部15の撮像画像の顔認識データを比較データとする   Further, during display by the projector 18, the second imaging unit 15 images in the direction opposite to the projection direction of the projector 18. That is, the second imaging unit 15 captures an observer (user) who is viewing the reproduced image 30. In FIG. 6, the second imaging unit 15 images the user 21 a and the user 21 c who are viewing the reproduced image 30 behind the imaging device 1. The face recognition unit 401 performs face recognition on the captured image captured by the second imaging unit 15. The face recognition unit 401 recognizes the faces of the user 21a and the user 21c, respectively. The face recognition unit 401 performs face recognition on each frame of the moving image captured by the second imaging unit 15. Thereby, face recognition data of a captured image of the second imaging unit 15 is generated. Here, the face recognition data of the captured image of the second imaging unit 15 is used as comparison data.

そして、表示制御部404は、参照データと、現在の比較データとを比較する。すなわち、制御データに含まれる顔認識データと、撮像中の撮像画像の顔認識データを比較して、一致している顔を検出する。例えば、図6に示す例では、ユーザ21aの顔が再生画像30と撮像画像の両方に含まれる。したがって、撮像中のユーザ21aの比較データが参照データと一致すると判定する。   Then, the display control unit 404 compares the reference data with the current comparison data. That is, the face recognition data included in the control data is compared with the face recognition data of the captured image being captured, and a matching face is detected. For example, in the example illustrated in FIG. 6, the face of the user 21 a is included in both the reproduced image 30 and the captured image. Therefore, it is determined that the comparison data of the user 21a being imaged matches the reference data.

一方、撮像中のユーザ21cの比較データは、ユーザ21bの参照データと一致しない。すなわち、ユーザ21bの顔画像は、撮像画像には含まれていない。また、ユーザ21cの顔画像は、再生画像30には含まれていない。よって、撮像中のユーザ21bの顔認識データと、参照データに含まれるユーザ21cの顔認識データは、一致していない。このように、図6では、ユーザ21aのみ、参照データと比較データが一致する。   On the other hand, the comparison data of the user 21c being imaged does not match the reference data of the user 21b. That is, the face image of the user 21b is not included in the captured image. Further, the face image of the user 21 c is not included in the reproduced image 30. Therefore, the face recognition data of the user 21b being imaged does not match the face recognition data of the user 21c included in the reference data. Thus, in FIG. 6, only the user 21a matches the reference data with the comparison data.

そして、表示制御部404は、参照データと比較データとの比較結果に応じて、強調表示データを生成する。参照データと比較データが一致したユーザの顔画像を強調するよう、プロジェクタ18が表示を行う。これにより、図7に示すように、ユーザ21aの顔が強調表示される。例えば、図7では、ユーザ21aの顔に強調表示用の図形31を重畳して、表示する。表示制御部404は、再生中の動画に図形31を重畳して、表示用データを生成する。そして、プロジェクタ18は元の表示画像に図形31が重畳された強調表示画像を表示する。なお、強表表示のために重畳するデータとしては、再生画像30に枠や吹き出し、文字、記号等のグラフィックを用いることができる。あるいは、表示色によって強調表示することも可能である。   Then, the display control unit 404 generates highlighted display data according to the comparison result between the reference data and the comparison data. The projector 18 performs display so as to emphasize the face image of the user whose reference data and comparison data match. Thereby, as shown in FIG. 7, the face of the user 21a is highlighted. For example, in FIG. 7, the graphic 31 for emphasis is superimposed on the face of the user 21a and displayed. The display control unit 404 generates display data by superimposing the graphic 31 on the moving image being reproduced. Then, the projector 18 displays a highlighted display image in which the graphic 31 is superimposed on the original display image. Note that graphics such as frames, balloons, characters, symbols, and the like can be used for the reproduced image 30 as data to be superimposed for strong table display. Alternatively, it can be highlighted by the display color.

このように、プロジェクタ18は、再生画像30を視認中のユーザ21aのみを強調して表示する。ユーザ21aは、再生画像30に含まれていることが容易に認識される。現在、再生画像30を見ている観察者に対して、図形31を付加して表示する。こうすることにより、観察者に対して、より臨場感のある再生画像30を表示させることができる。よって、エンターテイメント性を高くすることができる。   Thus, the projector 18 highlights and displays only the user 21a who is viewing the reproduced image 30. It is easily recognized that the user 21a is included in the reproduced image 30. A graphic 31 is added and displayed to an observer who is currently viewing the reproduced image 30. By doing so, it is possible to display the reproduced image 30 with a more realistic feeling to the observer. Therefore, entertainment property can be enhanced.

次に、図8を用いて、強調表示を行う制御方法について説明する。図8は、強調表示の制御方法を示すフローチャートである。   Next, a control method for performing highlight display will be described with reference to FIG. FIG. 8 is a flowchart illustrating a highlighting control method.

まず、ユーザが予め取得された動画ファイルを選択すると、プロジェクタ18による再生を開始する。すると、部屋が明るいか否かを判定する(ステップS101)。例えば、照度センサ209で検出した照度に基づいて、明るいか暗いかを判定することができる。部屋が明るい場合(ステップS101のYES)、ステップS106に移行する。   First, when the user selects a moving image file acquired in advance, reproduction by the projector 18 is started. Then, it is determined whether or not the room is bright (step S101). For example, based on the illuminance detected by the illuminance sensor 209, it can be determined whether it is bright or dark. If the room is bright (YES in step S101), the process proceeds to step S106.

部屋が暗い場合(ステップS101のNO)、中央制御部400がライト16をONする(ステップS102)。部屋が暗い場合、撮像中の撮像画像での顔認識の精度が低下する。よって、ライト16をONして、第2撮像部15が撮像する領域を照明する。これにより、投影画像を視認するユーザが照明され、顔認識を精度よく行うことができる。   When the room is dark (NO in step S101), the central control unit 400 turns on the light 16 (step S102). When the room is dark, the accuracy of face recognition in the captured image being captured decreases. Therefore, the light 16 is turned on to illuminate the area imaged by the second imaging unit 15. Thereby, the user who visually recognizes the projected image is illuminated, and face recognition can be performed with high accuracy.

ライト16をONしたら、顔を事前登録するか否かを判定する(ステップS103)。例えば、液晶モニタ304又はプロジェクタ18の表示によって、顔を事前登録するか否かをユーザに問い合わせる。ユーザが操作部306を操作して、顔を事前登録するか否かを決定する。   If the light 16 is turned on, it is determined whether or not to pre-register a face (step S103). For example, the user is inquired whether or not to pre-register a face by displaying on the liquid crystal monitor 304 or the projector 18. The user operates the operation unit 306 to determine whether or not to pre-register a face.

操作部306が顔を事前登録するとの入力を受け付けた場合、事前顔登録の処理を行う(ステップS104)。すなわち、ライト16がONした状態で、第2撮像部15が観察者となるユーザの顔を撮像する。ここでは、第2撮像部15が静止画を撮像するようにしてもよい。さらには、再生画像を視認する複数のユーザを登録してもよい。そして、顔認識部401が、撮像した静止画に対して顔認識を行う。これにより、観察者であるユーザの顔認識データが取得される。もちろん、複数のユーザを事前登録する場合、それぞれの顔認識データが取得される。複数のユーザを事前登録する場合、1枚の静止画で事前登録してもよい、ユーザ毎に顔の静止画を撮像してもよい。なお、事前顔登録を行うための画像は、動画であってもよい。さらには、第1撮像部14で事前顔登録用の画像を撮像してもよい。   When the operation unit 306 receives an input indicating that a face is pre-registered, a pre-face registration process is performed (step S104). That is, in the state where the light 16 is turned on, the second imaging unit 15 images the face of the user who is an observer. Here, the second imaging unit 15 may capture a still image. Furthermore, you may register the some user who visually recognizes a reproduced image. Then, the face recognition unit 401 performs face recognition on the captured still image. Thereby, face recognition data of the user who is an observer is acquired. Of course, when a plurality of users are registered in advance, each face recognition data is acquired. When a plurality of users are pre-registered, a single still image may be pre-registered, or a face still image may be captured for each user. Note that the image for performing preliminary face registration may be a moving image. Further, the first imaging unit 14 may capture an image for pre-face registration.

ユーザの事前顔登録が終了したら、ライト16をオフする(ステップS105)。そし、ステップS106に移行する。一方、操作部306が顔を事前登録しないとの入力を受け付けた場合(ステップS103のNO)、ライト16をONとしたまま、ステップS106に移行する。   When the user's preliminary face registration is completed, the light 16 is turned off (step S105). Then, the process proceeds to step S106. On the other hand, when the operation unit 306 receives an input indicating that the face is not pre-registered (NO in step S103), the process proceeds to step S106 while the light 16 remains on.

ステップS106では、プロジェクタ18が動画再生を開始すると同時に、第2撮像部15で撮像した撮像画像に対して、顔認識処理を開始する。これにより、第2撮像部15の撮像画像に対して、リアルタイムに顔認識データが取得されていく。なお、ステップS104で事前に顔登録を行った場合は、リアルタイムの顔認識処理を省略することができる。   In step S <b> 106, simultaneously with the start of moving image reproduction by the projector 18, face recognition processing is started on the captured image captured by the second imaging unit 15. Thereby, face recognition data is acquired in real time for the captured image of the second imaging unit 15. If face registration is performed in advance in step S104, real-time face recognition processing can be omitted.

事前に顔登録を行っていない場合、顔認識部401が撮像画像に対して、随時顔認識を行う。この場合、部屋が明るい状態で撮像された動画に対して顔認識が行われる。あるいは、ライト16がONしている状態で撮像された動画に対して顔認識が行われる。よって、いずれの場合にも、明るい環境で第2撮像部15が撮像した撮像画像について、顔認識が行われる。これにより、顔認識の精度を向上することができる。   When face registration is not performed in advance, the face recognition unit 401 performs face recognition on the captured image as needed. In this case, face recognition is performed on a moving image captured in a bright room. Alternatively, face recognition is performed on a moving image captured with the light 16 turned on. Therefore, in any case, face recognition is performed on the captured image captured by the second imaging unit 15 in a bright environment. Thereby, the accuracy of face recognition can be improved.

次に、顔認識データの比較が行われる(ステップS107)。すなわち、表示制御部404が、顔認識部401で顔認識された比較データと、参照データとを比較する。ここで、ステップS104において、事前に顔登録を行った場合、ステップS104で取得した顔認識データが利用される。すなわち、ステップS104で取得した顔認識データ(比較データ)と、参照データが比較される。換言すると、再生画像30を表示中にリアルタイムで取得した動画に対しては、顔認識が行われない。   Next, face recognition data is compared (step S107). That is, the display control unit 404 compares the comparison data recognized by the face recognition unit 401 with the reference data. Here, when face registration is performed in advance in step S104, the face recognition data acquired in step S104 is used. That is, the face recognition data (comparison data) acquired in step S104 is compared with the reference data. In other words, face recognition is not performed on a moving image acquired in real time while the reproduced image 30 is displayed.

顔事前登録を行っていない場合、再生画像30の再生中に第2撮像部15がリアルタイムで撮像している撮像画像の顔認識データが用いられる。すなわち、表示制御部404が、リアルタイムに取得した比較データを参照データと比較する。これにより、リアルタイムのユーザ21の観察状況に応じて、比較処理を行うことができる。   When face pre-registration is not performed, face recognition data of a captured image captured by the second imaging unit 15 in real time during reproduction of the reproduced image 30 is used. That is, the display control unit 404 compares the comparison data acquired in real time with the reference data. Thereby, a comparison process can be performed according to the observation situation of the user 21 in real time.

そして、顔認識データが一致するか否かを判定する(ステップS108)。すなわち、参照データが、第2撮像部15で取得したユーザ(観察者)の顔の比較データと一致するか否かを判定する。顔認識データが一致する場合(ステップS108のYES)、一致した顔認識データに対応する顔画像を強調表示する(ステップS109)。例えば、図7に示したように、ユーザ21aの顔画像に図形31などを重畳して、表示する。これにより、再生画像30において、再生画像30を視認中のユーザ21の顔が強調表示される。もちろん、二人以上の顔認識データが一致した場合、それぞれについて強調表示する。そして、ステップS110に移行する。   Then, it is determined whether or not the face recognition data match (step S108). That is, it is determined whether or not the reference data matches the user (observer) face comparison data acquired by the second imaging unit 15. If the face recognition data match (YES in step S108), the face image corresponding to the matching face recognition data is highlighted (step S109). For example, as shown in FIG. 7, a graphic 31 or the like is superimposed on the face image of the user 21a and displayed. Thereby, in the reproduced image 30, the face of the user 21 who is viewing the reproduced image 30 is highlighted. Of course, when two or more face recognition data match, each is highlighted. Then, the process proceeds to step S110.

顔認識データが一致しない場合(ステップS108のNO)、ステップS109をスキップして、ステップS110に移行する。すなわち、どのユーザに対しても強調表示を行わずに、ステップS110に移行する。   If the face recognition data do not match (NO in step S108), step S109 is skipped and the process proceeds to step S110. That is, without highlighting any user, the process proceeds to step S110.

そして、動画再生が終了したか否かを判定する(ステップS110)。すなわち、ユーザが動画再生の停止ボタンを押したか、あるいは、動画が最終フレームまで再生されたかを判定する。そして、動画再生が終了した場合(ステップS110のYES)、処理を終了する。また、動画再生が終了していない場合、(ステップS110のNO)、ステップS107に戻って、処理を繰り返す。すなわち、動画再生が終了するまで、参照データと比較データとを比較して、比較結果に基づいて、強調表示を行う。これにより、フレーム毎に強調表示が行われる。   Then, it is determined whether or not the moving image reproduction has ended (step S110). That is, it is determined whether the user has pressed the stop button for moving image reproduction or whether the moving image has been reproduced to the last frame. Then, when the moving image reproduction is finished (YES in step S110), the process is finished. On the other hand, if the moving image reproduction has not ended (NO in step S110), the process returns to step S107 and the process is repeated. That is, the reference data is compared with the comparison data until the moving image reproduction is completed, and highlighting is performed based on the comparison result. Thereby, highlighting is performed for each frame.

このように、第2撮像部15の撮像画像に基づいて、再生画像に対して強調表示を行っている。すなわち、顔認識部401は、第2撮像部15の撮像画像に対して、顔認識を行う。そして、顔認識部401は、撮像画像に基づく比較データと、再生画像に基づく参照データとを比較する。そして、比較データと参照データとに一致する顔画像がある場合、表示制御部404は、一致する顔画像に対して強調表示を行う。これにより、より臨場感のある動画再生が可能になる。   As described above, the reproduced image is highlighted based on the captured image of the second imaging unit 15. That is, the face recognition unit 401 performs face recognition on the captured image of the second imaging unit 15. Then, the face recognition unit 401 compares the comparison data based on the captured image with the reference data based on the reproduced image. When there is a matching face image in the comparison data and the reference data, the display control unit 404 performs highlighting on the matching face image. This makes it possible to reproduce a moving image with a more realistic feeling.

また、上記の実施の形態では、制御データとなる顔認識データを動画の取得時に生成している。そして、再生画像30、すなわち、動画ファイルに、顔認識データを対応付けて記憶している。このように、予め顔認識データ(参照データ)を用意しておくことで、処理を簡素化することができる。よって、迅速に処理を行うことができ、速やかに顔を強調して表示することができる。もちろん、実際に表示を行う際に、顔認識データを生成してもよい。すなわち、動画ファイルの再生中に、顔認識部401がその参照データを生成するようにしてもよい。   In the above embodiment, the face recognition data serving as the control data is generated when the moving image is acquired. Then, the face recognition data is stored in association with the reproduced image 30, that is, the moving image file. Thus, by preparing face recognition data (reference data) in advance, the processing can be simplified. Therefore, it is possible to perform processing quickly, and it is possible to promptly emphasize and display the face. Of course, face recognition data may be generated when the display is actually performed. That is, the face recognition unit 401 may generate the reference data during reproduction of the moving image file.

さらに、再生環境が暗い場合、ライトをONした状態の撮像画像に対して顔認識を行っている。これにより、顔認識の精度を向上することができる。特に、プロジェクタ18が使用される室内は、室内灯をOFFすることが多い。この場合でも、顔認識の精度を向上することができる。また、事前登録するときのみ、ライト16をONすることで、消費電力を提言することができる。さらに、部屋を暗くすることができるため、視認性を向上することができる。   Further, when the reproduction environment is dark, face recognition is performed on the captured image with the light turned on. Thereby, the accuracy of face recognition can be improved. In particular, indoor lighting is often turned off in a room where the projector 18 is used. Even in this case, the accuracy of face recognition can be improved. Moreover, power consumption can be proposed by turning on the light 16 only when pre-registering. Furthermore, since the room can be darkened, visibility can be improved.

さらに、事前に顔登録を行った顔認識データを用いることで、顔情報が一致するか否かを適切に判定することができる。すなわち、再生中の部屋が暗い場合でも、適切に処理することができる。   Furthermore, it is possible to appropriately determine whether or not face information matches by using face recognition data that has been registered in advance. That is, even when the room being reproduced is dark, it can be appropriately processed.

また、動画再生中に、第2撮像部15が撮像した動画をリアルタイムに顔認識することで、適切に顔が一致するか否かを判定することができる。例えば、再生途中に観察者となるユーザが増減した場合でも、適切に強調表示を行うことができる。よって、より臨終感のある動画表示が可能になる。   In addition, during moving image reproduction, it is possible to determine whether or not the faces appropriately match by performing face recognition in real time on the moving image captured by the second imaging unit 15. For example, even when the number of users serving as observers increases or decreases during reproduction, it is possible to appropriately perform highlighting. Therefore, it is possible to display a moving image with a more lasting feeling.

(第1の角度制御方法)
次に、制御データに含まれる角度データを用いた第1の角度制御方法について、図9〜図12を用いて説明する。図9〜図12は、第1の角度制御方法の動作を説明するための図である。図9、及び図10は、動画を撮像中の動作を示す模式図であり、図11、及び図12は、動画を再生中の動作を示す模式図である。なお、図9〜図12では、撮像装置1の一部の構成を省略している。第1の角度調整方法では、第1駆動機構13がモニタ部12の角度を変化させている。
(First angle control method)
Next, a first angle control method using angle data included in the control data will be described with reference to FIGS. 9 to 12 are diagrams for explaining the operation of the first angle control method. 9 and 10 are schematic diagrams illustrating an operation during capturing a moving image, and FIGS. 11 and 12 are schematic diagrams illustrating an operation during playback of the moving image. 9 to 12, a part of the configuration of the imaging device 1 is omitted. In the first angle adjustment method, the first drive mechanism 13 changes the angle of the monitor unit 12.

まず、第1撮像部14で動画を撮像中の動作について説明する。ここでは、動画を撮像中に、本体部11の角度を変えた場合について説明する。図9、図10は、ユーザ21a、21bを撮像中の撮像装置1と、モニタ部12に表示されている表示画像40を示す図である。図9と図10とでは、本体部11の角度が異なっている。   First, the operation during imaging of a moving image by the first imaging unit 14 will be described. Here, a case where the angle of the main body 11 is changed during moving image capturing will be described. FIGS. 9 and 10 are diagrams illustrating the imaging device 1 that is capturing images of the users 21 a and 21 b and the display image 40 displayed on the monitor unit 12. 9 and 10 differ in the angle of the main body 11.

図9では、第1撮像部11の光軸LAが水平になっている。すなわち、水平方向Hと光軸LAが平行になっている。このとき、ユーザ21a、21bの顔が第1撮像部11の画角の中央付近にある。したがって、モニタ部12の液晶モニタ上の表示画像40において、ユーザ21a、21bの顔が中央付近にある。   In FIG. 9, the optical axis LA of the first imaging unit 11 is horizontal. That is, the horizontal direction H and the optical axis LA are parallel. At this time, the faces of the users 21 a and 21 b are near the center of the angle of view of the first imaging unit 11. Therefore, in the display image 40 on the liquid crystal monitor of the monitor unit 12, the faces of the users 21a and 21b are near the center.

図10は、本体部11を上方に傾けた状態を示している。すなわち、第1撮像部11の光軸LAが斜めになっている。水平方向Hと光軸LAが平行にならない。水平方向Hと光軸LAの成す角度がαとなっている。第1撮像部11が斜め上方を撮像する。ここで、ユーザ21a、21bの位置はほとんど変わっていない。したがって、ユーザ21a、21bの顔が、第1撮像部11の画角の下側に移動する。よって、表示画像40においても、ユーザ21a、21bの顔が下側にある。   FIG. 10 shows a state in which the main body 11 is tilted upward. That is, the optical axis LA of the first imaging unit 11 is inclined. The horizontal direction H and the optical axis LA are not parallel. The angle formed by the horizontal direction H and the optical axis LA is α. The 1st imaging part 11 images diagonally upward. Here, the positions of the users 21a and 21b have hardly changed. Accordingly, the faces of the users 21 a and 21 b move to the lower side of the angle of view of the first imaging unit 11. Therefore, also in the display image 40, the faces of the users 21a and 21b are on the lower side.

第1撮像部14の撮像中に、ユーザが本体部11の角度を変えたとする。例えば、図9に示す状態から、ユーザ(撮影者)が本体部11を角度αだけ上方に向けて、図10に示す状態にしたとする。ここで、ジャイロセンサ208は、本体部11の角速度を検出している。角速度に基づいて、角度データ取得部402が、本体部11の角度を取得する。よって、角度データ取得部402は、本体部11の角度αを取得することができる。なお、角度αは、X軸周りの回転角度である。   Assume that the user changes the angle of the main body 11 while the first imaging unit 14 is imaging. For example, it is assumed that the user (photographer) changes the state shown in FIG. 10 by turning the main body 11 upward by an angle α from the state shown in FIG. Here, the gyro sensor 208 detects the angular velocity of the main body 11. Based on the angular velocity, the angle data acquisition unit 402 acquires the angle of the main body unit 11. Therefore, the angle data acquisition unit 402 can acquire the angle α of the main body unit 11. Note that the angle α is a rotation angle around the X axis.

ここで、動画ファイルにおいて、図9のように光軸LAが水平となったタイミングでの経過時間をT1とし、そのフレームをF1とする。動画ファイルにおいて、図10のように光軸LAが角度αだけ傾斜したタイミングでの経過時間をT2とし、そのフレームをF2とする。   Here, in the moving image file, the elapsed time at the timing when the optical axis LA becomes horizontal as shown in FIG. 9 is T1, and the frame is F1. In the moving image file, the elapsed time at the timing when the optical axis LA is inclined by the angle α as shown in FIG. 10 is T2, and the frame is F2.

角度データ取得部402が取得した回転角度φの変化が制御データとして記憶される。制御データは、フレーム毎又は経過時間毎の角度データを有している。したがって、経過時間T1又はフレームF1がφ=0と対応付けて記憶される。また、経過時間T2又はフレームF2がφ=αと対応付けて記憶される。なお、ここでは、水平方向Hと光軸LAが平行な場合のφを0としたが、φ=0となる基準方向は、水平方向Hに限られるものではない。角度データ取得部402は、時系列の角度データを、撮像された撮像画像の動画ファイルに対応付けて、メモリ等に格納する。   Changes in the rotation angle φ acquired by the angle data acquisition unit 402 are stored as control data. The control data includes angle data for each frame or each elapsed time. Therefore, the elapsed time T1 or the frame F1 is stored in association with φ = 0. Further, the elapsed time T2 or the frame F2 is stored in association with φ = α. Here, φ in the case where the horizontal direction H and the optical axis LA are parallel is set to 0, but the reference direction where φ = 0 is not limited to the horizontal direction H. The angle data acquisition unit 402 stores the time-series angle data in a memory or the like in association with the moving image file of the captured image.

角度データと対応付けられた動画ファイルを再生する場合、角度データに応じて、第1駆動機構13がモニタ部12の角度を制御する。これにより、プロジェクタ18の投影方向が変化する。例えば、再生中に経過時間T1(フレームF1)を表示するタイミングでは、図11に示すようにプロジェクタ18の投影方向を水平にして、プロジェクタ18が再生画像30を投影する。すなわち、プロジェクタ18の投影レンズの光軸LCが水平方向Hと平行になっている。   When reproducing the moving image file associated with the angle data, the first drive mechanism 13 controls the angle of the monitor unit 12 according to the angle data. Thereby, the projection direction of the projector 18 changes. For example, at the timing of displaying the elapsed time T1 (frame F1) during reproduction, the projector 18 projects the reproduced image 30 with the projection direction of the projector 18 being horizontal as shown in FIG. That is, the optical axis LC of the projection lens of the projector 18 is parallel to the horizontal direction H.

次に、再生中に経過時間T2(フレームF2)を表示するタイミングでは、図12に示すように、プロジェクタ18の光軸LCを水平方向から角度αだけ傾けて、再生画像30を投影する。すなわち、プロジェクタ18の投影方向を制御データに含まれる角度データに応じて、制御する。ここでは、X軸周りの角度データφF2に基づいて、第1駆動機構13がモニタ部12の角度を制御している。そして、第1駆動機構13は、図2で説明したようにX軸周りにモニタ部12を回転している。これにより、再生画像30の高さを変えることができる。図10では、本体部11を上に向けて撮像したため、図12に示すように、再生画像30の位置が高くなっている。 Next, at the timing of displaying the elapsed time T2 (frame F2) during reproduction, as shown in FIG. 12, the reproduced image 30 is projected with the optical axis LC of the projector 18 inclined by an angle α from the horizontal direction. That is, the projection direction of the projector 18 is controlled according to the angle data included in the control data. Here, based on the angle data phi F2 around the X-axis, the first drive mechanism 13 is controlling the angle of the monitor 12. The first drive mechanism 13 rotates the monitor unit 12 around the X axis as described in FIG. Thereby, the height of the reproduced image 30 can be changed. In FIG. 10, since the image is taken with the main body 11 facing upward, the position of the reproduced image 30 is high as shown in FIG.

このように、撮像時に取得された角度データに基づいて、第1駆動機構13がモニタ部12を回転する。これにより、撮像時の角度データに応じて、投影方向が変わるため、より臨場感を高くすることができる。なお、図11、図12では、第1撮像部14の光軸は、水平方向Hと平行になっている。   As described above, the first drive mechanism 13 rotates the monitor unit 12 based on the angle data acquired at the time of imaging. Thereby, since a projection direction changes according to the angle data at the time of imaging, a sense of reality can be made higher. In FIGS. 11 and 12, the optical axis of the first imaging unit 14 is parallel to the horizontal direction H.

なお、上記の説明では、撮像時の角度データと、投影方向の傾斜角度を同じ値としたが、異なる値としてもよい。すなわち、撮像時における本体部11の角度と、再生時におけるモニタ部12の角度は一致していなくてもよい。例えば、角度データの変化よりも大きい角度、あるいは小さい角度だけ、モニタ部12の角度を変えるようにしてもよい。さらには、基準方向となる方向は水平方向Hと平行でなくてもよく、本体部11の設置角度に応じて設定すればよい。例えば、本体部11が水平方向から傾斜して設置されている場合、その傾斜角度がφ=0となるようにしてもよい。また、角度データの基準となる回転軸を、投影方向を傾斜させる回転軸と一致させることが好ましい。例えば、X軸周りに角度データφに基づいて、モニタ部12又はプロジェクタ18をX軸周りに回転させることが好ましい。   In the above description, the angle data at the time of imaging and the tilt angle in the projection direction are set to the same value, but may be set to different values. That is, the angle of the main body 11 at the time of imaging and the angle of the monitor unit 12 at the time of reproduction may not match. For example, the angle of the monitor unit 12 may be changed by an angle larger or smaller than the change of the angle data. Furthermore, the direction serving as the reference direction may not be parallel to the horizontal direction H, and may be set according to the installation angle of the main body 11. For example, when the main body 11 is installed inclined from the horizontal direction, the inclination angle may be φ = 0. In addition, it is preferable that the rotation axis serving as the reference for the angle data coincides with the rotation axis that tilts the projection direction. For example, it is preferable to rotate the monitor unit 12 or the projector 18 around the X axis based on the angle data φ around the X axis.

このようにすることで、撮像時の撮像方向の動きに合わせて、投影面P上において、再生画像30の投影位置を移動させることができる。これにより、広い空間を有効に利用することができ、臨場感の高い表示を行うことができる。   In this way, the projection position of the reproduced image 30 can be moved on the projection plane P in accordance with the movement in the imaging direction at the time of imaging. Thereby, a wide space can be used effectively and a display with a high sense of reality can be performed.

次に、第1の角度調整方法における処理について、図13、及び図14を用いて説明する。図13、及び図14は、第1の角度調整方法を説明するためのフローチャートである。図13は、撮像時(記録時)の処理を示し、図14は、再生時の処理を示している。   Next, processing in the first angle adjustment method will be described with reference to FIGS. 13 and 14. 13 and 14 are flowcharts for explaining the first angle adjustment method. FIG. 13 shows processing during imaging (recording), and FIG. 14 shows processing during reproduction.

まず、図13を参照して、記録時の処理について説明する。ユーザが録画開始ボタンを押すなどして、第1撮像部14の記録を開始する。すると、角度データ取得部402がジャイロセンサ208からデータ取得を試みる(ステップS201)。そして、角度データ取得部402が、データが取得可能であるか否かを判定する(ステップS202)。ジャイロセンサ208からデータが取得できない場合(ステップS202のNO)、ステップS201に戻り、再度データ取得を試みる。   First, the processing during recording will be described with reference to FIG. Recording of the first imaging unit 14 is started by the user pressing a recording start button or the like. Then, the angle data acquisition unit 402 tries to acquire data from the gyro sensor 208 (step S201). Then, the angle data acquisition unit 402 determines whether data can be acquired (step S202). When data cannot be acquired from the gyro sensor 208 (NO in step S202), the process returns to step S201 and tries to acquire data again.

角度データ取得部402がジャイロセンサ208からデータが取得できた場合(ステップS202のYES)、経過時間と角度データを保存する(ステップS203)。具体的には、ジャイロセンサ208が検出した角速度データから、角度データ取得部402は、本体部11の角度を算出する。そして、制御データ生成部403は、角度データを経過時間(フレーム番号)に対応付けて、保存する。   When the angle data acquisition unit 402 can acquire data from the gyro sensor 208 (YES in step S202), the elapsed time and angle data are stored (step S203). Specifically, the angle data acquisition unit 402 calculates the angle of the main body 11 from the angular velocity data detected by the gyro sensor 208. Then, the control data generation unit 403 stores the angle data in association with the elapsed time (frame number).

そして、経過時間と角度データとを保存したら、第1撮像部14の記録が停止しているか否かを判定する(ステップS204)。記録が停止した場合(ステップS204のYES)、処理を終了する。すなわち、ユーザが録画停止ボタンを押すなどして、記録を停止したら、記録処理が終了する。   Then, after saving the elapsed time and the angle data, it is determined whether or not the recording of the first imaging unit 14 is stopped (step S204). If the recording is stopped (YES in step S204), the process is terminated. That is, when the user stops recording by pressing the recording stop button or the like, the recording process ends.

記録が停止していない場合(ステップS204のNO)、ステップS201に戻って、処理を繰り返す。すなわち、ジャイロセンサ208からデータを取得して、角度データを保存する。この処理を記録停止まで繰り返すことで、記録開始から記録停止までの角度データが保存される。角度データは、経過時間、すなわちフレームに対応付けられている。よって、各フレームでの角度データが保存される。このように、制御データ生成部403は、時系列に沿った角度データを制御データとして生成する。例えば、制御データ生成部403は、角度データと経過時間が対応付けられたメタファイルを生成する。メタファイルは、動画ファイルとともにメインメモリ206又はカード型記録媒体302等に記録される。   If the recording is not stopped (NO in step S204), the process returns to step S201 and the process is repeated. That is, data is acquired from the gyro sensor 208 and angle data is stored. By repeating this process until the recording is stopped, the angle data from the recording start to the recording stop is stored. The angle data is associated with the elapsed time, that is, the frame. Therefore, angle data in each frame is stored. In this manner, the control data generation unit 403 generates angle data along the time series as control data. For example, the control data generation unit 403 generates a metafile in which the angle data is associated with the elapsed time. The metafile is recorded in the main memory 206 or the card type recording medium 302 together with the moving image file.

次に、図14を参照して、再生時の処理について説明する。まず、ユーザが上記のように取得した動画ファイルを指定して再生ボタンを押す。すると、すると、圧縮/伸長処理部201が動画ファイルをデコードして、動画再生が開始する(ステップS301)。これにより、モニタ部12の液晶モニタ304が動画ファイルの表示を開始する。次に、プロジェクタ18の出力がONとなっているか判定する(ステップS302)。例えば、液晶モニタ304とプロジェクタ18の同時表示が行われているか否かを判定する。   Next, processing during reproduction will be described with reference to FIG. First, the user designates the moving image file acquired as described above and presses the play button. Then, the compression / decompression processing unit 201 decodes the moving image file and starts moving image reproduction (step S301). Thereby, the liquid crystal monitor 304 of the monitor unit 12 starts displaying the moving image file. Next, it is determined whether the output of the projector 18 is ON (step S302). For example, it is determined whether simultaneous display of the liquid crystal monitor 304 and the projector 18 is performed.

プロジェクタ18の出力がONとなっていない場合(ステップS302のNO)、液晶モニタ304が通常再生を行う(ステップS303)。すなわち、プロジェクタ18の出力がOFFの場合、液晶モニタ304のみで動画ファイルを再生する。通常再生では、第1駆動機構13が角度を変更しない。   When the output of the projector 18 is not ON (NO in step S302), the liquid crystal monitor 304 performs normal reproduction (step S303). That is, when the output of the projector 18 is OFF, the moving image file is reproduced only by the liquid crystal monitor 304. In normal reproduction, the first drive mechanism 13 does not change the angle.

通常再生が行われたら、再生が停止したか否かを判定する(ステップS304)。そして、再生が停止していない場合(ステップS304のNO)、ステップS303に戻って、通常再生を継続する。再生が停止した場合(ステップS304のYES)、液晶モニタ304が再生を終了する。ユーザが再生停止ボタンなどを押す、あるいは動画ファイルの最終フレームまで再生すると、再生が停止する。このように、プロジェクタ18がOFFの場合、再生が停止するまで、通常再生を継続する。すなわち、プロジェクタ18が表示を行っていない場合は、液晶モニタ304の角度を固定して、通常の再生を行う。   When the normal reproduction is performed, it is determined whether or not the reproduction is stopped (step S304). If reproduction has not stopped (NO in step S304), the process returns to step S303 to continue normal reproduction. When the reproduction is stopped (YES in step S304), the liquid crystal monitor 304 ends the reproduction. When the user presses the playback stop button or the like or plays back to the last frame of the moving image file, playback stops. As described above, when the projector 18 is OFF, the normal reproduction is continued until the reproduction is stopped. That is, when the projector 18 is not displaying, normal playback is performed with the angle of the liquid crystal monitor 304 fixed.

一方、プロジェクタ18の出力がONとなっている場合(ステップS302のYES)、プロジェクタ18から映像出力を行う(ステップS305)。これにより、投影面Pに再生画像が投影される。なお、プロジェクタ18のON/OFFはユーザが設定することができる。そして、現再生時間(経過時間)における角度データがあるか否かを判定する(ステップS306)。例えば、回転角度設定部405が制御データに含まれる角度データを参照する。   On the other hand, when the output of the projector 18 is ON (YES in step S302), video output is performed from the projector 18 (step S305). As a result, the reproduced image is projected onto the projection plane P. Note that the user can set ON / OFF of the projector 18. Then, it is determined whether or not there is angle data for the current reproduction time (elapsed time) (step S306). For example, the rotation angle setting unit 405 refers to angle data included in the control data.

現再生時間における角度データがある場合(ステップS306のYES)、現再生時間に対応した角度データを取得する(ステップS307)。すなわち、回転角度設定部405が経過時間に対応する角度データを取得する。そして、この角度データに基づいて、第1駆動機構13がモニタ部12の角度を変更する(ステップS308)。すなわち、回転角度設定部405は、経過時間の角度データに基づいて、第1駆動機構13の回転角度を算出する。そして、駆動制御部406が回転角度に応じた指令値を算出して、第1駆動機構13に出力する。これにより、第1駆動機構13が、モニタ部12の角度を変化させる。モニタ部12の背面側に取り付けられたプロジェクタ18の向きも変化する。これにより、プロジェクタ18の投影方向が変化して、投影位置が変わる。そして、モニタ部12の角度を変更したら、ステップS309に移行する。   If there is angle data for the current playback time (YES in step S306), angle data corresponding to the current playback time is acquired (step S307). That is, the rotation angle setting unit 405 acquires angle data corresponding to the elapsed time. Then, based on this angle data, the first drive mechanism 13 changes the angle of the monitor unit 12 (step S308). That is, the rotation angle setting unit 405 calculates the rotation angle of the first drive mechanism 13 based on the elapsed time angle data. Then, the drive control unit 406 calculates a command value corresponding to the rotation angle and outputs the command value to the first drive mechanism 13. Thereby, the first drive mechanism 13 changes the angle of the monitor unit 12. The orientation of the projector 18 attached to the back side of the monitor unit 12 also changes. Thereby, the projection direction of the projector 18 changes and the projection position changes. And if the angle of the monitor part 12 is changed, it will transfer to step S309.

現再生時間における角度データが無い場合(ステップS306のNO)、ステップS307、S308をスキップして、ステップS309に移行する。すなわち、モニタ部12の角度を変更せずに、ステップS309に移行する。   If there is no angle data for the current playback time (NO in step S306), steps S307 and S308 are skipped and the process proceeds to step S309. That is, the process proceeds to step S309 without changing the angle of the monitor unit 12.

そして、モニタ部12の角度制御が終わったら、再生停止か否かを判定する(ステップS309)。ユーザが再生ボタンを押すなどして、再生を停止した場合(ステップS309のYES)、再生処理を終了する。再生が停止していない場合(ステップS309のNO)、ステップS307に戻り、処理を繰り返す。これにより、時系列の角度データに応じて、モニタ部12の角度が変化する。すなわち、再生時間(経過時間)に応じて、モニタ部12の角度が変化する。   When the angle control of the monitor unit 12 is finished, it is determined whether or not the reproduction is stopped (step S309). When the user stops the reproduction by pressing the reproduction button or the like (YES in step S309), the reproduction process is terminated. When the reproduction is not stopped (NO in step S309), the process returns to step S307 and the process is repeated. As a result, the angle of the monitor unit 12 changes according to the time-series angle data. That is, the angle of the monitor unit 12 changes according to the reproduction time (elapsed time).

本体部11の傾斜角度に応じて、第1駆動機構13がプロジェクタ18の傾斜角度を変えている。こうすることで、投影面Pにおける再生画像30の投影位置が変化する。よって、より臨場感のある画像を表示することができる。すなわち、撮像時における撮像装置1の角度が反映されて、再生画像30が表示される。このため、観察者(ユーザ)が撮像時の臨場感を体感することができる。さらに、経過時間に応じてモニタ部12の角度が変更される。すなわち、フレームに応じて、第1駆動機構13が角度を調整する。よって、空間を十分に使用して再生することができ、より臨場感のある画像を表示することができる。なお、投影位置を変えた場合、台形補正等の画像設定を自動で行うようにしてもよい。   The first drive mechanism 13 changes the tilt angle of the projector 18 according to the tilt angle of the main body 11. By doing so, the projection position of the reproduced image 30 on the projection plane P changes. Therefore, it is possible to display a more realistic image. That is, the reproduced image 30 is displayed reflecting the angle of the imaging device 1 at the time of imaging. For this reason, an observer (user) can experience a sense of reality at the time of imaging. Furthermore, the angle of the monitor unit 12 is changed according to the elapsed time. That is, the first drive mechanism 13 adjusts the angle according to the frame. Therefore, the space can be fully used for reproduction, and a more realistic image can be displayed. When the projection position is changed, image settings such as keystone correction may be automatically performed.

(第2の角度制御方法)
次に、第2駆動機構19を用いた第2の角度制御方法について、説明する。ここでは、制御データに含まれる角度データに応じて、第2駆動機構19がプロジェクタ18を回転させる。図15は第2駆動機構19により角度制御前の状態を模式的に示す図であり、図16は、角度制御後の状態を模式的に示す状態を示す図である。なお、図15、図16において、投影面P内における鉛直方向(縦方向)をY方向とし、横方向をX方向としている。さらに、再生画像30の縦方向をY’とし、横方向をX’として示している。再生画像30内における水平方向をH’としている。
(Second angle control method)
Next, a second angle control method using the second drive mechanism 19 will be described. Here, the second drive mechanism 19 rotates the projector 18 in accordance with the angle data included in the control data. FIG. 15 is a diagram schematically showing a state before the angle control by the second drive mechanism 19, and FIG. 16 is a diagram schematically showing a state after the angle control. 15 and 16, the vertical direction (longitudinal direction) in the projection plane P is the Y direction, and the horizontal direction is the X direction. Further, the vertical direction of the reproduced image 30 is indicated as Y ′, and the horizontal direction is indicated as X ′. The horizontal direction in the reproduced image 30 is H ′.

ここでは、撮像中に、本体部11が光軸LA周りに回転した場合の制御を説明する。本体部11が光軸LA周りに回転した場合、図15に示すように、再生画像30中に含まれるユーザ21a、21bが傾いて表示される。すなわち、鉛直方向に沿って立った状態のユーザ21a、21bを撮像する際に、本体部11が回転した状態で撮像されると、再生画像30中のユーザ21a、21bが再生画像30の縦方向Y’から傾いてしまう。このように、撮影者の操作ミスなどで本体部11が意図せずに回転した場合、再生画像30の水平が保たれなくなってしまう。再生画像30中の水平方向H’が実空間での水平方向Hから傾いてしまう。この場合、観察者が再生画像30を見づらくなってしまう。   Here, control when the main body 11 rotates around the optical axis LA during imaging will be described. When the main body 11 rotates around the optical axis LA, as shown in FIG. 15, the users 21a and 21b included in the reproduced image 30 are displayed tilted. That is, when the user 21a and 21b standing in the vertical direction is imaged, the user 21a and 21b in the reproduced image 30 is captured in the vertical direction of the reproduced image 30 when the main body 11 is rotated. It will tilt from Y '. As described above, when the main body 11 rotates unintentionally due to an operation mistake of the photographer, the level of the reproduced image 30 cannot be maintained. The horizontal direction H ′ in the reproduced image 30 is inclined from the horizontal direction H in the real space. In this case, it becomes difficult for the observer to see the reproduced image 30.

そこで、本実施の形態では、制御データに基づいて、第2駆動機構19がプロジェクタ18を回転させている。例えば、制御データに含まれるZ軸周りの角度データΨに基づいて、第2駆動機構19がプロジェクタ18を光軸LC周りに回転させる。これにより、図16に示すように、プロジェクタ18で投影された再生画像30が傾いて表示される。再生画像30の縦方向Y’が投影面Pの鉛直方向Yから傾いている。そして、再生画像30中のユーザ21a、21bが投影面Pの鉛直方向Yに沿って立った状態で表示される。すなわち、撮像時の実空間の鉛直方向と、再生時の実空間の鉛直方向が一致することになる。換言すると、再生画像30中の水平方向H’と実空間の水平方向Hが平行になっている。   Therefore, in the present embodiment, the second drive mechanism 19 rotates the projector 18 based on the control data. For example, the second driving mechanism 19 rotates the projector 18 around the optical axis LC based on the angle data Ψ around the Z axis included in the control data. As a result, as shown in FIG. 16, the reproduced image 30 projected by the projector 18 is displayed in an inclined manner. The vertical direction Y ′ of the reproduced image 30 is inclined from the vertical direction Y of the projection plane P. Then, the users 21 a and 21 b in the reproduced image 30 are displayed in a state of standing along the vertical direction Y of the projection plane P. That is, the vertical direction of the real space at the time of imaging coincides with the vertical direction of the real space at the time of reproduction. In other words, the horizontal direction H ′ in the reproduced image 30 and the horizontal direction H in the real space are parallel to each other.

このようにすることで、再生画像30中の被写体の水平を常時保つことができる。よって、撮像時に傾けて撮像してしまった動画ファイルであっても、表示を見やすくすることができる。このように、本実施の形態では、再生画像30の角度を投影面P内で、再生画像30の中心を回転軸として回転している。   In this way, the subject in the reproduced image 30 can be kept level at all times. Therefore, even a moving image file that has been imaged at an angle during imaging can be displayed easily. Thus, in the present embodiment, the angle of the reproduced image 30 is rotated within the projection plane P with the center of the reproduced image 30 as the rotation axis.

図17に、第2の角度制御方法のフローチャートを示す。まず、ユーザが動画ファイルを指定して再生ボタンを押す。すると、圧縮/伸長処理部201が動画ファイルをデコードして、動画再生が開始する(ステップS401)。これにより、モニタ部12の液晶モニタ304が動画ファイルの表示を開始する。次に、次に、角度データがあるか否かを判定する(ステップS402)。すなわち、動画ファイルに対応する角度データが存在するか否かを判定する。   FIG. 17 shows a flowchart of the second angle control method. First, the user designates a moving image file and presses the play button. Then, the compression / decompression processing unit 201 decodes the moving image file and starts moving image reproduction (step S401). Thereby, the liquid crystal monitor 304 of the monitor unit 12 starts displaying the moving image file. Next, it is determined whether or not there is angle data (step S402). That is, it is determined whether or not angle data corresponding to the moving image file exists.

動画ファイルに対応付けられた角度データが存在しない場合(ステップS402のNO)、ステップS404に移行する。動画ファイルに対応付けられた角度データが存在する場合(ステップS402のYES)、プロジェクタ18の出力がONとなっているか判定する(ステップS403)。例えば、液晶モニタ304とプロジェクタ18の同時表示が行われているか否かを判定する。プロジェクタ18の出力がONとなっていない場合(ステップS403のNO)、ステップS404に移行する。   If there is no angle data associated with the moving image file (NO in step S402), the process proceeds to step S404. If angle data associated with the moving image file exists (YES in step S402), it is determined whether the output of the projector 18 is ON (step S403). For example, it is determined whether simultaneous display of the liquid crystal monitor 304 and the projector 18 is performed. When the output of the projector 18 is not ON (NO in step S403), the process proceeds to step S404.

角度データが存在しない場合(ステップS402のNO)、又は、プロジェクタ18がONでない場合(ステップS403のNO)、液晶モニタ304が通常再生を行う(ステップS404)。角度データが存在しない動画ファイルでは、再生画像30を回転させることができないので、プロジェクタ18を使用しない。プロジェクタ18の出力がOFFの場合、液晶モニタ304のみで動画ファイルを再生する。   If there is no angle data (NO in step S402), or if the projector 18 is not ON (NO in step S403), the liquid crystal monitor 304 performs normal reproduction (step S404). Since the reproduced image 30 cannot be rotated in a moving image file having no angle data, the projector 18 is not used. When the output of the projector 18 is OFF, the moving image file is reproduced only by the liquid crystal monitor 304.

ステップS404で通常再生が行われたら、再生が停止したか否かを判定する(ステップS405)。そして、再生が停止していない場合(ステップS405のNO)、ステップS404に戻って、通常再生を継続する。ユーザが再生停止ボタンなどを押して、再生が停止した場合(ステップS405のYES)、液晶モニタ304が再生を終了する。このように、角度データが無い場合、又は、プロジェクタ18がOFFの場合、再生が停止するまで、通常再生を継続する。すなわち、プロジェクタ18が表示を行っていない場合は、液晶モニタ304の角度を固定して、通常の再生を行う。   If normal playback is performed in step S404, it is determined whether or not playback has been stopped (step S405). If reproduction has not stopped (NO in step S405), the process returns to step S404 to continue normal reproduction. When the reproduction is stopped by the user pressing the reproduction stop button or the like (YES in step S405), the liquid crystal monitor 304 ends the reproduction. As described above, when there is no angle data, or when the projector 18 is OFF, the normal reproduction is continued until the reproduction is stopped. That is, when the projector 18 is not displaying, normal playback is performed with the angle of the liquid crystal monitor 304 fixed.

一方、プロジェクタ18の出力がONとなっている場合(ステップS403のYES)、角度データを取得する(ステップS406)。例えば、回転角度設定部405が制御データに含まれる角度データを参照する。   On the other hand, when the output of the projector 18 is ON (YES in step S403), angle data is acquired (step S406). For example, the rotation angle setting unit 405 refers to angle data included in the control data.

そして、取得した角度データに応じて、第2駆動機構19がプロジェクタ18を傾ける(ステップS407)。すなわち、回転角度設定部405が、経過時間の角度データに基づいて、プロジェクタ18の回転角度を算出する。そして、駆動制御部406が回転角度に応じた指令値を算出して、第2駆動機構19に出力する。これにより、プロジェクタ18の角度が変化する。プロジェクタ18がその光軸LC周りに回転して、投影面P上において、プロジェクタ18による投影画像が傾斜する。そして、プロジェクタ18を傾けたら、ステップS408に移行する。   And according to the acquired angle data, the 2nd drive mechanism 19 inclines the projector 18 (step S407). That is, the rotation angle setting unit 405 calculates the rotation angle of the projector 18 based on the elapsed time angle data. Then, the drive control unit 406 calculates a command value corresponding to the rotation angle and outputs the command value to the second drive mechanism 19. Thereby, the angle of the projector 18 changes. The projector 18 rotates around its optical axis LC, and the projection image by the projector 18 is inclined on the projection plane P. When the projector 18 is tilted, the process proceeds to step S408.

そして、プロジェクタ18の角度制御が終わったら、再生停止か否かを判定する(ステップS408)。ユーザが再生ボタンを押すなどして、再生を停止した場合(ステップS408のYES)、再生処理を終了する。再生が停止していない場合(ステップS408のNO)、ステップS406に戻り、処理を繰り返す。これにより、角度データに応じて、プロジェクタ18の角度が変化する。よって、経過時間に応じて、プロジェクタ18の角度が変化する。   When the angle control of the projector 18 is finished, it is determined whether or not the reproduction is stopped (step S408). If the reproduction is stopped by the user pressing the reproduction button or the like (YES in step S408), the reproduction process is terminated. When the reproduction is not stopped (NO in step S408), the process returns to step S406 and the process is repeated. Thereby, the angle of the projector 18 changes according to the angle data. Therefore, the angle of the projector 18 changes according to the elapsed time.

本体部11の傾斜角度に応じて、第2駆動機構19がプロジェクタ18の傾斜角度を変えている。こうすることで、投影面Pにおける再生画像30が傾斜する。よって、見やすい表示が可能になる。すなわち、撮像時の角度が反映されて再生画像30が表示されるため、再生画像30内の被写体の水平が一定に保たれる。さらに、経過時間に応じてプロジェクタ18の角度が変更される。すなわち、フレームに応じて、第2駆動機構19が角度を調整する。よって、常時、再生画像30内の被写体の水平が保たれる。なお、投影位置を変えた場合、台形補正等の画像設定を自動で行うようにしてもよい。   The second drive mechanism 19 changes the tilt angle of the projector 18 according to the tilt angle of the main body 11. By doing so, the reproduced image 30 on the projection plane P is inclined. Therefore, easy-to-see display is possible. That is, since the reproduced image 30 is displayed reflecting the angle at the time of imaging, the level of the subject in the reproduced image 30 is kept constant. Further, the angle of the projector 18 is changed according to the elapsed time. That is, the second drive mechanism 19 adjusts the angle according to the frame. Therefore, the subject in the reproduced image 30 is always kept horizontal. When the projection position is changed, image settings such as keystone correction may be automatically performed.

なお、第2の角度制御方法において、ジャイロセンサ208に検出結果に基づいて、角度データを算出したが、本実施の形態はこれに限られるものではない。例えば、顔認識データを用いて、角度データを算出してもよい。すなわち、顔認識を行った際に算出される顔の傾きデータを角度データとする。すなわち、再生画像30内における顔の傾きに応じて、プロジェクタ18の傾きを変えてもよい。また、顔認識データに基づく角度データと、ジャイロセンサ208に基づく角度データが両方ある場合、顔認識データの角度データを優先して用いてもよく、ジャイロセンサ208に基づく角度データを優先して用いてもよい。   In the second angle control method, the angle data is calculated based on the detection result of the gyro sensor 208, but the present embodiment is not limited to this. For example, angle data may be calculated using face recognition data. That is, the face tilt data calculated when face recognition is performed is used as angle data. That is, the inclination of the projector 18 may be changed according to the inclination of the face in the reproduced image 30. Further, when there is both angle data based on the face recognition data and angle data based on the gyro sensor 208, the angle data of the face recognition data may be used with priority, or the angle data based on the gyro sensor 208 may be used with priority. May be.

また、強調表示、第1の角度制御、及び第2の角度制御の処理について、説明したが、これらのうちの少なくとも一つが行われていればよい。例えば、強調表示のみを行い、第1及び第2の角度制御を行わなくてもよい。この場合、必要な制御データとしては、顔認識データのみとなる。よって、制御に必要なデータのみを撮像時に制御データとして生成すればよい。   Further, although the highlighting, the first angle control, and the second angle control have been described, it is sufficient that at least one of them is performed. For example, only highlighting is performed, and the first and second angle controls may not be performed. In this case, only the face recognition data is necessary control data. Therefore, only data necessary for control may be generated as control data during imaging.

さらに、強調表示、第1の角度制御、及び第2の角度制御の処理を2つ以上組み合わせて行ってもよい。例えば、第1の角度制御又は第2の角度制御を強調表示と同時に行ってもよい。さらには、強調表示、第1及び第2の角度制御を同時に行ってもよい。   Furthermore, two or more processes of highlighting, first angle control, and second angle control may be performed in combination. For example, the first angle control or the second angle control may be performed simultaneously with the highlight display. Further, the highlighting and the first and second angle control may be performed simultaneously.

第1駆動機構13と第2駆動機構19を配置する場所は特に限られるものではない。例えば、第2駆動機構19がモニタ部12をZ軸周りに回転するようにしてもよい。また、X軸周り、又はZ軸周りの回転角度に限らず、Y軸周りの回転角度についても角度制御を行ってもよい。この場合、プロジェクタ18をY軸周りに回転させる駆動機構を用意する。そして、プロジェクタ18をY軸周りに回転することで、投影面P内において、再生画像30が横方向、すなわちX方向に沿って変化する。   The place where the first drive mechanism 13 and the second drive mechanism 19 are arranged is not particularly limited. For example, the second drive mechanism 19 may rotate the monitor unit 12 around the Z axis. Further, not only the rotation angle around the X axis or the Z axis but also the rotation angle around the Y axis may be controlled. In this case, a drive mechanism for rotating the projector 18 around the Y axis is prepared. Then, by rotating the projector 18 around the Y axis, the reproduced image 30 changes along the horizontal direction, that is, the X direction, within the projection plane P.

また、上記の説明では、第1撮像部14が再生画像を撮像したものとして説明したが、再生画像を撮像する撮像装置は他の撮像装置であってもよい。すなわち、制御データが対応付けられた動画ファイルを他の撮像装置で取得してもよい。この場合、取得した動画ファイルとともに制御データが、撮像装置1に記憶される。そして、撮像装置1が動画ファイルを再生する。このように、予め取得された動画形式の表示画像に対して、制御を行えばよい。   In the above description, the first imaging unit 14 has been described as capturing a reproduced image. However, an imaging device that captures a reproduced image may be another imaging device. That is, the moving image file associated with the control data may be acquired by another imaging device. In this case, control data is stored in the imaging device 1 together with the acquired moving image file. Then, the imaging device 1 reproduces the moving image file. In this way, control may be performed on a display image in a moving image format acquired in advance.

上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されても良い。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Part or all of the above processing may be executed by a computer program. The above-described program can be stored and supplied to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

1 撮像装置、 11 本体部、 12 モニタ部、 13 第1駆動機構
14 第1撮像部、 15 第2撮像部、 18 プロジェクタ、
19 第2駆動機構
DESCRIPTION OF SYMBOLS 1 imaging device, 11 main-body part, 12 monitor part, 13 1st drive mechanism 14 1st imaging part, 15 2nd imaging part, 18 projector,
19 Second drive mechanism

Claims (6)

予め取得された動画形式の表示画像を表示する表示部と、
前記表示部が表示している表示画像を見ているユーザの顔を撮像する撮像部と、
前記撮像部で撮像された撮像画像に対して顔認識を行う顔認識部と、
前記顔認識部で認識された顔に対応する人の顔画像が、前記表示画像に含まれる場合、前記表示画像において前記顔画像を強調表示する表示制御部と、を備える撮像表示装置。
A display unit for displaying a display image in a moving image format acquired in advance;
An imaging unit that images the face of the user who is viewing the display image displayed by the display unit;
A face recognition unit that performs face recognition on a captured image captured by the imaging unit;
An imaging display apparatus comprising: a display control unit that highlights the face image in the display image when a face image of a person corresponding to the face recognized by the face recognition unit is included in the display image.
前記表示画像に含まれる顔の顔認識データを、前記表示画像の経過時間に対応付けて記憶している請求項1に記載の撮像表示装置。   The imaging display apparatus according to claim 1, wherein face recognition data of a face included in the display image is stored in association with an elapsed time of the display image. 前記表示部が、前記表示画像を投影面に投影するプロジェクタを有しており、
前記プロジェクタの傾斜角度を変える駆動機構が設けられ、
前記表示画像の動画ファイルに対応付けられた角度データに基づいて、前記駆動機構を制御する請求項1、又は2に記載の撮像表示装置。
The display unit includes a projector that projects the display image onto a projection plane;
A drive mechanism for changing the tilt angle of the projector is provided,
The imaging display device according to claim 1, wherein the drive mechanism is controlled based on angle data associated with the moving image file of the display image.
前記表示画像を撮像した時に検出された角度データに基づいて、前記駆動機構が前記プロジェクタの傾斜角度を変えることで、前記投影面における前記表示画像が回転する請求項3に記載の撮像表示装置。   The imaging display device according to claim 3, wherein the display image on the projection plane is rotated by the drive mechanism changing the tilt angle of the projector based on angle data detected when the display image is captured. 前記表示画像を撮像した時に検出された角度データに基づいて、前記駆動機構が前記プロジェクタの傾斜角度を変えることで、前記投影面における前記表示画像の投影位置が変化する請求項3、又は4に記載の撮像表示装置。   5. The projection position of the display image on the projection plane is changed by the drive mechanism changing the tilt angle of the projector based on angle data detected when the display image is captured. The imaging display device described. 予め取得された動画形式の表示画像を表示する表示部と、
前記表示部に表示されている表示画像を見ているユーザの顔を撮像する撮像部と、を備えた撮像表示装置の制御方法であって、
前記撮像部で撮像された撮像画像に対して顔認識を行うステップと、
前記顔認識された顔に対応する人の顔画像が、前記表示画像に含まれる場合、前記表示画像において前記顔画像を強調表示するステップと、を備える制御方法。
A display unit for displaying a display image in a moving image format acquired in advance;
An imaging unit comprising: an imaging unit that captures a face of a user who is viewing a display image displayed on the display unit;
Performing face recognition on a captured image captured by the imaging unit;
And a step of highlighting the face image in the display image when a face image of a person corresponding to the face recognized is included in the display image.
JP2013203078A 2013-09-30 2013-09-30 Imaging display apparatus and control method Active JP6119534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013203078A JP6119534B2 (en) 2013-09-30 2013-09-30 Imaging display apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203078A JP6119534B2 (en) 2013-09-30 2013-09-30 Imaging display apparatus and control method

Publications (2)

Publication Number Publication Date
JP2015070455A true JP2015070455A (en) 2015-04-13
JP6119534B2 JP6119534B2 (en) 2017-04-26

Family

ID=52836745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203078A Active JP6119534B2 (en) 2013-09-30 2013-09-30 Imaging display apparatus and control method

Country Status (1)

Country Link
JP (1) JP6119534B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009094686A (en) * 2007-10-05 2009-04-30 Nikon Corp Camera with projector
JP2010141764A (en) * 2008-12-15 2010-06-24 Victor Co Of Japan Ltd Imaging apparatus, imaging method, image signal reproducing device, and image signal reproducing method
JP2011015279A (en) * 2009-07-03 2011-01-20 Olympus Imaging Corp Digital camera and moving image playback method
JP2012034128A (en) * 2010-07-29 2012-02-16 Sanyo Electric Co Ltd Image processing apparatus and imaging apparatus using the same
JP2014216929A (en) * 2013-04-26 2014-11-17 キヤノン株式会社 Information processing device, control method therefor, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009094686A (en) * 2007-10-05 2009-04-30 Nikon Corp Camera with projector
JP2010141764A (en) * 2008-12-15 2010-06-24 Victor Co Of Japan Ltd Imaging apparatus, imaging method, image signal reproducing device, and image signal reproducing method
JP2011015279A (en) * 2009-07-03 2011-01-20 Olympus Imaging Corp Digital camera and moving image playback method
JP2012034128A (en) * 2010-07-29 2012-02-16 Sanyo Electric Co Ltd Image processing apparatus and imaging apparatus using the same
JP2014216929A (en) * 2013-04-26 2014-11-17 キヤノン株式会社 Information processing device, control method therefor, and program

Also Published As

Publication number Publication date
JP6119534B2 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
CN102739940B (en) Imaging apparatus and image control method
US20120140096A1 (en) Timing Solution for Projector Camera Devices and Systems
CN103891265A (en) Remotely controllable digital video camera system
JP2013083755A (en) Display device, method of controlling display device, and program
US11622175B2 (en) Electronic apparatus and control method thereof
JP2015126389A (en) Imaging apparatus and control method thereof
JP2012257112A (en) Imaging apparatus and program
JP2014123908A (en) Image processing system, image clipping method, and program
US9661217B2 (en) Image capturing apparatus and control method therefor
JP2008146024A (en) Imaging apparatus and imaging method
JP4748442B2 (en) Imaging apparatus and program thereof
JP6119534B2 (en) Imaging display apparatus and control method
JP6700955B2 (en) Projection apparatus and projection method
JP2006184333A (en) Projection system and additional information recording method used in the system
CN220570624U (en) Image capturing system and image capturing apparatus
JP2015159460A (en) Projection system, projection apparatus, photographing apparatus, guide frame generation method and program
JP2012027324A (en) Display device, display device control method and display system
JP2018054912A (en) Projection display apparatus and control method thereof
JP2009071717A (en) Imaging apparatus and focus state display method
JP2008065851A (en) Information processing apparatus and recording medium
JP4415184B2 (en) Imaging apparatus and light emission control method
JP2013251617A (en) Camera
JP2009284124A (en) Overhead camera , imaging method, and overhead camera system
JP2014131150A (en) Image display device and image display method
WO2025052902A1 (en) Image processing method, image processing device, and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R150 Certificate of patent or registration of utility model

Ref document number: 6119534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150