[go: up one dir, main page]

JP2010166218A - Camera system and method of controlling the same - Google Patents

Camera system and method of controlling the same Download PDF

Info

Publication number
JP2010166218A
JP2010166218A JP2009005705A JP2009005705A JP2010166218A JP 2010166218 A JP2010166218 A JP 2010166218A JP 2009005705 A JP2009005705 A JP 2009005705A JP 2009005705 A JP2009005705 A JP 2009005705A JP 2010166218 A JP2010166218 A JP 2010166218A
Authority
JP
Japan
Prior art keywords
camera
slave
master
master camera
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009005705A
Other languages
Japanese (ja)
Inventor
Shigeki Tachibana
成樹 立花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TOKYO BROADCASTING SYSTEM HOLDINGS Inc
Original Assignee
TOKYO BROADCASTING SYSTEM HOLDINGS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TOKYO BROADCASTING SYSTEM HOLDINGS Inc filed Critical TOKYO BROADCASTING SYSTEM HOLDINGS Inc
Priority to JP2009005705A priority Critical patent/JP2010166218A/en
Publication of JP2010166218A publication Critical patent/JP2010166218A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera system easily operating a plurality of cameras; and to provide a method of controlling the same. <P>SOLUTION: The camera system includes a master camera, a conversion device, one or more drive devices, and one or more slave cameras. The master camera picks up a motion picture, and detects an operation parameter related to an operation from the outside to transmit the operation parameter to the conversion device. The conversion device converts the operation parameter transmitted from the master camera into drive parameters for each slave camera to transmit the drive parameters to the drive devices of the one or more corresponding slave cameras. The one or more drive devices drive the corresponding slave cameras based on the drive parameters transmitted from the conversion device. The one or more slave cameras are operated in response to drive of the corresponding drive devices. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数のカメラを同時に制御するカメラシステムに関する。   The present invention relates to a camera system that controls a plurality of cameras simultaneously.

従来、ステレオスコピック方式のような立体動画像を実写によって実現するためには、人間の左右の目に対応してそれぞれ微妙に異なる動画像を撮影する必要がある。これらの撮影機材としては、小型のカメラ2台を横に並べて接着したステレオカメラ等が既に開発されている。立体動画像とは、例えば、横に並べて接着された小型のカメラ2台の動画像を重ね合わせた動画像であり、所定のメガネをかけた人間等に対して、立体的な動画像を見せることができるようになされたものである。   Conventionally, in order to realize a stereoscopic moving image such as a stereoscopic method by actual shooting, it is necessary to capture slightly different moving images corresponding to the left and right eyes of a human. As these photographic equipment, a stereo camera or the like in which two small cameras are bonded side by side has already been developed. A stereoscopic moving image is, for example, a moving image obtained by superimposing moving images of two small cameras that are bonded side by side, and shows a stereoscopic moving image to a person wearing predetermined glasses. It was made to be able to.

一方、従来、動画像の分野において、複数のカメラにより撮影されたそれぞれ動画像を合成し、1つの合成動画像とする技術としては、クロマキー等の電気的処理によるはめ込み合成の手法が確立しており、広く利用されている。   On the other hand, in the field of moving images, as a technique for combining moving images taken by a plurality of cameras into one combined moving image, a method of inlay combining by electrical processing such as chroma key has been established. It is widely used.

はめ込み合成の手法による合成動画像の組み合わせとしては、実写動画像をはじめ、最近では、コンピュータグラフィックス等による動画像も一般的に用いられている。これらの動画像の合成結果である合成動画像を自然なものとするためには、個々の動画像の画角をはじめ、カメラの動きに対する各種撮影パラメータの一致が必要である。   As a combination of synthesized moving images by the method of inset synthesis, a moving image by computer graphics or the like is generally used in addition to a real moving image. In order to make a synthesized moving image as a result of synthesizing these moving images natural, it is necessary to match various shooting parameters with respect to camera movements, including the angle of view of each moving image.

例えば、カメラの動きに対する各種撮影パラメータを一致させるために、複数のカメラ部で撮影された画像を合成して1つの合成画像を生成する場合の撮影に適用される合成画像生成用撮影システムであって、複数のカメラ部を共通のコントローラから送信される信号に基づいて同一動作となるように制御する技術が提案されている(例えば、特許文献1参照)。   For example, in order to match various shooting parameters with respect to the movement of the camera, a composite image generation shooting system applied to shooting when images shot by a plurality of camera units are combined to generate a single combined image. Thus, a technique for controlling a plurality of camera units so as to perform the same operation based on signals transmitted from a common controller has been proposed (see, for example, Patent Document 1).

他方、コンピュータグラフィックスによる作画技術(バーチャルリアリティーの一種)が急速に進歩しており、例えば、映画やパッケージビデオ作品の分野では、コンピュータグラフィックスによる動画像や、実写の動画像を基にしたコンピュータグラフィックスの作画による合成動画像が一般的なものとなっている。また、立体動画像に関する分野においても、コンピュータグラフィックスによる動画像が主流となりつつある。   On the other hand, drawing technology by computer graphics (a kind of virtual reality) is rapidly progressing. For example, in the field of movies and packaged video works, computers based on moving images by computer graphics and moving images of live action are used. Synthetic moving images based on graphics are common. Also in the field of stereoscopic moving images, moving images based on computer graphics are becoming mainstream.

特開2004−297283号公報JP 2004-297283 A

しかしながら、ステレオスコピック等の立体動画像の撮影には、専用の特殊な機材が必要とされ、また、レンズ等の機構条件による光学的な制約も多いため、一般的な平面動画像(合成動画像)を同時に撮影することや、一般のテレビジョン撮影技術による自然な動画像を簡易に表現することができないという問題がある。   However, in order to shoot stereoscopic moving images such as stereoscopic images, special special equipment is required and there are many optical restrictions due to the mechanical conditions of lenses and the like, so that general planar moving images (composite moving images) are required. Image) at the same time, and a natural moving image by a general television photographing technique cannot be easily expressed.

また、上述のようなステレオカメラ等の場合には、2個の撮像素子やレンズ、つまり、2つの視点の間隔が固定であり、任意の2つの視点の間隔をとることによる幅広いステレオ表現、立体撮影時の被写体の動きに対する柔軟な対応をすることができないという問題がある。   Further, in the case of the above-described stereo camera or the like, two image pickup devices and lenses, that is, the interval between two viewpoints is fixed, and a wide stereo expression and three-dimensionality can be obtained by taking an interval between any two viewpoints. There is a problem that it is not possible to flexibly cope with the movement of the subject at the time of shooting.

一方、合成動画像の分野においては、任意の複数のカメラにおいて、レンズの動作による画角やピント位置(ズーム、フォーカス)、雲台の動作による光軸の上下左右方向への移動(回転角、仰角)や、雲台の高さの変化、移動等を簡単に同期させるシステムは存在していない。   On the other hand, in the field of synthesized moving images, in any of a plurality of cameras, the angle of view and focus position (zoom, focus) due to lens operation, and movement of the optical axis in the vertical and horizontal directions due to pan head operation (rotation angle, There is no system that easily synchronizes elevation angle), pan head height change, movement, and the like.

すなわち、上述の特許文献1に示したように、現在では、各種電気的なサーボ技術を使った遠隔操作により、単一の操作端末(リモコン等)から複数の電動雲台、電動レンズに対して同一の命令を送信し、撮影パラメータが同一である複数の実写の動画像を撮影することができる。   That is, as shown in Patent Document 1 described above, at present, a plurality of electric pan heads and electric lenses can be operated from a single operation terminal (remote controller or the like) by remote control using various electric servo technologies. By transmitting the same command, it is possible to shoot a plurality of live-action moving images having the same shooting parameters.

しかしながら、上述の特許文献1では、カメラマンのような人間の有する通常のカメラ操作(カメラワーク)を、他の複数のカメラが同時に撮影する動画像に対して反映させることは困難であり、一般のテレビジョン撮影技術による細かでスムーズなパン、チルト、フォーカス、トリミング等の自然な動画像の表現をそのまま他のカメラに反映させることができないという問題がある。   However, in the above-mentioned Patent Document 1, it is difficult to reflect normal camera operation (camera work) that a human like a cameraman has on a moving image captured by a plurality of other cameras at the same time. There is a problem in that it is impossible to directly reflect a natural moving image expression such as panning, tilting, focusing, trimming, and the like by the television photographing technique as it is.

また、上述の特許文献1の他に、例えば、専用設計の機材を用いることにより、1つのカメラの動きを記憶し、当該カメラあるいは他のカメラに再生するシステムや、1つのカメラを操作するともうひとつのカメラが同様に動作するシステムも存在する。   In addition to the above-mentioned Patent Document 1, for example, by using a specially designed equipment, when a movement of one camera is stored and played back on the camera or another camera, or when one camera is operated, it is already There are systems where a single camera works in the same way.

しかしながら、上述のシステムでは、カメラや雲台はシステムに特化したものであるため、設置や操作法をはじめ、2台である場合には、それぞれのカメラ同士の設置場所や方法、通信制御接続等にも制約が多く、一般の撮影機材との共用ができないという問題がある。また、上述のシステムでは、基本的に同じ動作をするための指令を記録再生したり、結果的にそのまま他のカメラのレンズ、雲台に対して送信したりするのみであるため、複数の動画像それぞれに微妙なパラメータの差が必要となるステレオスコピック等の立体動画像の撮影に応用することができないという問題がある。   However, in the above-mentioned system, the camera and pan head are specialized for the system. Therefore, when there are two cameras, including installation and operation methods, the installation location and method of each camera, communication control connection However, there are many restrictions, and there is a problem that it cannot be shared with general photography equipment. In the above-described system, basically, a command for performing the same operation is recorded and reproduced, and as a result, it is transmitted as it is to the lens and pan head of another camera as it is. There is a problem that it cannot be applied to photographing stereoscopic moving images such as stereoscopic images in which a subtle difference in parameters is required for each image.

本発明は以上の点を考慮してなされたもので、複数のカメラを簡易に操作させ得るカメラシステム及びその制御方法を提案するものである。   The present invention has been made in consideration of the above points, and proposes a camera system that can easily operate a plurality of cameras and a control method thereof.

かかる課題を解決するために本発明においては、カメラシステムであって、マスターカメラと、変換装置と、1又は複数の駆動装置と、1又は複数のスレーブカメラとを備え、前記マスターカメラは、動画像を撮影すると共に、外部からの操作に関する操作パラメータを検出して、前記変換装置に送信し、前記変換装置は、前記マスターカメラから送信された前記操作パラメータを、前記スレーブカメラごとの駆動パラメータに変換して、対応する1又は複数の前記スレーブカメラの駆動装置に送信し、1又は複数の前記駆動装置は、前記変換装置から送信された前記駆動パラメータに基づいて、対応する前記スレーブカメラを駆動させ、1又は複数の前記スレーブカメラは、対応する前記駆動装置における駆動に応じて動作することを特徴とする。   In order to solve such a problem, in the present invention, a camera system includes a master camera, a conversion device, one or a plurality of driving devices, and one or a plurality of slave cameras, and the master camera is a moving image. An image is taken and an operation parameter related to an operation from the outside is detected and transmitted to the conversion device, and the conversion device uses the operation parameter transmitted from the master camera as a drive parameter for each slave camera. Converting and transmitting to the corresponding one or more slave camera drive devices, and the one or more drive devices drive the corresponding slave camera based on the drive parameters transmitted from the conversion device One or a plurality of the slave cameras operate in response to driving by the corresponding driving device. To.

また、本発明においては、マスターカメラと、変換装置と、1又は複数の駆動装置と、1又は複数のスレーブカメラとを備えるカメラシステムの制御方法であって、前記マスターカメラが、動画像を撮影すると共に、外部からの操作に関する操作パラメータを検出して、前記変換装置に送信する第1のステップと、前記変換装置が、前記マスターカメラから送信された前記操作パラメータを、前記スレーブカメラごとの駆動パラメータに変換して、対応する1又は複数の前記スレーブカメラの駆動装置に送信する第2のステップと、1又は複数の前記駆動装置が、前記変換装置から送信された前記駆動パラメータに基づいて、対応する前記スレーブカメラを駆動させる第3のステップと、1又は複数の前記スレーブカメラが、対応する前記駆動装置における駆動に応じて動作する第4のステップとを備えることを特徴とする。   According to the present invention, there is provided a control method for a camera system including a master camera, a conversion device, one or more drive devices, and one or more slave cameras, wherein the master camera captures a moving image. And a first step of detecting an operation parameter related to an operation from the outside and transmitting the operation parameter to the conversion device, and the conversion device drives the operation parameter transmitted from the master camera for each slave camera. A second step of converting to a parameter and transmitting to the corresponding one or more slave camera drive devices, and one or more of the drive devices based on the drive parameters transmitted from the conversion device, A third step of driving the corresponding slave camera and one or a plurality of the slave cameras correspond to the corresponding drive; Characterized in that it comprises a fourth step of operation in response to the driving of the device.

従って、スレーブカメラについて人間が直接操作することなく、また、いわゆるリモコンカメラの機械的な動作ではなく、マスターカメラにおける、人間が行う通常カメラ操作(カメラワーク)に基づいてスレーブカメラをマスターカメラと同期して動作させることができ、マスターカメラ及びスレーブカメラによる自然な動画像の表現を、合成動画像(立体動画像)の全域に対してリアルタイムで反映させることができる。   Therefore, the slave camera is synchronized with the master camera based on the normal camera operation (camera work) performed by the human in the master camera, not directly by the human being with respect to the slave camera, or the mechanical operation of the so-called remote control camera. Thus, a natural moving image expression by the master camera and the slave camera can be reflected in real time on the entire area of the synthesized moving image (stereoscopic moving image).

また、マスターカメラ及びスレーブカメラの位置関係を自由に設定することができるため、例えば、恐竜等の巨大生物の視点表現や、カメラから長距離に位置する被写体での立体誇張表現、大幅なズーミング動作等さまざまな表現手法をとることができる。   In addition, since the positional relationship between the master camera and slave camera can be set freely, for example, the viewpoint expression of giant creatures such as dinosaurs, stereoscopic exaggeration expression on subjects located at a long distance from the camera, and large zooming operation Various expression methods can be taken.

本発明によれば、複数のカメラを簡易に操作させ得るカメラシステム及びその制御方法を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, the camera system which can operate a some camera easily, and its control method are realizable.

第1の実施の形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by 1st Embodiment. マスターカメラの構成を示すブロック図である。It is a block diagram which shows the structure of a master camera. データ変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of a data converter. マスターカメラにおける操作に基づいて動作するスレーブカメラの原理の説明に供する概念図である。It is a conceptual diagram with which it uses for description of the principle of the slave camera which operate | moves based on operation in a master camera. データ変換装置のデータ変換処理の説明に供するフローチャートである。It is a flowchart with which it uses for description of the data conversion process of a data converter. 第2の実施の形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by 2nd Embodiment. 第3の実施の形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by 3rd Embodiment. 第4の実施の形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by 4th Embodiment. パン、チルト、フォーカス、トリミング等の操作がされた場合の合成動画像の表示の説明に供する概念図である。FIG. 10 is a conceptual diagram for explaining display of a synthesized moving image when operations such as panning, tilting, focusing, and trimming are performed.

以下、本発明の一実施の形態を、図面を参照して詳細に説明する。なお、これにより本発明が限定されるものではない。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited thereby.

(1)第1の実施の形態
図1は、第1の実施の形態によるカメラシステム1の構成の一例を示している。カメラシステム1は、マスターカメラ2、スレーブカメラ3、データ集約装置4、データ変換装置5及び駆動装置6が接続されることにより構成されている。
(1) 1st Embodiment FIG. 1: has shown an example of the structure of the camera system 1 by 1st Embodiment. The camera system 1 is configured by connecting a master camera 2, a slave camera 3, a data aggregation device 4, a data conversion device 5, and a drive device 6.

図2は、マスターカメラ2の構成の一例を示している。マスターカメラ2は、例えば、マスターカメラ部2Aが雲台2Bに、また雲台2Bがペデスタル2Cに戴置されることにより構成されている。マスターカメラ2の雲台2Bは、当該マスターカメラ部2Aの光軸を上下左右に移動し、マスターカメラ2のペデスタル2Cは、当該マスターカメラ部2Aの高さを変化したり、又は当該マスターカメラ部2Aを移動したりする。   FIG. 2 shows an example of the configuration of the master camera 2. The master camera 2 is configured, for example, by placing the master camera unit 2A on the camera platform 2B and the camera platform 2B on the pedestal 2C. The camera platform 2B of the master camera 2 moves the optical axis of the master camera unit 2A up, down, left and right, and the pedestal 2C of the master camera 2 changes the height of the master camera unit 2A, or the master camera unit Or move 2A.

マスターカメラ2のマスターカメラ部2Aは、例えば、撮影部11、制御部12、操作部23、表示部14、記録部15、入出力部16等から構成されており、撮影部11のレンズを介して被写体T(図1)の動画像を撮影する。この場合、マスターカメラ部2Aの制御部12は、例えば、操作部13における撮影操作に従って、撮影部11のレンズを介して取得した被写体Tの動画像を第1の動画像信号に変換して、第1の動画像信号に基づく動画像を表示部14に表示すると共に、当該第1の動画像信号を記録部15に記録する。また、マスターカメラ部2Aの制御部12は、例えば、操作部13における操作に従って、撮影部11のレンズを制御して、被写体Tをズームアップやズームアウトしたり、又は被写体Tに焦点を合わせたりする。   The master camera unit 2A of the master camera 2 includes, for example, a photographing unit 11, a control unit 12, an operation unit 23, a display unit 14, a recording unit 15, an input / output unit 16, and the like. Then, a moving image of the subject T (FIG. 1) is captured. In this case, the control unit 12 of the master camera unit 2A converts the moving image of the subject T acquired through the lens of the shooting unit 11 into a first moving image signal, for example, according to the shooting operation in the operation unit 13, A moving image based on the first moving image signal is displayed on the display unit 14, and the first moving image signal is recorded on the recording unit 15. In addition, the control unit 12 of the master camera unit 2A controls the lens of the photographing unit 11 according to the operation of the operation unit 13, for example, to zoom up or zoom out the subject T or to focus on the subject T. To do.

さらに、マスターカメラ部2Aの制御部12は、例えば、第1の動画像信号を入出力部16を介して所定の動画像合成装置に送信する。この場合、動画像合成装置は、当該第1の動画像信号とスレーブカメラ3の撮影した動画像に基づく第2の動画像信号との合成動画像信号を作成して、マスターカメラ2に送信し、又はスレーブカメラ3の撮影した動画像に基づく第2の動画像信号をマスターカメラ2に送信する。さらに、マスターカメラ部2Aの制御部12は、合成動画像信号を動画像合成装置から入出力部16を介して取得すると、操作部13の切り替え操作に従って、第1の動画像信号に基づく動画像と、第2の動画像信号に基づく動画像と、合成動画像信号に基づく合成動画像とを切り替え表示する。   Furthermore, the control unit 12 of the master camera unit 2A transmits, for example, the first moving image signal to a predetermined moving image synthesizing device via the input / output unit 16. In this case, the moving image synthesizing device creates a synthesized moving image signal of the first moving image signal and the second moving image signal based on the moving image captured by the slave camera 3, and transmits the synthesized moving image signal to the master camera 2. Alternatively, the second moving image signal based on the moving image captured by the slave camera 3 is transmitted to the master camera 2. Furthermore, when the control unit 12 of the master camera unit 2A acquires the synthesized moving image signal from the moving image synthesizing device via the input / output unit 16, the moving image based on the first moving image signal is performed according to the switching operation of the operation unit 13. And a moving image based on the second moving image signal and a synthesized moving image based on the synthesized moving image signal are switched and displayed.

一方、マスターカメラ部2Aの撮像部11は、画角に関するズーム操作及びピント位置(合焦距離)に関するフォーカス操作を検出すると共に、当該ズーム操作における画角及びフォーカス操作における合焦距離を表す第1のパラメータを検出する第1の検出センサ17を有している。マスターカメラ部2Aの制御部12は、第1の検出センサ17がズーム操作及びフォーカス操作を検出すると、第1のパラメータを入出力部16を介してデータ集約装置4に送信する。   On the other hand, the imaging unit 11 of the master camera unit 2A detects the zoom operation related to the angle of view and the focus operation related to the focus position (focus distance), and also represents the first view of the angle of view in the zoom operation and the focus distance in the focus operation. The first detection sensor 17 for detecting the parameters is provided. When the first detection sensor 17 detects a zoom operation and a focus operation, the control unit 12 of the master camera unit 2A transmits the first parameter to the data aggregation device 4 via the input / output unit 16.

また、マスターカメラ部2Aが戴置されている雲台2Bには、マスターカメラ部2Aの光軸の左右方向に関する移動操作及び光軸の上下方向に関する移動操作を検出すると共に、当該光軸の左右方向に関する移動操作における回転角及び光軸の上下方向に関する移動操作における仰角を表す第2のパラメータを検出する第2の検出センサ18が配置されている。第2の検出センサ18は、マスターカメラ部2Aの光軸の左右方向及び上下方向に関する移動操作を検出すると、第2のパラメータをデータ集約装置4に送信する。   In addition, the pan head 2B on which the master camera unit 2A is placed detects a moving operation in the horizontal direction of the optical axis of the master camera unit 2A and a moving operation in the vertical direction of the optical axis, and detects the left and right of the optical axis. A second detection sensor 18 that detects a second parameter representing a rotation angle in the movement operation related to the direction and an elevation angle in the movement operation related to the vertical direction of the optical axis is arranged. The second detection sensor 18 transmits a second parameter to the data aggregating device 4 when detecting a movement operation in the horizontal direction and the vertical direction of the optical axis of the master camera unit 2A.

さらに、マスターカメラ部2A及び雲台2Bが戴置されているペデスタル2Cには、当該雲台2Bの高さの移動操作及び雲台2Bの前後左右方向に関する移動操作を検出すると共に、当該雲台2Bの高さ及び前後左右方向に関する移動操作における移動距離を表す第3のパラメータを検出する第3の検出センサ19が配置されている。第3の検出センサ19は、雲台2Bの高さ及び前後左右方向に関する移動操作を検出すると、第3のパラメータをデータ集約装置4に送信する。   Further, the pedestal 2C on which the master camera unit 2A and the pan head 2B are placed detects the moving operation of the pan head 2B and the moving operation of the pan head 2B in the front-rear and left-right directions, and the pan head A third detection sensor 19 for detecting a third parameter representing the movement distance in the movement operation related to the height of 2B and the front and rear, left and right directions is arranged. The third detection sensor 19 transmits a third parameter to the data aggregating apparatus 4 when detecting a moving operation related to the height of the camera platform 2B and the front / rear / left / right direction.

図1に戻り、スレーブカメラ3は、マスターカメラ2と所定の間隔dを保って配置されており(後述)、被写体Tを撮影する。スレーブカメラ3は、マスターカメラ2と同様に、例えば、スレーブカメラ部が雲台及びペデスタルに戴置されることにより構成されている。   Returning to FIG. 1, the slave camera 3 is arranged at a predetermined distance d from the master camera 2 (described later), and photographs the subject T. As with the master camera 2, the slave camera 3 is configured, for example, by placing a slave camera unit on a pan head and a pedestal.

スレーブカメラ3のスレーブカメラ部は、例えば、撮影部、制御部、操作部、表示部、記録部等から構成されている。この場合、スレーブカメラ部の制御部は、例えば、操作部における撮影操作に従って、撮影部のレンズを介して取得した被写体の動画像を第2の動画像信号に変換して、第2の動画像信号に基づく動画像を表示部に表示すると共に、当該第2の動画像信号を記録部に記録する。また、スレーブカメラ部の制御部は、例えば、操作部における操作に従って、撮影部のレンズを制御して、被写体をズームアップやズームアウトしたり、又は被写体に焦点を合わせたりする。   The slave camera unit of the slave camera 3 includes, for example, an imaging unit, a control unit, an operation unit, a display unit, a recording unit, and the like. In this case, the control unit of the slave camera unit converts, for example, the moving image of the subject acquired through the lens of the shooting unit into the second moving image signal according to the shooting operation in the operation unit, and the second moving image A moving image based on the signal is displayed on the display unit, and the second moving image signal is recorded on the recording unit. In addition, the control unit of the slave camera unit controls the lens of the photographing unit, for example, according to an operation on the operation unit, and zooms in and out of the subject or focuses on the subject.

さらに、スレーブカメラ部の制御部は、例えば、第2の動画像信号を所定の動画像合成装置に送信する。これにより、動画像合成装置は、当該第2の動画像信号とマスターカメラ2の撮影した動画像に基づく第1の動画像信号との合成動画像信号を作成して、マスターカメラ2に送信することができる。   Further, the control unit of the slave camera unit transmits, for example, the second moving image signal to a predetermined moving image synthesizing device. As a result, the moving image synthesizing apparatus creates a synthesized moving image signal of the second moving image signal and the first moving image signal based on the moving image captured by the master camera 2 and transmits the synthesized moving image signal to the master camera 2. be able to.

さらに、スレーブカメラ3は、マスターカメラ2の動作に同期して動作するように構成されている。なお、この同期動作の詳細については、後述する。   Further, the slave camera 3 is configured to operate in synchronization with the operation of the master camera 2. Details of this synchronization operation will be described later.

データ集約装置4は、例えば、CPU(Central Processing Unit)、メモリ及び通信インタフェースが内部バス等を介して接続されることにより構成されている。データ集約装置4は、マスターカメラ2のレンズからの画角やピントの情報と、雲台からの回転角、仰角の情報等を集約し、シリアルデータとしてデータ変換装置5に出力する。   The data aggregating apparatus 4 is configured, for example, by connecting a CPU (Central Processing Unit), a memory, and a communication interface via an internal bus or the like. The data aggregating device 4 aggregates information on the angle of view and focus from the lens of the master camera 2 and information on the rotation angle and elevation angle from the camera platform, and outputs the data to the data conversion device 5 as serial data.

この場合、データ集約装置4のCPUは、通信インタフェースにおいて、マスターカメラ2の入出力部16、第2の検出センサ18及び第3の検出センサ19から送信された第1〜第3のパラメータを受信すると、例えば、第1〜第3のパラメータをメモリに格納する。続いて、データ集約装置4のCPUは、第1〜第3のパラメータを集約すると共に、第1〜第3のパラメータをVRデータ(Virtual Reality data)等のシリアルデータに変換する。そして、データ集約装置4のCPUは、当該VRデータを通信インタフェースを介してデータ変換装置5に送信する。   In this case, the CPU of the data aggregation device 4 receives the first to third parameters transmitted from the input / output unit 16, the second detection sensor 18, and the third detection sensor 19 of the master camera 2 in the communication interface. Then, for example, the first to third parameters are stored in the memory. Subsequently, the CPU of the data aggregation device 4 aggregates the first to third parameters and converts the first to third parameters into serial data such as VR data (Virtual Reality data). Then, the CPU of the data aggregation device 4 transmits the VR data to the data conversion device 5 via the communication interface.

図3は、データ変換装置5の構成の一例を示している。データ変換装置5は、例えば、CPU21、メモリ22、操作部23、表示部24、第1の入出力部25及び第2の入出力部26が内部バス27等を介して接続されることにより構成されている。   FIG. 3 shows an example of the configuration of the data conversion device 5. For example, the data conversion device 5 is configured by connecting a CPU 21, a memory 22, an operation unit 23, a display unit 24, a first input / output unit 25, and a second input / output unit 26 via an internal bus 27 or the like. Has been.

データ変換装置5は、マスターカメラ2からの画角に関するズーム、ピント位置に関するフォーカス、光軸の左右に関する回転角、光軸の上下に関する仰角等の各種パラメータを、データ集約装置4からシリアルデータとしてまとめて受け取る。そして、データ変換装置5は、同期連動させようとする1又は複数のスレーブカメラ3の撮影部のレンズと雲台及びペデスタルに対して、そのまま又は用途や個々の特性に応じた変換を自動的に施した上で、それぞれ同時にシリアルデータを出力することにより、スレーブカメラ3を制御する。   The data conversion apparatus 5 collects various parameters such as zoom related to the angle of view from the master camera 2, focus related to the focus position, rotation angle related to the right and left of the optical axis, and elevation angle related to the vertical direction of the optical axis as serial data from the data aggregation apparatus 4. Receive. Then, the data conversion device 5 automatically converts the lens, the pan head, and the pedestal of the photographing unit of one or a plurality of slave cameras 3 that are to be synchronized with each other as they are or according to the application and individual characteristics. Then, the slave camera 3 is controlled by outputting serial data simultaneously.

また、データ変換装置5は、同期連動させようとする1又は複数のスレーブカメラ3の撮影部のレンズと雲台に対して、それぞれの回転中心とマスターカメラ2の回転中心との間隔と、マスターカメラ2の合焦距離(フォーカス位置)により、上下左右に対する雲台(光軸)データをオフセットする等、多視点画像や立体画像撮影用に適切に変換した上で、それぞれ同時にデータを出力することにより、スレーブカメラ3を制御する。   In addition, the data conversion device 5 is configured so that the distance between the rotation center and the rotation center of the master camera 2 with respect to the lens and the pan head of the photographing unit of the one or more slave cameras 3 to be synchronized with each other, and the master Output the data simultaneously after converting it appropriately for multi-viewpoint images and stereoscopic image shooting, such as offsetting the head (optical axis) data for the top, bottom, left and right according to the focusing distance (focus position) of the camera 2 Thus, the slave camera 3 is controlled.

一方、データ変換装置5は、同期動作の初期値を得る目的など必要に応じて、マスターカメラ2やスレーブカメラ3に向けて、現在の画角やピントの情報や、現在の回転角や仰角の情報等を問合せる命令を出力する。なお、この初期設定処理の詳細については、後述する。   On the other hand, the data conversion device 5 sends the current angle of view and focus information, the current rotation angle and elevation angle to the master camera 2 and the slave camera 3 as necessary for the purpose of obtaining the initial value of the synchronization operation. Outputs an instruction for inquiring information. Details of the initial setting process will be described later.

メモリ22には、データ変換装置5全体を制御する制御プログラム31、VRデータをスレーブカメラ3に対応する適切なデータに変換するデータ変換プログラム32及び変換したデータをスレーブカメラ3の機種に応じたデータに変換するデータ変換テーブル33が格納されている。   The memory 22 includes a control program 31 for controlling the entire data conversion apparatus 5, a data conversion program 32 for converting VR data into appropriate data corresponding to the slave camera 3, and data corresponding to the model of the slave camera 3. A data conversion table 33 to be converted into is stored.

データ変換プログラム32は、マスターカメラ2のズーム操作における画角及びフォーカス操作における合焦距離を表す第1のパラメータ、マスターカメラ部2Aの光軸の回転角や仰角に関する第2のパラメータ及びマスターカメラ2の雲台の高さや水平移動距離に関する第3のパラメータから、スレーブカメラ3のスレーブカメラ部のレンズの合焦距離、光軸の回転角や仰角の絶対角度や相対角度、回転方向、回転スピード等及びスレーブカメラ3の雲台の高さや水平移動距離を算出するための変換式を有している。   The data conversion program 32 includes a first parameter that represents the angle of view in the zoom operation of the master camera 2 and the focusing distance in the focus operation, the second parameter related to the rotation angle and elevation angle of the optical axis of the master camera unit 2A, and the master camera 2. From the third parameter regarding the height of the camera platform and the horizontal movement distance, the focusing distance of the lens of the slave camera unit of the slave camera 3, the absolute and relative angles of the rotation angle and elevation angle of the optical axis, the rotation direction, the rotation speed, etc. And a conversion formula for calculating the height of the pan head of the slave camera 3 and the horizontal movement distance.

また、データ変換プログラム32は、マスターカメラ2とスレーブカメラ3の間隔dが予め入力されることにより、マスターカメラ2のフォーカス操作における合焦距離やマスターカメラ2のマスターカメラ部2Aの光軸の回転角や仰角をもとに、スレーブカメラ3からの視点による被写体Tの方向や距離、すなわち、スレーブカメラ3のフォーカス操作における合焦距離やスレーブカメラ3のスレーブカメラ部の光軸の回転角や仰角を変換式に基づいて算出する。なお、データ変換プログラム32の詳細な処理については、後述する。   Further, the data conversion program 32 is preliminarily input with the distance d between the master camera 2 and the slave camera 3, so that the focusing distance in the focus operation of the master camera 2 and the rotation of the optical axis of the master camera unit 2A of the master camera 2 are rotated. Based on the angle and the elevation angle, the direction and distance of the subject T from the viewpoint from the slave camera 3, that is, the focusing distance in the focus operation of the slave camera 3, the rotation angle and the elevation angle of the optical axis of the slave camera unit of the slave camera 3 Is calculated based on the conversion formula. Detailed processing of the data conversion program 32 will be described later.

データ変換テーブル33は、例えば、画角に関する数値変換テーブルや合焦距離、雲台の高さや水平移動距離に関する数値変換テーブル等から構成されている。   The data conversion table 33 includes, for example, a numerical value conversion table related to the angle of view, a focusing distance, a numerical value conversion table related to the height of the camera platform and the horizontal movement distance, and the like.

撮影画角は、マスターカメラ2及びスレーブカメラ3の個々の撮像素子サイズとレンズ焦点距離の組み合わせで決定されるため、そのパラメータは、マスターカメラ2とスレーブカメラ3とで異なる場合がある。このため、データ変換装置5では、マスターカメラ2とスレーブカメラ3との撮影画角及びレンズ焦点距離パラメータの対照表(数値変換テーブル)を、異なるスレーブカメラ3の機種ごとに、また使用されるレンズの機種ごとに有している。   Since the shooting angle of view is determined by the combination of the individual image sensor sizes of the master camera 2 and the slave camera 3 and the lens focal length, the parameters may differ between the master camera 2 and the slave camera 3. For this reason, in the data conversion device 5, a comparison table (numerical conversion table) of the shooting angle of view and the lens focal length parameter between the master camera 2 and the slave camera 3 is used for each model of the different slave camera 3 and the lens used. For each model.

また、合焦距離についても、撮影画角と同様に、そのパラメータは、マスターカメラ2とスレーブカメラ3とによって異なる場合がある。このため、データ変換装置5では、マスターカメラ2とスレーブカメラ3との合焦距離パラメータの対照表(数値変換テーブル)を、異なるスレーブカメラ3の機種ごとに有している。   As for the focusing distance, the parameter may differ depending on the master camera 2 and the slave camera 3 as in the case of the shooting angle of view. For this reason, the data conversion device 5 has a comparison table (numerical value conversion table) of focusing distance parameters between the master camera 2 and the slave camera 3 for each model of the different slave cameras 3.

また、雲台の高さや水平移動距離についても、撮影画角と同様に、そのパラメータは、マスターカメラ2とスレーブカメラ3とによって異なる場合がある。このため、データ変換装置5では、マスターカメラ2とスレーブカメラ3との雲台の高さや水平移動距離に関するパラメータの対照表(数値変換テーブル)を、異なるスレーブカメラ3の機種ごとに有している。   Also, the height and horizontal movement distance of the camera platform may be different depending on the master camera 2 and the slave camera 3 as in the case of the shooting angle of view. For this reason, the data conversion device 5 has a parameter comparison table (numerical conversion table) regarding the height of the pan head and the horizontal movement distance between the master camera 2 and the slave camera 3 for each model of the different slave cameras 3. .

操作部23は、例えば、キーボードスイッチやポインティングデバイス等の情報入力装置により構成されている。表示部24は、例えば、モニタディスプレイ等の情報出力装置により構成されている。第1の入出力部25は、データ集約装置4と接続されており、データ集約装置4から送信されるVRデータの受信や各種コマンドの送受信等を行う。第2の入出力部26は、駆動装置6と接続されており、駆動データ(後述)の送信や各種コマンドの送受信等を行う。   The operation unit 23 is configured by an information input device such as a keyboard switch or a pointing device, for example. The display unit 24 is configured by an information output device such as a monitor display, for example. The first input / output unit 25 is connected to the data aggregation device 4 and performs reception of VR data transmitted from the data aggregation device 4, transmission / reception of various commands, and the like. The second input / output unit 26 is connected to the driving device 6 and performs transmission of driving data (described later), transmission / reception of various commands, and the like.

この場合、CPU21は、第1の入出力部25において、データ集約装置4から送信されたVRデータを受信すると、制御プログラム31を実行することにより、例えば、VRデータをメモリ22に格納する。続いて、CPU21は、データ変換プログラム32を実行することにより、メモリ22に格納されたVRデータを、第1〜第3のパラメータに分解する。続いて、CPU21は、所定の変換式(後述)を用いて、第1及び第2のパラメータをスレーブカメラ3に対応する適切な画角、合焦距離を表す第1の駆動パラメータ、及び適切な回転角、仰角を表す第2の駆動パラメータに変換し、第3のパラメータをスレーブカメラ3に対応する適切な移動量を表す第3の駆動パラメータに変換する。なお、第1のパラメータのうち、画角及び第3のパラメータについては、所定の変換式によっては変換されずに、そのまま第1の駆動パラメータ及び第3の駆動パラメータとなる。   In this case, when the first input / output unit 25 receives the VR data transmitted from the data aggregation device 4, the CPU 21 stores the VR data in the memory 22 by executing the control program 31, for example. Subsequently, the CPU 21 decomposes the VR data stored in the memory 22 into first to third parameters by executing the data conversion program 32. Subsequently, the CPU 21 uses a predetermined conversion formula (described later) to convert the first and second parameters into an appropriate angle of view corresponding to the slave camera 3, a first drive parameter representing the in-focus distance, and an appropriate It converts into the 2nd drive parameter showing a rotation angle and an elevation angle, and converts the 3rd parameter into the 3rd drive parameter showing the suitable amount of movement corresponding to slave camera 3. Of the first parameters, the angle of view and the third parameter are not converted by a predetermined conversion formula, but are used as they are as the first drive parameter and the third drive parameter.

続いて、CPU21は、マスターカメラ2とスレーブカメラ3の機種が異なる場合には、データ変換テーブル33を用いて、機種の異なるスレーブカメラ3に対応するように第1の駆動パラメータ及び第3の駆動パラメータを変換する。そして、CPU21は、制御プログラム31を実行することにより、変換した第1〜第3の駆動パラメータを駆動データとして、駆動データを第2の入出力部26を介して対応するスレーブカメラ3の駆動装置6に送信する。   Subsequently, when the models of the master camera 2 and the slave camera 3 are different, the CPU 21 uses the data conversion table 33 to correspond to the first drive parameter and the third drive so as to correspond to the slave camera 3 of a different model. Convert parameters. Then, the CPU 21 executes the control program 31 to use the converted first to third driving parameters as driving data, and the driving data to the corresponding driving device of the slave camera 3 via the second input / output unit 26. 6 to send.

図1に戻り、駆動装置6は、CPU、メモリ及び通信インタフェースが内部バス等を介して接続されることにより構成されている。また、駆動装置6は、スレーブカメラ3のスレーブカメラ部における撮像部のレンズを駆動させる第1のサーボ機構、スレーブカメラ3のスレーブカメラ部を上下左右方向に駆動させる第2のサーボ機構及びスレーブカメラ3の雲台の高さを変化させ、雲台を前後左右方向に駆動させる第3のサーボ機構を有している。   Returning to FIG. 1, the driving device 6 is configured by connecting a CPU, a memory, and a communication interface via an internal bus or the like. The driving device 6 includes a first servo mechanism that drives the lens of the imaging unit in the slave camera unit of the slave camera 3, a second servo mechanism that drives the slave camera unit of the slave camera 3 in the vertical and horizontal directions, and the slave camera. 3 has a third servo mechanism for changing the height of the pan head 3 and driving the pan head in the front-rear and left-right directions.

駆動装置6は、データ変換装置5の出力するデータと、スレーブカメラ3のレンズ、雲台及びペデスタルとのインタフェース機器であって、受信したデータを、それぞれのスレーブカメラ3に向けた適切な動作コマンドに変換して、レンズや雲台及びペデスタルを適切に動作させる。また、駆動装置6は、必要に応じてスレーブカメラ3の動作状況や結果をそれぞれのレンズや雲台から収集し、データ変換装置5に送信する。   The drive device 6 is an interface device for the data output from the data conversion device 5 and the lens, pan head, and pedestal of the slave camera 3, and the received data is sent to the slave camera 3 as appropriate operation commands. To properly operate the lens, pan head and pedestal. Further, the driving device 6 collects the operation status and results of the slave camera 3 from the respective lenses and the pan head as necessary, and transmits the collected data to the data conversion device 5.

この場合、駆動装置6のCPUは、通信インタフェースにおいて、データ変換装置5から送信された駆動データを受信すると、例えば、駆動データをメモリに格納する。続いて、駆動装置6のCPUは、メモリに格納された駆動データを、第1〜第3の駆動パラメータに分解する。   In this case, when the CPU of the drive device 6 receives the drive data transmitted from the data conversion device 5 through the communication interface, for example, the drive data is stored in the memory. Subsequently, the CPU of the drive device 6 decomposes the drive data stored in the memory into first to third drive parameters.

そして、駆動装置6のCPUは、第1の駆動パラメータに基づいて第1のサーボ機構を駆動させる。これにより、スレーブカメラ3は、マスターカメラ2において操作されたマスターカメラ部2Aの撮影部のズーム操作に対応する画角、及びフォーカス操作に対応する合焦距離と、マスターカメラ2において操作された、マスターカメラ部2Aの光軸の左右方向及び上下方向に関する移動操作に対応する回転角及び仰角を所定の変換式(後述)を用いて変換した分だけ、スレーブカメラ部の撮影部のレンズを動作する。   Then, the CPU of the driving device 6 drives the first servo mechanism based on the first driving parameter. As a result, the slave camera 3 is operated in the master camera 2 and the angle of view corresponding to the zoom operation of the photographing unit of the master camera unit 2A operated in the master camera 2 and the in-focus distance corresponding to the focus operation. The lens of the imaging unit of the slave camera unit is operated by an amount corresponding to the rotation angle and elevation angle corresponding to the movement operation of the optical axis of the master camera unit 2A in the horizontal direction and vertical direction using a predetermined conversion formula (described later). .

また、駆動装置6のCPUは、第2の駆動パラメータに基づいて第2のサーボ機構を駆動させる。これにより、スレーブカメラ3は、マスターカメラ2において操作された、マスターカメラ部2Aの光軸の左右方向及び上下方向に関する移動操作に対応する回転角及び仰角と、マスターカメラ部2Aの撮影部のフォーカス操作に対応する合焦距離を所定の変換式(後述)を用いて変換した分だけ、スレーブカメラ3の雲台を動作する。   In addition, the CPU of the driving device 6 drives the second servo mechanism based on the second driving parameter. Thereby, the slave camera 3 operates in the master camera 2, and the rotation angle and the elevation angle corresponding to the movement operation in the horizontal direction and the vertical direction of the optical axis of the master camera unit 2A, and the focus of the photographing unit of the master camera unit 2A. The head of the slave camera 3 is operated by the amount corresponding to the in-focus distance corresponding to the operation converted using a predetermined conversion formula (described later).

さらに、駆動装置6のCPUは、第3の駆動パラメータに基づいて第3のサーボ機構を駆動させる。これにより、スレーブカメラ3は、マスターカメラ2において操作された雲台の高さ及び前後左右方向の移動操作に対応する水平移動距離の分だけ、スレーブカメラ3のペデスタルを動作する。   Further, the CPU of the driving device 6 drives the third servo mechanism based on the third driving parameter. As a result, the slave camera 3 operates the pedestal of the slave camera 3 by the height of the camera platform operated in the master camera 2 and the horizontal movement distance corresponding to the moving operation in the front-rear and left-right directions.

図4は、マスターカメラ2における操作に基づいて動作するスレーブカメラ3の原理について説明する。例として、初期設定においてマスターカメラ2及びスレーブカメラ3は、被写体Tの方向に対してマスターカメラ2及びスレーブカメラ3の光軸が平行となるように配置されている。また、マスターカメラ2及びスレーブカメラ3は、同一水平面上に、それぞれの光軸が水平、かつふたつのカメラの回転中心を結ぶ線に対して直角となるように配置されている。さらに、マスターカメラ2及びスレーブカメラ3は、当該マスターカメラ2及びスレーブカメラ3が間隔dとなるように配置されている。なお、間隔dは、初期設定においてマスターカメラから前方に向かう光軸に対して右方向を+とし、左方向を−とする。   FIG. 4 explains the principle of the slave camera 3 that operates based on the operation in the master camera 2. As an example, in the initial setting, the master camera 2 and the slave camera 3 are arranged so that the optical axes of the master camera 2 and the slave camera 3 are parallel to the direction of the subject T. The master camera 2 and the slave camera 3 are arranged on the same horizontal plane so that their optical axes are horizontal and perpendicular to a line connecting the rotation centers of the two cameras. Further, the master camera 2 and the slave camera 3 are arranged so that the master camera 2 and the slave camera 3 are spaced from each other. As for the distance d, in the initial setting, the right direction is set to + and the left direction is set to − with respect to the optical axis forward from the master camera.

このときのマスターカメラ2及びスレーブカメラ3の回転角を0(rad)として、この光軸の方向に対して右(時計回り)方向を+とし、左(反時計回り)方向を−とする。また、このときのマスターカメラ2及びスレーブカメラ3の仰角を0(rad)として、紙面の垂直方向に対して上方向を+方向とし、下方向を−方向とする。また、マスターカメラ2の被写体T方向の回転角をα(rad)とし、スレーブカメラ3の被写体T方向の回転角をβ(rad)とする。   The rotation angle of the master camera 2 and the slave camera 3 at this time is 0 (rad), the right (clockwise) direction is + and the left (counterclockwise) direction is − with respect to the direction of the optical axis. Further, the elevation angle of the master camera 2 and the slave camera 3 at this time is set to 0 (rad), the upward direction with respect to the vertical direction of the paper surface is the + direction, and the downward direction is the − direction. Further, the rotation angle of the master camera 2 in the subject T direction is α (rad), and the rotation angle of the slave camera 3 in the subject T direction is β (rad).

さらに、マスターカメラ2の被写体T方向の仰角をγm(rad)とし、スレーブカメラ3の被写体T方向の仰角をγs(rad)とする。さらに、マスターカメラ2及びスレーブカメラ3が前方画面中央に被写体Tを捉えたときの被写体Tとの距離は、合焦距離と同値とし、マスターカメラ2と被写体Tとの距離をLmとし、スレーブカメラ3と被写体Tとの距離をLsとする。   Further, the elevation angle of the master camera 2 in the subject T direction is γm (rad), and the elevation angle of the slave camera 3 in the subject T direction is γs (rad). Further, when the master camera 2 and the slave camera 3 capture the subject T at the center of the front screen, the distance from the subject T is the same as the in-focus distance, the distance between the master camera 2 and the subject T is Lm, and the slave camera 3 is a distance between the subject T and Ls.

ここで、データ変換装置5を同期動作の状態に遷移して、人間による通常の動画像撮影操作(カメラワーク)によりマスターカメラ2の前方画面中央に被写体Tを捉えた場合には、スレーブカメラ3は、データ変換装置5のデータ変換プログラム32における下記(1)〜(3)の変換式に基づく駆動データに従って、マスターカメラ2に同期して動作し、スレーブカメラ3の前方画面中央に被写体Tを捉えることができる。   Here, when the data conversion device 5 is changed to the synchronous operation state and the subject T is captured at the center of the front screen of the master camera 2 by a normal moving image shooting operation (camera work) by a human, the slave camera 3 Operates in synchronization with the master camera 2 in accordance with drive data based on the following conversion formulas (1) to (3) in the data conversion program 32 of the data conversion device 5, and places the subject T at the center of the front screen of the slave camera 3. Can be caught.

すなわち、スレーブカメラ3の回転角(β(rad))、仰角(γs(rad))及び合焦距離(Ls)は、マスターカメラ2及びスレーブカメラ3の間隔dが設定されている場合には、マスターカメラ2の回転角(α(rad))、仰角(γm(rad))及び合焦距離(Lm)に基づいて算出することができることとなる。   That is, the rotation angle (β (rad)), elevation angle (γs (rad)), and focusing distance (Ls) of the slave camera 3 are set when the distance d between the master camera 2 and the slave camera 3 is set. It can be calculated based on the rotation angle (α (rad)), elevation angle (γm (rad)) and focus distance (Lm) of the master camera 2.

具体的な計算式について説明すると、まず、スレーブカメラ3の回転角β(rad)の算出については、図3より、(4)及び(5)を導き出すことができる。   A specific calculation formula will be described. First, regarding the calculation of the rotation angle β (rad) of the slave camera 3, (4) and (5) can be derived from FIG.

また、マスターカメラ2及びスレーブカメラ3の被写体Tに対する高さは同一であるため、(6)を導き出すことができる。   Further, since the height of the master camera 2 and the slave camera 3 with respect to the subject T is the same, (6) can be derived.

さらに、(4)に基づいて(7)を導き出すことができ、(5)に基づいて(8)を導き出すことができる。   Furthermore, (7) can be derived based on (4), and (8) can be derived based on (5).

従って、(7)及び(8)に基づいて(9)を導き出すことができ、(9)に基づいて(10)を導き出すことができる。   Therefore, (9) can be derived based on (7) and (8), and (10) can be derived based on (9).

また、図3より、(11)を導き出すことができるため、(11)を(10)に代入する。これにより、スレーブカメラ3の回転角β(rad)である(1)の変換式を導き出すことができる。   Moreover, since (11) can be derived from FIG. 3, (11) is substituted into (10). Thereby, the conversion formula of (1) which is the rotation angle β (rad) of the slave camera 3 can be derived.

次に、スレーブカメラ3の仰角γs(rad)の算出については、図3より、(12)及び(13)を導き出すことができるため、(12)及び(13)を(8)に代入することにより、(14)を導き出すことができる。   Next, regarding the calculation of the elevation angle γs (rad) of the slave camera 3, since (12) and (13) can be derived from FIG. 3, (12) and (13) are substituted into (8). Thus, (14) can be derived.

また、マスターカメラ2及びスレーブカメラ3の被写体Tに対する高さは同一であるため、(6)に基づいて(15)を導き出すことができる。   Further, since the height of the master camera 2 and the slave camera 3 with respect to the subject T is the same, (15) can be derived based on (6).

そして、(15)を(14)に代入して、両辺をLmで除算することにより、(16)を導き出すことができる。これにより、スレーブカメラ3の仰角γs(rad)である(2)の変換式を導き出すことができる。   Then, (16) can be derived by substituting (15) into (14) and dividing both sides by Lm. Thereby, the conversion formula of (2) which is the elevation angle γs (rad) of the slave camera 3 can be derived.

次に、スレーブカメラ3の合焦距離(Ls)の算出については、(6)及び(16)に基づいて導き出すことができる。これにより、スレーブカメラ3の合焦距離(Ls)である(3)の変換式を導き出すことができる。   Next, the calculation of the focusing distance (Ls) of the slave camera 3 can be derived based on (6) and (16). Thereby, the conversion formula of (3) which is the focusing distance (Ls) of the slave camera 3 can be derived.

このようにして、カメラシステム1では、マスターカメラ2の回転角、マスターカメラ2の仰角及びマスターカメラ2と被写体Tとの合焦距離に基づく第1〜第2のパラメータ並びにマスターカメラ2とスレーブカメラ3との距離dに基づいて、スレーブカメラ3の回転角、スレーブカメラ3の仰角及びスレーブカメラ3と被写体Tとの合焦距離を算出して、スレーブカメラ3の回転角、スレーブカメラ3の仰角及びスレーブカメラ3と被写体Tとの合焦距離に基づく駆動パラメータに変換する。   Thus, in the camera system 1, the first and second parameters based on the rotation angle of the master camera 2, the elevation angle of the master camera 2, the focusing distance between the master camera 2 and the subject T, and the master camera 2 and the slave camera. 3, the rotation angle of the slave camera 3, the elevation angle of the slave camera 3, and the focusing distance between the slave camera 3 and the subject T are calculated, and the rotation angle of the slave camera 3 and the elevation angle of the slave camera 3 are calculated. And it converts into the drive parameter based on the focusing distance of the slave camera 3 and the to-be-photographed object T.

図5は、このカメラシステム1におけるデータ変換装置5のデータ変換処理に関する、データ変換装置5のCPU21の具体的な処理手順を示したフローチャートの一例である。   FIG. 5 is an example of a flowchart showing a specific processing procedure of the CPU 21 of the data conversion device 5 regarding the data conversion processing of the data conversion device 5 in the camera system 1.

データ変換装置5のCPU21は、当該データ変換装置5の電源がオンになると、制御プログラム31を実行することにより、図4に示すデータ変換処理手順RT1に従って、マスターカメラ2及びスレーブカメラ3の初期設定を行う(SP1)。   When the power of the data conversion device 5 is turned on, the CPU 21 of the data conversion device 5 executes the control program 31 to initialize the master camera 2 and the slave camera 3 according to the data conversion processing procedure RT1 shown in FIG. (SP1).

この場合、データ変換装置5のCPU21は、まず、操作部23が操作されることにより、マスターカメラ2及びスレーブカメラ3の初期設定モードが選択されるのを待機モードで待ち受ける。そして、データ変換装置5のCPU21は、初期設定モードが選択されると、操作部23が操作されることにより、マスターカメラ2及びスレーブカメラ3の間隔dが入力されるのを待機モードで待ち受ける。   In this case, the CPU 21 of the data conversion apparatus 5 first waits in the standby mode to select the initial setting mode of the master camera 2 and the slave camera 3 by operating the operation unit 23. When the initial setting mode is selected, the CPU 21 of the data conversion device 5 waits in the standby mode for the interval d between the master camera 2 and the slave camera 3 to be input by operating the operation unit 23.

そして、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3の間隔dが入力されると、上述の図3のように、マスターカメラ2及びスレーブカメラ3が初期設定位置に配置され、操作部23が操作されることにより、その旨が通知されるのを待機モードで待ち受ける。すなわち、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3が、被写体Tに対してマスターカメラ2及びスレーブカメラ3の光軸が平行に向かうように配置され、また、同一水平面上に、マスターカメラ2及びスレーブカメラ3の光軸が水平、かつふたつのカメラの回転中心を結ぶ線に対して直角となるように配置され、操作部23が操作されることにより、その旨が通知されるのを待機モードで待ち受ける。   Then, when the interval d between the master camera 2 and the slave camera 3 is input, the CPU 21 of the data conversion device 5 places the master camera 2 and the slave camera 3 at the initial setting positions as shown in FIG. When the unit 23 is operated, it waits in the standby mode for notification to that effect. That is, the CPU 21 of the data conversion device 5 is arranged such that the master camera 2 and the slave camera 3 are oriented so that the optical axes of the master camera 2 and the slave camera 3 are parallel to the subject T, and on the same horizontal plane. The master camera 2 and the slave camera 3 are arranged so that the optical axes thereof are horizontal and perpendicular to the line connecting the rotation centers of the two cameras, and the operation unit 23 is operated to notify that effect. Wait in the standby mode.

続いて、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3が初期設定位置に配置され、操作部23が操作されることにより、その旨が通知されると、マスターカメラ2に対して、現在のマスターカメラ部2Aの回転角、及び雲台2Bの位置に関するパラメータを問い合わせると共に、スレーブカメラ3に対して、現在のスレーブカメラ部の回転角、及び雲台の位置に関するパラメータを問い合わせる。   Subsequently, when the master camera 2 and the slave camera 3 are arranged at the initial setting positions and the operation unit 23 is operated, the CPU 21 of the data conversion device 5 notifies the master camera 2 of that fact. Inquiries about the current rotation angle of the master camera unit 2A and the parameters relating to the position of the camera platform 2B are made, and the slave camera 3 is inquired about the parameters related to the current rotation angle of the slave camera unit and the position of the camera platform.

続いて、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3の回転角、及び雲台の位置に関するパラメータを受信すると、当該パラメータを初期位置に設定する。なお、仰角の初期位置は、0(rad)である。   Subsequently, when the CPU 21 of the data conversion device 5 receives parameters relating to the rotation angles of the master camera 2 and the slave camera 3 and the position of the camera platform, the CPU 21 sets the parameters to the initial position. Note that the initial position of the elevation angle is 0 (rad).

続いて、データ変換装置5のCPU21は、操作部23が操作されることにより、マスターカメラ2及びスレーブカメラ3の同期モードが選択されるのを待機モードで待ち受ける(SP2)。そして、データ変換装置5のCPU21は、操作部23が操作されることにより、マスターカメラ2及びスレーブカメラ3の同期モードが選択されると(SP2:YES)、当該マスターカメラ2からVRデータを受信するのを待機モードで待ち受ける(SP3)。   Subsequently, the CPU 21 of the data conversion device 5 waits in the standby mode to select the synchronization mode of the master camera 2 and the slave camera 3 by operating the operation unit 23 (SP2). The CPU 21 of the data conversion device 5 receives the VR data from the master camera 2 when the synchronization mode of the master camera 2 and the slave camera 3 is selected by operating the operation unit 23 (SP2: YES). Waiting in the standby mode (SP3).

そして、データ変換装置5のCPU21は、マスターカメラ2からVRデータを受信すると(SP3:YES)、データ変換プログラム32を実行することにより、図3に示した変換式(1)〜(3)を用いて、VRデータを第1〜第3のパラメータに分解し、第1〜第3のパラメータをスレーブカメラ3に対応する第1〜第3の駆動パラメータに変換する(SP4)。   When the CPU 21 of the data converter 5 receives the VR data from the master camera 2 (SP3: YES), the data conversion program 32 is executed to obtain the conversion equations (1) to (3) shown in FIG. The VR data is decomposed into first to third parameters, and the first to third parameters are converted into first to third drive parameters corresponding to the slave camera 3 (SP4).

続いて、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3の機種が同一であるか否かをチェックする(SP5)。そして、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3の機種が同一でない場合(SP5:NO)には、データ変換テーブル33を用いて、機種の異なるスレーブカメラ3に対応するように第1の駆動パラメータを変換する(SP5)。これに対して、データ変換装置5のCPU21は、マスターカメラ2及びスレーブカメラ3の機種が同一である場合(SP5:YES)には、ステップSP7に進む。   Subsequently, the CPU 21 of the data conversion device 5 checks whether the models of the master camera 2 and the slave camera 3 are the same (SP5). Then, when the models of the master camera 2 and the slave camera 3 are not the same (SP5: NO), the CPU 21 of the data conversion device 5 uses the data conversion table 33 to cope with the slave cameras 3 of different models. The first drive parameter is converted (SP5). In contrast, if the models of the master camera 2 and the slave camera 3 are the same (SP5: YES), the CPU 21 of the data conversion device 5 proceeds to step SP7.

続いて、データ変換装置5のCPU21は、制御プログラム31を実行することにより、変換した第1〜第3の駆動パラメータを駆動データとして、駆動データを第2の入出力部26を介して対応するスレーブカメラ3の駆動装置6に送信し(SP7)、この後、ステップSP3に戻り、マスターカメラ2に対してパン、チルト、フォーカス、トリミング等の操作がされることにより変化する、又は変化しないパラメータを含むVRデータを受信し、この後、ステップSP4〜ステップSP7の処理を繰り返す。   Subsequently, the CPU 21 of the data conversion device 5 executes the control program 31 to correspond to the converted drive data via the second input / output unit 26 using the converted first to third drive parameters as drive data. A parameter that is transmitted to the driving device 6 of the slave camera 3 (SP7), and then returns to step SP3, and changes or does not change when the master camera 2 is operated such as pan, tilt, focus, and trimming. After that, the processing of steps SP4 to SP7 is repeated.

このようにして、第1の実施の形態によるカメラシステム1では、マスターカメラ2において、動画像を撮影すると共に、外部からの操作(カメラワーク)による結果である第1〜第3のパラメータを検出し、スレーブカメラ3において、動画像を撮影すると共に、マスターカメラ2における外部からの操作に応じて、データ集約装置4において、マスターカメラ2により検出された第1〜第3のパラメータをVRデータとして集約し、データ変換装置5において、データ集約装置4により集約されたVRデータを、スレーブカメラ3ごとの適切な形式の第1〜第3の駆動パラメータに変換して、駆動データとして、対応する駆動装置6に転送し、駆動装置において、データ変換装置5から転送された駆動データに基づいて、スレーブカメラ3を駆動させる。   In this manner, in the camera system 1 according to the first embodiment, the master camera 2 captures a moving image and detects the first to third parameters that are the result of an external operation (camera work). The slave camera 3 captures a moving image, and the first to third parameters detected by the master camera 2 in the data aggregation device 4 as VR data in response to an external operation on the master camera 2. In the data converter 5, the VR data aggregated by the data aggregator 4 is converted into first to third driving parameters in an appropriate format for each slave camera 3, and the corresponding driving is performed as driving data. Slave camera based on the drive data transferred to the device 6 and transferred from the data converter 5 in the drive device To drive the.

従って、第1の実施の形態によるカメラシステム1では、スレーブカメラ3について人間が直接操作することなく、また、いわゆるリモコンカメラの機械的な動作ではなく、マスターカメラ2における、人間が行う通常カメラ操作(カメラワーク)に基づいてスレーブカメラ3をマスターカメラ2と同期して動作させることができ、マスターカメラ2の操作による自然な動画像の表現を、スレーブカメラ3の撮影する動画像、及び合成動画像の全域に対してリアルタイムで反映させることができる。   Therefore, in the camera system 1 according to the first embodiment, a human does not directly operate the slave camera 3 and is not a mechanical operation of a so-called remote control camera, but a normal camera operation performed by a human in the master camera 2. The slave camera 3 can be operated in synchronization with the master camera 2 based on (camera work), and a natural moving image expressed by the operation of the master camera 2 is represented by a moving image captured by the slave camera 3 and a synthesized moving image. It can be reflected in real time over the entire area of the image.

また、第1の実施の形態によるカメラシステム1では、マスターカメラ2及びスレーブカメラ3の位置関係を自由に設定することができるため、マスターカメラ2の操作によって、距離をおいて配置したスレーブカメラ3においても同時に違った角度から被写体Tを撮影でき、マスターカメラ2と同様に大幅なズーミング動作等さまざまな表現手法をすることができる。   Further, in the camera system 1 according to the first embodiment, the positional relationship between the master camera 2 and the slave camera 3 can be freely set, so that the slave camera 3 arranged at a distance by the operation of the master camera 2. At the same time, the subject T can be photographed from different angles, and various expression methods such as a large zooming operation can be performed similarly to the master camera 2.

なお、このようにして撮影された動画像は、マスターカメラ2のものは通常動画像として、またスレーブカメラ3のものは多視点動画像として組み合わせたり、立体動画像を生成する素材として使用することができる。   The moving images shot in this way should be combined as a normal moving image for the master camera 2 and as a multi-view moving image for the slave camera 3 or used as a material for generating a stereoscopic moving image. Can do.

(2)第2の実施の形態
図6は、第2の実施の形態によるカメラシステム1の構成の一例を示している。第2の実施の形態によるカメラシステム1は、マスターカメラ2に対して、例えば、右目用のスレーブカメラであるスレーブカメラ3R及び左目用のスレーブカメラであるスレーブカメラ3L並びにスレーブカメラ3Rを駆動させる駆動装置6R及びスレーブカメラ3Lを駆動させる駆動装置6Lが接続されて構成されている点を除いて、第1の実施の形態によるカメラシステム1と同様に構成されている。
(2) Second Embodiment FIG. 6 shows an example of the configuration of a camera system 1 according to the second embodiment. The camera system 1 according to the second embodiment drives the master camera 2 to drive, for example, a slave camera 3R that is a slave camera for the right eye, a slave camera 3L that is a slave camera for the left eye, and the slave camera 3R. The configuration is the same as that of the camera system 1 according to the first embodiment, except that the device 6R and the driving device 6L for driving the slave camera 3L are connected.

第2の実施の形態によるカメラシステム1では、マスターカメラ2がスレーブカメラ3R及びスレーブカメラ3L間に配置されている。すなわち、スレーブカメラ3R及びスレーブカメラ3Lは、マスターカメラ2とそれぞれ所定の間隔dを保って配置されており、それぞれ被写体Tを撮影する。   In the camera system 1 according to the second embodiment, the master camera 2 is disposed between the slave camera 3R and the slave camera 3L. That is, the slave camera 3R and the slave camera 3L are arranged with a predetermined distance d from the master camera 2, respectively, and each shoots the subject T.

また、第2の実施の形態によるカメラシステム1では、動画像合成装置において、スレーブカメラ3Rの撮影した第3の動画像信号とスレーブカメラ3Lの撮影した動画像に基づく第4の動画像信号との合成動画像信号(立体動画像信号)を作成して、マスターカメラ2に送信する。これにより、第2の実施の形態によるカメラシステム1では、マスターカメラ2において当該合成動画像信号に基づく合成動画像(立体動画像)や個々の動画像を表示することができる。   In the camera system 1 according to the second embodiment, in the moving image synthesizing apparatus, the third moving image signal captured by the slave camera 3R and the fourth moving image signal based on the moving image captured by the slave camera 3L The synthesized moving image signal (stereoscopic moving image signal) is generated and transmitted to the master camera 2. Thereby, in the camera system 1 according to the second embodiment, the master camera 2 can display a synthesized moving image (stereoscopic moving image) and individual moving images based on the synthesized moving image signal.

さらに、第2の実施の形態によるカメラシステム1では、マスターカメラ2及びスレーブカメラ3Rの初期設定を行うと共に、マスターカメラ2及びスレーブカメラ3Lの初期設定を行う。これにより、スレーブカメラ3R及びスレーブカメラ3Lは、人間による通常の動画像撮影操作(カメラワーク)によりマスターカメラ2の前方画面中央に被写体Tを捉えた場合には、データ変換装置5のデータ変換プログラム32における上記(1)〜(3)の変換式に基づく駆動データに従って、マスターカメラ2に同期して動作し、スレーブカメラ3R及びスレーブカメラ3Lの前方画面中央に被写体Tを捉えることができる。また、この初期設定において、間隔dを実際のカメラ間隔とは異なる数値に設定することにより、スレーブカメラ3R及びスレーブカメラ3Lの前方画面に被写体Tを捉える位置を調整することが可能であり、幅の広いステレオ表現を実現することができる。   Further, in the camera system 1 according to the second embodiment, initial settings of the master camera 2 and the slave camera 3R are performed, and initial settings of the master camera 2 and the slave camera 3L are performed. Thus, when the slave camera 3R and the slave camera 3L capture the subject T in the center of the front screen of the master camera 2 by a normal moving image shooting operation (camera work) by a human, the data conversion program of the data conversion device 5 According to the drive data based on the conversion formulas (1) to (3) in FIG. 32, the subject T operates in synchronization with the master camera 2 and can capture the subject T at the center of the front screen of the slave camera 3R and the slave camera 3L. In this initial setting, by setting the interval d to a value different from the actual camera interval, the position where the subject T is captured on the front screen of the slave camera 3R and the slave camera 3L can be adjusted. A wide stereo expression can be realized.

このようにして、マスターカメラ2とスレーブカメラ3とを同期して動作させる場合には若干の遅延が生じる場合があるが、第2の実施の形態によるカメラシステム1では、マスターカメラ2を介して2台のスレーブカメラ3R及びスレーブカメラ3Lを、スレーブカメラ同士の遅延なしに同期して動作させることができるため、マスターカメラ2による自然な動画像の表現を、スレーブカメラ3R及びスレーブカメラ3Lによる合成動画像(立体動画像)の全域に対してリアルタイムで反映させることができる。   In this way, a slight delay may occur when the master camera 2 and the slave camera 3 are operated in synchronization. In the camera system 1 according to the second embodiment, the master camera 2 and the slave camera 3 are operated via the master camera 2. Since the two slave cameras 3R and 3L can be operated in synchronization with each other without any delay between the slave cameras, a natural moving image expression by the master camera 2 can be synthesized by the slave camera 3R and the slave camera 3L. It can be reflected in real time over the entire moving image (stereoscopic moving image).

(3)第3の実施の形態
図7は、第3の実施の形態によるカメラシステム1の構成の一例を示している。第3の実施の形態によるカメラシステム1は、マスターカメラ2に対して、例えば、4つのスレーブカメラ3A〜3D及び4つのスレーブカメラ3A〜3Dを駆動させる駆動装置6A〜6Dが接続されて構成されている点を除いて、第1の実施の形態によるカメラシステム1と同様に構成されている。
(3) Third Embodiment FIG. 7 shows an example of the configuration of a camera system 1 according to the third embodiment. The camera system 1 according to the third embodiment is configured by connecting, for example, four slave cameras 3A to 3D and driving devices 6A to 6D for driving the four slave cameras 3A to 3D to the master camera 2. Except for this point, it is configured in the same manner as the camera system 1 according to the first embodiment.

第3の実施の形態によるカメラシステム1では、マスターカメラ2及びスレーブカメラ3A〜3Dが被写体Tを取り囲むようにして配置されている。すなわち、スレーブカメラ3A〜3Dは、マスターカメラ2とそれぞれ所定の間隔d1〜d4を保って配置されており、それぞれ被写体Tを撮影する。   In the camera system 1 according to the third embodiment, the master camera 2 and the slave cameras 3A to 3D are arranged so as to surround the subject T. That is, the slave cameras 3 </ b> A to 3 </ b> D are arranged with predetermined intervals d <b> 1 to d <b> 4 from the master camera 2, respectively, and shoot the subject T, respectively.

また、第3の実施の形態によるカメラシステム1では、動画像合成装置において、スレーブカメラ3A〜3Dの撮影した個々の動画像信号の合成動画像信号(立体動画像信号)を作成して、マスターカメラ2に送信する。これにより、第3の実施の形態によるカメラシステム1では、マスターカメラ2において当該合成動画像信号に基づく合成動画像(立体動画像)や個々の動画像信号を表示することができる。   Further, in the camera system 1 according to the third embodiment, the moving image synthesizing apparatus creates a synthesized moving image signal (stereoscopic moving image signal) of individual moving image signals photographed by the slave cameras 3A to 3D, and performs master processing. Send to the camera 2. Thereby, in the camera system 1 according to the third embodiment, the master camera 2 can display a synthesized moving image (stereoscopic moving image) and individual moving image signals based on the synthesized moving image signal.

さらに、第3の実施の形態によるカメラシステム1では、マスターカメラ2と各スレーブカメラ3A〜3Dとに対して個々に初期設定を行う。これにより、スレーブカメラ3A〜3Dは、人間による通常の動画像撮影操作(カメラワーク)によりマスターカメラ2の前方画面中央に被写体Tを捉えた場合には、データ変換装置5のデータ変換プログラム32における上記(1)〜(3)の変換式に基づく駆動データに従って、マスターカメラ2に同期して動作し、スレーブカメラ3A〜3Dの前方画面中央に被写体Tを捉えることができる。   Furthermore, in the camera system 1 according to the third embodiment, initial setting is individually made for the master camera 2 and each of the slave cameras 3A to 3D. As a result, when the slave cameras 3A to 3D capture the subject T in the center of the front screen of the master camera 2 by a normal moving image shooting operation (camera work) by a human, the data conversion program 32 of the data conversion device 5 According to the drive data based on the conversion formulas (1) to (3) above, the subject T operates in synchronization with the master camera 2, and the subject T can be captured at the center of the front screen of the slave cameras 3A to 3D.

このようにして、第3の実施の形態によるカメラシステム1では、マスターカメラ2及びスレーブカメラ3A〜3Dの位置関係を自由に設定することができるため、いわゆる多視点立体動画像撮影においても、例えば、大幅なズーミング動作等さまざまな表現手法をすることができる。   As described above, in the camera system 1 according to the third embodiment, the positional relationship between the master camera 2 and the slave cameras 3A to 3D can be freely set. Various expression methods such as a large zooming operation can be performed.

(4)第4の実施の形態
図8は、第4の実施の形態によるカメラシステム1の構成の一例を示している。第4の実施の形態によるカメラシステム1は、スレーブカメラ2が、例えば、遠隔の他の地点に配置されている点を除いて、第1の実施の形態によるカメラシステム1と同様に構成されている。
(4) Fourth Embodiment FIG. 8 shows an example of the configuration of a camera system 1 according to the fourth embodiment. The camera system 1 according to the fourth embodiment is configured in the same manner as the camera system 1 according to the first embodiment, except that the slave camera 2 is disposed at another remote location, for example. Yes.

第4の実施の形態によるカメラシステム1では、マスターカメラ2及びスレーブカメラ3の間隔であるdを“0”に設定する(d=0)。これにより、上述の(1)〜(16)については、α=β、γs=γm、Ls=Lmとなり、マスターカメラ2及びスレーブカメラ3は、全く同一の動作、すなわち、一致した動作をすることとなる。このため、第4の実施の形態によるカメラシステム1では、スレーブカメラ3がマスターカメラ2の動作を複製することにより、スレーブカメラ3に対してマスターカメラ2と同期した、一致した動作をさせることができ、例えば、リアルタイムに動画像を合成することができる。   In the camera system 1 according to the fourth embodiment, d that is an interval between the master camera 2 and the slave camera 3 is set to “0” (d = 0). As a result, for the above (1) to (16), α = β, γs = γm, and Ls = Lm, and the master camera 2 and the slave camera 3 perform exactly the same operation, that is, the same operation. It becomes. For this reason, in the camera system 1 according to the fourth embodiment, the slave camera 3 can duplicate the operation of the master camera 2 to cause the slave camera 3 to perform a matching operation synchronized with the master camera 2. For example, a moving image can be synthesized in real time.

なお、マスターカメラ2の合焦距離を“無限大”とした場合(Lm=∞)にも、α=β、γs=γm、Ls=Lm(=∞)となり、マスターカメラ2及びスレーブカメラ3は、全く同一の動作をすることとなる。   Even when the in-focus distance of the master camera 2 is “infinity” (Lm = ∞), α = β, γs = γm, Ls = Lm (= ∞), and the master camera 2 and the slave camera 3 are The same operation will be performed.

また、第4の実施の形態によるカメラシステム1では、例えば、マスターカメラ2が被写体T1を撮影すると共に、遠隔の他の地点に配置されているスレーブカメラ2が被写体T2を撮影する。そして、第4の実施の形態によるカメラシステム1では、動画像合成装置において、マスターカメラ2の撮影した第1の動画像信号とスレーブカメラ3の撮影した動画像に基づく第2の動画像信号との合成動画像信号を、クロマキー等の電気的処理によるはめ込み合成の手法により作成して、マスターカメラ2に送信する。これにより、第4の実施の形態によるカメラシステム1では、マスターカメラ2において当該合成動画像信号に基づく合成動画像を表示することができる。   In the camera system 1 according to the fourth embodiment, for example, the master camera 2 captures the subject T1, and the slave camera 2 arranged at another remote location captures the subject T2. In the camera system 1 according to the fourth embodiment, in the moving image synthesizing apparatus, the first moving image signal captured by the master camera 2 and the second moving image signal based on the moving image captured by the slave camera 3 The synthesized moving image signal is generated by a method of inlaying synthesis by electrical processing such as chroma key and transmitted to the master camera 2. Thereby, in the camera system 1 according to the fourth embodiment, the master camera 2 can display a synthesized moving image based on the synthesized moving image signal.

図9は、合成動画像信号に基づく合成動画像の表示及びマスターカメラ2に対してパン、チルト、フォーカス、トリミング等の操作がされた場合の合成動画像の表示の一例について説明する。この場合、第4の実施の形態によるカメラシステム1では、4つの複数の地点にマスターカメラ2及びスレーブカメラ3A〜3Cが配置されている。   FIG. 9 illustrates an example of the display of a synthesized moving image based on the synthesized moving image signal and the display of the synthesized moving image when an operation such as panning, tilting, focusing, or trimming is performed on the master camera 2. In this case, in the camera system 1 according to the fourth embodiment, the master camera 2 and the slave cameras 3A to 3C are arranged at four plural points.

第4の実施の形態によるカメラシステム1では、マスターカメラ2と各スレーブカメラ3A〜3Cとに対して個々に初期設定を行う。スレーブカメラ3A〜3Dは、それぞれマスターカメラ2との間隔を“0”に設定しており、これにより、人間による通常の動画像撮影操作(カメラワーク)により、スレーブカメラ3A〜3Cに対してマスターカメラ2と同期した、一致した動作をさせることができ、例えば、リアルタイムに動画像を合成することができる。なお、さらに多くの動画像を合成したり、合成とカメラワークを組み合わせたりすることによって、幅の広い演出がリアルタイムで可能となる。   In the camera system 1 according to the fourth embodiment, initial settings are individually made for the master camera 2 and the slave cameras 3A to 3C. Each of the slave cameras 3A to 3D has an interval of “0” with respect to the master camera 2, so that the slave cameras 3A to 3C are mastered with respect to the slave cameras 3A to 3C by a normal moving image shooting operation (camera work) by a human. It is possible to perform a matching operation in synchronization with the camera 2, and for example, it is possible to synthesize a moving image in real time. A wide range of effects can be realized in real time by synthesizing more moving images or by combining synthesis and camera work.

マスターカメラ2を操作するカメラマンは、クロマキー合成された結果の合成動画像を確認しながら、カメラを操作する。こうすると、あたかもマスター側動画像MP1とスレーブ側動画像SP1が同じ場所で有るかのごとく、マスターカメラ2の画面の全域に対してパン、チルト、ズーム、ピント送りの操作が同期してスレーブカメラ3に適用され、自然で臨場感に溢れた映像効果が得られる。   The cameraman who operates the master camera 2 operates the camera while confirming the synthesized moving image resulting from the chroma key composition. In this way, as if the master side moving image MP1 and the slave side moving image SP1 are in the same place, the pan, tilt, zoom and focus feed operations are synchronized with respect to the entire area of the master camera 2, and the slave camera is synchronized. 3 is applied to obtain a natural and realistic video effect.

この場合、マスターカメラ2は、A地点において、出演者Aを単色の背景Aと共に撮影しており、マスターカメラ2の表示部にマスター側動画像MP1のような動画像を表示することができる。また、スレーブカメラ3Aは、B地点において、出演者Bを背景Bと共に撮影しており、例えば、スレーブ側動画像SP1のような動画像を表示することができる。さらに、スレーブカメラ3Bは、C地点において、背景Cを撮影しており、例えば、スレーブ側動画像SP2のような動画像を表示することができる。さらに、スレーブカメラ3Cは、D地点において、出演者Dを単色の背景Dと共に撮影しており、例えば、スレーブ側動画像SP3のような動画像を表示することができる。   In this case, the master camera 2 photographs the performer A together with the monochrome background A at the point A, and can display a moving image such as the master side moving image MP1 on the display unit of the master camera 2. In addition, the slave camera 3A captures the performer B together with the background B at the point B, and can display a moving image such as the slave-side moving image SP1, for example. Further, the slave camera 3B captures the background C at the point C and can display a moving image such as the slave-side moving image SP2. Further, the slave camera 3C takes a picture of the performer D together with the monochrome background D at the point D, and can display a moving image such as the slave-side moving image SP3, for example.

ここで、マスターカメラ2は、動画像合成装置又は操作部13が操作されることにより、動画像MP1と動画像SP1の合成動画像CP1を表示するように操作された場合には、動画像合成装置から合成動画像CP1の合成動画像信号を受信して、マスターカメラ2の表示部にクロマキー合成された結果である合成動画像CP1のような動画像を表示することができる。   Here, if the master camera 2 is operated so as to display the combined moving image CP1 of the moving image MP1 and the moving image SP1 by operating the moving image combining device or the operation unit 13, the moving image combining is performed. A synthesized moving image signal of the synthesized moving image CP1 is received from the apparatus, and a moving image such as the synthesized moving image CP1 which is a result of the chroma key composition on the display unit of the master camera 2 can be displayed.

そして、マスターカメラ2は、例えば、カメラマンが合成動画像CP1を確認しながら操作部を操作する等によって、操作部23が操作されることにより、例えば、スキーをしている女性にズームインするように操作された場合には、スキーをしている女性にズームインする。一方、スレーブカメラ3Aは、マスターカメラ2がスキーをしている女性をズームインする動作に基づいて、マスターカメラ2と同一の動作をする、すなわち、教会の十字架部分近辺にズームインする。これにより、マスターカメラ2は、マスターカメラ2の表示部に合成動画像CP2のような動画像を表示することができる。なお、この場合にも、スレーブカメラ3B、3Cは、マスターカメラ2がスキーをしている女性をズームインする動作に基づいて、マスターカメラ2と同一の動作をしていることとなる。   Then, the master camera 2 is operated so that, for example, the cameraman zooms in on a skiing woman by operating the operation unit 23 by operating the operation unit while confirming the synthesized moving image CP1. If operated, zoom in on the skiing woman. On the other hand, the slave camera 3A performs the same operation as that of the master camera 2 based on the operation of the master camera 2 zooming in on the skiing woman, that is, zooms in on the vicinity of the cross of the church. Accordingly, the master camera 2 can display a moving image such as the combined moving image CP2 on the display unit of the master camera 2. In this case as well, the slave cameras 3B and 3C are performing the same operation as the master camera 2 based on the operation of the master camera 2 zooming in on the woman who is skiing.

また、マスターカメラ2は、例えば、テニスをしている女性にズームインするように操作された場合には、すなわち、動画像MP1の右下部分近辺にズームインする。一方、スレーブカメラ3Aは、マスターカメラ2が動画像MP1の右下部分近辺をズームインする動作に基づいて、マスターカメラ2と同一の動作をする、すなわち、テニスをしている女性にズームインする。これにより、マスターカメラ2は、マスターカメラ2の表示部に合成動画像CP3のような動画像を表示することができる。   For example, when the master camera 2 is operated to zoom in on a woman playing tennis, that is, the master camera 2 zooms in to the vicinity of the lower right portion of the moving image MP1. On the other hand, the slave camera 3A performs the same operation as the master camera 2 based on the operation in which the master camera 2 zooms in on the vicinity of the lower right portion of the moving image MP1, that is, zooms in on the woman playing tennis. Accordingly, the master camera 2 can display a moving image such as the combined moving image CP3 on the display unit of the master camera 2.

さらに、マスターカメラ2は、操作部23が操作されることにより、例えば、テニスをしている女性からズームアウトして、教会全体を表示するように操作された場合には、テニスをしている女性からズームアウトして教会全体を表示する、すなわち、スキーをしている女性を左側真ん中部分に表示するようにズームアウトする。一方、スレーブカメラ3Aは、マスターカメラ2がスキーをしている女性を左側真ん中部分に表示するようにズームアウトする動作に基づいて、マスターカメラ2と同一の動作をする、すなわち、スキーをしている女性の映像に対応する映像から教会全体を表示するようにズームアウトする。これにより、マスターカメラ2は、マスターカメラ2の表示部に合成動画像CP1のような動画像を表示することができる。   Furthermore, the master camera 2 is playing tennis when the operation unit 23 is operated to zoom out from a woman playing tennis and display the entire church, for example. Zoom out from the woman to see the whole church, that is, zoom out to see the woman skiing in the middle left. On the other hand, the slave camera 3A performs the same operation as that of the master camera 2 based on the operation of zooming out so that the master camera 2 displays the woman who is skiing in the left middle part, that is, skiing. Zoom out to view the entire church from the image corresponding to the image of the woman. Accordingly, the master camera 2 can display a moving image such as the combined moving image CP1 on the display unit of the master camera 2.

一方、マスターカメラ2は、例えば、合成動画像CP2の状態から更にスキーをしている女性にズームインするように操作された場合には、更にスキーをしている女性にズームインする。一方、スレーブカメラ3Aは、マスターカメラ2がスキーをしている女性をズームインする動作に基づいて、マスターカメラ2と同一の動作をする、すなわち、更に教会の十字架部分近辺にズームインする。これにより、マスターカメラ2は、マスターカメラ2の表示部に合成動画像CP4のような動画像を表示することができる。なお、合成動画像CP4では、画面全体がマスター側動画像MP1の動画像が表示されているため、スレーブ側動画像SP1の動画像は表示されてないこととなる。   On the other hand, for example, when the master camera 2 is operated to zoom in on a woman who is skiing further from the state of the composite moving image CP2, the master camera 2 zooms in on the woman who is skiing further. On the other hand, the slave camera 3A performs the same operation as that of the master camera 2 based on the operation of the master camera 2 zooming in on the woman who is skiing, that is, further zooming in on the vicinity of the cross of the church. Accordingly, the master camera 2 can display a moving image such as the combined moving image CP4 on the display unit of the master camera 2. In the synthesized moving image CP4, since the moving image of the master side moving image MP1 is displayed on the entire screen, the moving image of the slave side moving image SP1 is not displayed.

ここで、マスターカメラ2は、動画像合成装置又は操作部13が操作されることにより、例えば、合成動画像CP4のスレーブ側動画像SP1の表示を切り替えて、マスター側動画像MP1、スレーブ側動画像CP2、スレーブ側動画像CP3による合成動画像CP4に表示するように操作された場合には、動画像合成装置からマスター側動画像MP1、スレーブ側動画像CP2、スレーブ側動画像CP3による合成動画像CP4の合成動画像信号を受信する。これにより、マスターカメラ2は、マスターカメラ2の表示部に当該合成動画像CP4のような動画像を表示することができる。なお、合成動画像CP4では、画面全体がマスター側動画像MP1の動画像が表示されているため、スレーブ側動画像SP2、SP3の動画像は表示されてないこととなる。   Here, the master camera 2 switches the display of the slave-side moving image SP1 of the synthesized moving image CP4, for example, by operating the moving image synthesizing device or the operation unit 13, so that the master-side moving image MP1 and the slave-side moving image are switched. When the operation is performed so as to display the image CP2 on the synthesized moving image CP4 based on the slave side moving image CP3, the synthesized moving image based on the master side moving image MP1, the slave side moving image CP2, and the slave side moving image CP3 from the moving image synthesizing device. A composite moving image signal of the image CP4 is received. Accordingly, the master camera 2 can display a moving image such as the combined moving image CP4 on the display unit of the master camera 2. In the synthesized moving image CP4, since the moving image of the master side moving image MP1 is displayed on the entire screen, the moving images of the slave side moving images SP2 and SP3 are not displayed.

そして、マスターカメラ2は、例えば、合成動画像CP4の状態からスキーをしている女性からズームアウトして、スキーをしている女性を画面の左側部分に表示するようにズームアウトするように操作された場合には、スキーをしている女性を画面の左側部分に表示するようにズームアウトする。一方、スレーブカメラ3Bは、マスターカメラ2がスキーをしている女性を画面の左側部分に表示するようにズームアウトする動作に基づいて、マスターカメラ2と同一の動作をする、すなわち、スキーをしている女性の映像に対応する映像から街全体を表示するようにズームアウトする。他方、スレーブカメラ3Cは、マスターカメラ2がスキーをしている女性を左側部分に表示するようにズームアウトする動作に基づいて、マスターカメラ2と同一の動作をする、すなわち、スキーをしている女性の映像に対応する映像から野球をしている男性を画面の右側部分に表示するようにズームアウトする。これにより、マスターカメラ2は、マスターカメラ2の表示部に合成動画像CP5のような動画像を表示することができる。   Then, for example, the master camera 2 is operated to zoom out from a woman skiing from the state of the composite moving image CP4 and to zoom out so that the woman skiing is displayed on the left side of the screen. If so, zoom out to display the skiing woman on the left side of the screen. On the other hand, the slave camera 3B performs the same operation as that of the master camera 2 based on the operation of zooming out so that the woman on which the master camera 2 is skiing is displayed on the left side of the screen, that is, skiing. Zoom out to see the whole city from the image corresponding to the image of the woman who is. On the other hand, the slave camera 3 </ b> C performs the same operation as the master camera 2 based on the operation of zooming out so that the woman on which the master camera 2 is skiing is displayed on the left side, that is, skiing. Zoom out so that a man playing baseball is displayed on the right side of the screen from the video corresponding to the video of the woman. Accordingly, the master camera 2 can display a moving image such as the combined moving image CP5 on the display unit of the master camera 2.

このようにして、第4の実施の形態によるカメラシステム1では、マスターカメラ2における、人間が行う通常カメラ操作(カメラワーク)に基づいてスレーブカメラ3をマスターカメラ2と同期して一致した動作をさせることができ、一般のテレビジョン生放送等において、番組の持つ全体的なカメラワークの統一感を保ったまま、合成動画像を取り入れた番組制作をすることができる。   As described above, in the camera system 1 according to the fourth embodiment, the master camera 2 performs an operation in which the slave camera 3 is synchronized with the master camera 2 based on a normal camera operation (camera work) performed by a human. In general television live broadcasting and the like, it is possible to produce a program that incorporates a synthesized moving image while maintaining a unified sense of overall camera work of the program.

なお、第1〜第4の実施の形態においては、データ集約装置4において、第1〜第3のパラメータを集約すると共に、第1〜第3のパラメータをVRデータ等のシリアルデータに変換して、当該VRデータを通信インタフェースを介してデータ変換装置5に送信し、変換した結果をシリアルデータとして駆動装置6に送信した場合について述べたが、本発明はこれに限らず、第1〜第3のパラメータをそのままデータ変換装置5に送信する、また集約又は変換した結果をVRデータとして駆動装置とともに他のバーチャル作画システムにも同時に送信する等のその他種々の送信方法を適用することができる。   In the first to fourth embodiments, the data aggregation device 4 aggregates the first to third parameters and converts the first to third parameters into serial data such as VR data. In the above description, the VR data is transmitted to the data converter 5 via the communication interface, and the converted result is transmitted to the drive device 6 as serial data. However, the present invention is not limited to this, and the first to third Other various transmission methods, such as transmitting the parameters to the data conversion device 5 as they are, and simultaneously transmitting the aggregated or converted results as VR data to other virtual drawing systems together with the drive device, can be applied.

また、第1〜第4の実施の形態においては、個々の動画像や合成動画像、立体動画像をマスターカメラ2の表示部14に表示した場合について述べたが、本発明はこれに限らず、例えば、放送や伝送・記録再生する事により、大型スクリーンに表示して大勢の人に見せるようなこともでき、この他種々の機器に表示することができる。   In the first to fourth embodiments, the case where individual moving images, synthesized moving images, and stereoscopic moving images are displayed on the display unit 14 of the master camera 2 has been described. However, the present invention is not limited to this. For example, by broadcasting, transmitting / recording / reproducing, it can be displayed on a large screen to be shown to a large number of people, and can be displayed on various other devices.

本発明は、複数のカメラを同時に制御するカメラシステムに広く適用することができる。   The present invention can be widely applied to camera systems that simultaneously control a plurality of cameras.

1……カメラシステム、2……マスターカメラ、2A……マスターカメラ部、2B、雲台、3、3A〜3D……スレーブカメラ、4……データ集約装置、5……データ変換装置、6、6A〜6D、6R、6L……駆動装置、11……撮影部、12……制御部、13……操作部、14……表示部、15……記録部、16、入出力部、17……第1の検出センサ、18……第2の検出センサ、19……第3の検出センサ、21……CPU、22……メモリ、23……操作部、24……表示部、25……第1の入出力部、26……第2の入出力部、31……制御プログラム、32……データ変換プログラム、33……データ変換テーブル DESCRIPTION OF SYMBOLS 1 ... Camera system, 2 ... Master camera, 2A ... Master camera part, 2B, pan head, 3, 3A-3D ... Slave camera, 4 ... Data aggregation device, 5 ... Data conversion device, 6, 6A to 6D, 6R, 6L... Driving device, 11... Photographing unit, 12... Control unit, 13. ... 1st detection sensor, 18 ... 2nd detection sensor, 19 ... 3rd detection sensor, 21 ... CPU, 22 ... Memory, 23 ... Operation part, 24 ... Display part, 25 ... 1st input / output unit, 26... 2nd input / output unit, 31... Control program, 32... Data conversion program, 33.

Claims (14)

マスターカメラと、変換装置と、1又は複数の駆動装置と、1又は複数のスレーブカメラとを備え、
前記マスターカメラは、動画像を撮影すると共に、外部からの操作に関する操作パラメータを検出して、前記変換装置に送信し、
前記変換装置は、前記マスターカメラから送信された前記操作パラメータを、前記スレーブカメラごとの駆動パラメータに変換して、対応する1又は複数の前記スレーブカメラの駆動装置に送信し、
1又は複数の前記駆動装置は、前記変換装置から送信された前記駆動パラメータに基づいて、対応する前記スレーブカメラを駆動させ、
1又は複数の前記スレーブカメラは、対応する前記駆動装置における駆動に応じて動作する
ことを特徴とするカメラシステム。
A master camera, a conversion device, one or more drive devices, and one or more slave cameras,
The master camera captures a moving image, detects an operation parameter related to an external operation, and transmits the operation parameter to the conversion device.
The conversion device converts the operation parameter transmitted from the master camera into a drive parameter for each slave camera and transmits the drive parameter to the corresponding one or a plurality of slave camera drive devices,
The one or more driving devices drive the corresponding slave cameras based on the driving parameters transmitted from the conversion device,
One or a plurality of the slave cameras operate in accordance with driving by the corresponding driving device.
前記変換装置は、前記操作パラメータを、所定の変換式を用いて前記駆動パラメータに変換すると共に、前記マスターカメラと1又は複数の前記スレーブカメラとで機種が異なる場合には、所定の変換テーブルを用いて、機種の異なる1又は複数の前記スレーブカメラに対応するように前記駆動パラメータを変換する
ことを特徴とする請求項1に記載のカメラシステム。
The conversion device converts the operation parameter into the drive parameter using a predetermined conversion formula, and when a model is different between the master camera and the one or more slave cameras, a predetermined conversion table is displayed. The camera system according to claim 1, wherein the drive parameter is converted so as to correspond to one or a plurality of slave cameras of different models.
前記マスターカメラは、外部からの操作に関する操作パラメータを検出部と、前記検出部により検出した操作パラメータを前記変換装置に送信する送信部とを備え、
前記検出部は、前記操作パラメータとして、前記マスターカメラの画角、前記マスターカメラの合焦距離、前記マスターカメラの回転角、前記マスターカメラの仰角並びに前記マスターカメラの雲台の移動方向及び距離を検出する
ことを特徴とする請求項2に記載のカメラシステム。
The master camera includes an operation parameter related to an operation from the outside, and a transmission unit that transmits the operation parameter detected by the detection unit to the conversion device,
The detection unit includes, as the operation parameters, an angle of view of the master camera, an in-focus distance of the master camera, a rotation angle of the master camera, an elevation angle of the master camera, and a moving direction and distance of a pan head of the master camera. The camera system according to claim 2, wherein the camera system is detected.
前記変換装置は、前記マスターカメラの合焦距離、前記マスターカメラの回転角及び前記マスターカメラの仰角の操作パラメータ並びに前記マスターカメラと前記スレーブカメラとの距離に基づいて、前記変換式により、前記スレーブカメラの合焦距離、前記スレーブカメラの回転角及び前記スレーブカメラの仰角を算出して、前記スレーブカメラの合焦距離、前記スレーブカメラの回転角及び前記スレーブカメラの仰角の駆動パラメータに変換する
ことを特徴とする請求項3に記載のカメラシステム。
The conversion device is configured to convert the slave according to the conversion formula based on the focusing distance of the master camera, the operation angle of the rotation angle of the master camera and the operation angle of the elevation angle of the master camera, and the distance between the master camera and the slave camera. Calculating a focus distance of the camera, a rotation angle of the slave camera, and an elevation angle of the slave camera, and converting them into driving parameters of the focus distance of the slave camera, the rotation angle of the slave camera, and the elevation angle of the slave camera; The camera system according to claim 3.
前記変換装置は、前記マスターカメラの画角並びに前記マスターカメラの雲台の移動方向及び距離の操作パラメータに基づいて、前記変換テーブルにより、前記スレーブカメラと被写体との画角並びに前記スレーブカメラの雲台の移動方向及び距離を算出して、前記スレーブカメラの画角並びに前記スレーブカメラの雲台の移動方向及び距離の駆動パラメータに変換する
ことを特徴とする請求項4に記載のカメラシステム。
The conversion device uses the conversion table to determine the angle of view between the slave camera and the subject and the cloud of the slave camera based on the angle of view of the master camera and the operation parameters of the panning direction and distance of the master camera. 5. The camera system according to claim 4, wherein a moving direction and a distance of the platform are calculated and converted into a driving parameter of an angle of view of the slave camera and a moving direction and a distance of the platform of the slave camera.
前記マスターカメラは、所定の被写体についての動画像を撮影し、前記スレーブカメラは、同一の被写体について前記マスターカメラとは異なる位置から動画像を撮影する
ことを特徴とする請求項1に記載のカメラシステム。
The camera according to claim 1, wherein the master camera captures a moving image of a predetermined subject, and the slave camera captures a moving image of the same subject from a position different from the master camera. system.
前記マスターカメラは、2台の前記スレーブカメラと同一平面上に配置され、2台の前記スレーブカメラは、右目用の動画像を撮影する第1のスレーブカメラ及び左目用の動画像を撮影する第2のスレーブカメラから構成される
ことを特徴とする請求項1に記載のカメラシステム。
The master camera is disposed on the same plane as the two slave cameras, and the two slave cameras are a first slave camera that captures a moving image for the right eye and a first image that captures a moving image for the left eye. The camera system according to claim 1, comprising two slave cameras.
前記マスターカメラ及び複数の前記スレーブカメラは、被写体を取り囲むようにして配置されている
ことを特徴とする請求項1に記載のカメラシステム。
The camera system according to claim 1, wherein the master camera and the plurality of slave cameras are arranged so as to surround a subject.
1又は複数の前記スレーブカメラは、遠隔地に配置され、
前記変換装置は、前記マスターカメラと1又は複数の前記スレーブカメラとが一致した動作をするように、前記マスターカメラから送信された前記操作パラメータを、前記スレーブカメラごとの駆動パラメータに変換する
ことを特徴とする請求項1に記載のカメラシステム。
The one or more slave cameras are located in a remote location;
The conversion device converts the operation parameter transmitted from the master camera into a drive parameter for each slave camera so that the master camera and one or a plurality of the slave cameras perform the same operation. The camera system according to claim 1, wherein:
マスターカメラと、変換装置と、1又は複数の駆動装置と、1又は複数のスレーブカメラとを備えるカメラシステムの制御方法であって、
前記マスターカメラが、動画像を撮影すると共に、外部からの操作に関する操作パラメータを検出して、前記変換装置に送信する第1のステップと、
前記変換装置が、前記マスターカメラから送信された前記操作パラメータを、前記スレーブカメラごとの駆動パラメータに変換して、対応する1又は複数の前記スレーブカメラの駆動装置に送信する第2のステップと、
1又は複数の前記駆動装置が、前記変換装置から送信された前記駆動パラメータに基づいて、対応する前記スレーブカメラを駆動させる第3のステップと、
1又は複数の前記スレーブカメラが、対応する前記駆動装置における駆動に応じて動作する第4のステップとを備える
ことを特徴とするカメラシステムの制御方法。
A control method of a camera system comprising a master camera, a conversion device, one or more drive devices, and one or more slave cameras,
A first step in which the master camera captures a moving image, detects an operation parameter related to an external operation, and transmits the operation parameter to the conversion device;
A second step in which the conversion device converts the operation parameter transmitted from the master camera into a drive parameter for each slave camera and transmits the drive parameter to a corresponding one or a plurality of slave camera drive devices;
A third step in which one or a plurality of the driving devices drive the corresponding slave cameras based on the driving parameters transmitted from the conversion device;
The camera system control method comprising: a fourth step in which one or a plurality of the slave cameras operate in response to driving by the corresponding driving device.
前記第2のステップでは、前記操作パラメータを、所定の変換式を用いて前記駆動パラメータに変換すると共に、前記マスターカメラと1又は複数の前記スレーブカメラとで機種が異なる場合には、所定の変換テーブルを用いて、機種の異なる1又は複数の前記スレーブカメラに対応するように前記駆動パラメータを変換する
ことを特徴とする請求項10に記載のカメラシステムの制御方法。
In the second step, the operation parameter is converted into the drive parameter using a predetermined conversion formula, and when the model differs between the master camera and the one or more slave cameras, the predetermined conversion is performed. The method for controlling a camera system according to claim 10, wherein the driving parameter is converted to correspond to one or a plurality of the slave cameras of different models using a table.
前記マスターカメラは、外部からの操作に関する操作パラメータを検出部と、前記検出部により検出した操作パラメータを前記変換装置に送信する送信部とを備え、
前記第1のステップでは、前記操作パラメータとして、前記マスターカメラの画角、前記マスターカメラの合焦距離、前記マスターカメラの回転角、前記マスターカメラの仰角並びに前記マスターカメラの雲台の移動方向及び距離を検出する
ことを特徴とする請求項11に記載のカメラシステムの制御方法。
The master camera includes an operation parameter related to an operation from the outside, and a transmission unit that transmits the operation parameter detected by the detection unit to the conversion device,
In the first step, as the operation parameters, the angle of view of the master camera, the focusing distance of the master camera, the rotation angle of the master camera, the elevation angle of the master camera, the moving direction of the pan head of the master camera, and The method for controlling a camera system according to claim 11, wherein a distance is detected.
前記第2のステップでは、前記マスターカメラの合焦距離、前記マスターカメラの回転角及び前記マスターカメラの仰角の操作パラメータ並びに前記マスターカメラと前記スレーブカメラとの距離に基づいて、前記変換式により、前記スレーブカメラの合焦距離、前記スレーブカメラの回転角及び前記スレーブカメラの仰角を算出して、前記スレーブカメラの合焦距離、前記スレーブカメラの回転角及び前記スレーブカメラの仰角の駆動パラメータに変換する
ことを特徴とする請求項12に記載のカメラシステムの制御方法。
In the second step, based on the focusing distance of the master camera, the rotation angle of the master camera and the operation parameter of the elevation angle of the master camera, and the distance between the master camera and the slave camera, The in-focus distance of the slave camera, the rotation angle of the slave camera, and the elevation angle of the slave camera are calculated and converted into driving parameters for the in-focus distance of the slave camera, the rotation angle of the slave camera, and the elevation angle of the slave camera. The method of controlling a camera system according to claim 12, wherein:
前記第2のステップでは、前記マスターカメラの画角並びに前記マスターカメラの雲台の移動方向及び距離の操作パラメータに基づいて、前記変換テーブルにより、前記スレーブカメラの画角並びに前記スレーブカメラの雲台の移動方向及び距離を算出して、前記スレーブカメラの画角並びに前記スレーブカメラの雲台の移動方向及び距離の駆動パラメータに変換する
ことを特徴とする請求項13に記載のカメラシステムの制御方法。
In the second step, the angle of view of the slave camera and the platform of the slave camera are determined by the conversion table on the basis of the angle of view of the master camera and the operating direction and distance of the platform of the master camera. The camera system control method according to claim 13, wherein the moving direction and distance of the camera system are calculated and converted into driving parameters for the angle of view of the slave camera and the moving direction and distance of the pan head of the slave camera. .
JP2009005705A 2009-01-14 2009-01-14 Camera system and method of controlling the same Pending JP2010166218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009005705A JP2010166218A (en) 2009-01-14 2009-01-14 Camera system and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009005705A JP2010166218A (en) 2009-01-14 2009-01-14 Camera system and method of controlling the same

Publications (1)

Publication Number Publication Date
JP2010166218A true JP2010166218A (en) 2010-07-29

Family

ID=42582060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009005705A Pending JP2010166218A (en) 2009-01-14 2009-01-14 Camera system and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2010166218A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520927A (en) * 2010-04-01 2013-06-06 キャメロン ジェームズ Frame-linked 2D / 3D camera system
JP2014230180A (en) * 2013-05-24 2014-12-08 日本放送協会 Background image generation device
US9253471B2 (en) 2012-03-19 2016-02-02 Samsung Electronics Co., Ltd. Depth camera, multi-depth camera system and method of synchronizing the same
JP2016178435A (en) * 2015-03-19 2016-10-06 カシオ計算機株式会社 Imaging control apparatus, imaging control method, and program
WO2016203584A1 (en) * 2015-06-17 2016-12-22 オリンパス株式会社 Image pickup control device, image pickup system, image pickup control method, and program
JP2018207254A (en) * 2017-06-01 2018-12-27 キヤノン株式会社 Imaging apparatus, control method, program, and imaging system
US10962865B2 (en) 2018-10-31 2021-03-30 Canon Kabushiki Kaisha Camera platform system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6313475A (en) * 1986-07-03 1988-01-20 Yamaguchi Shinema:Kk Follow-up controller for television camera
JP2005051340A (en) * 2003-07-30 2005-02-24 Canon Inc Camera that controls the camera remotely
JP2005148090A (en) * 2003-11-11 2005-06-09 Canon Inc Imaging apparatus, imaging system, control method thereof, and storage medium
WO2006028247A1 (en) * 2004-09-10 2006-03-16 Pioneer Corporation Video shooting system, video shooting device and video shooting method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6313475A (en) * 1986-07-03 1988-01-20 Yamaguchi Shinema:Kk Follow-up controller for television camera
JP2005051340A (en) * 2003-07-30 2005-02-24 Canon Inc Camera that controls the camera remotely
JP2005148090A (en) * 2003-11-11 2005-06-09 Canon Inc Imaging apparatus, imaging system, control method thereof, and storage medium
WO2006028247A1 (en) * 2004-09-10 2006-03-16 Pioneer Corporation Video shooting system, video shooting device and video shooting method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520927A (en) * 2010-04-01 2013-06-06 キャメロン ジェームズ Frame-linked 2D / 3D camera system
US9253471B2 (en) 2012-03-19 2016-02-02 Samsung Electronics Co., Ltd. Depth camera, multi-depth camera system and method of synchronizing the same
JP2014230180A (en) * 2013-05-24 2014-12-08 日本放送協会 Background image generation device
JP2016178435A (en) * 2015-03-19 2016-10-06 カシオ計算機株式会社 Imaging control apparatus, imaging control method, and program
WO2016203584A1 (en) * 2015-06-17 2016-12-22 オリンパス株式会社 Image pickup control device, image pickup system, image pickup control method, and program
JPWO2016203584A1 (en) * 2015-06-17 2018-04-05 オリンパス株式会社 Imaging control apparatus, imaging system, imaging control method, and program
US10133157B2 (en) 2015-06-17 2018-11-20 Olympus Corporation Imaging control device, imaging system, imaging control method, and recording medium
JP2018207254A (en) * 2017-06-01 2018-12-27 キヤノン株式会社 Imaging apparatus, control method, program, and imaging system
JP7008431B2 (en) 2017-06-01 2022-01-25 キヤノン株式会社 Imaging equipment, control methods, programs and imaging systems
US10962865B2 (en) 2018-10-31 2021-03-30 Canon Kabushiki Kaisha Camera platform system

Similar Documents

Publication Publication Date Title
US10665261B2 (en) Camera array including camera modules
JP7146662B2 (en) Image processing device, image processing method, and program
JP5456020B2 (en) Information processing apparatus and method
US9264695B2 (en) System and method for multi-viewpoint video capture
JP2021514573A (en) Systems and methods for capturing omni-stereo video using multi-sensors
JP7237538B2 (en) Information processing device, system including the same, information processing method, and program
JP2010166218A (en) Camera system and method of controlling the same
JP3691444B2 (en) Stereo imaging device
JP2013009274A (en) Image processing device, image processing method, and program
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP2013025649A (en) Image processing device, image processing method, and program
KR20120121743A (en) Monitoring system for generating 3-dimensional picture
JP2014501086A (en) Stereo image acquisition system and method
JPWO2019065260A1 (en) Information processing equipment, information processing methods, programs, and interchangeable lenses
JP2025122244A (en) Communication terminal, image communication system, image display method and program
JP2017028510A (en) Multi-viewpoint video generating device, program therefor, and multi-viewpoint video generating system
WO2017118662A1 (en) Spherical virtual reality camera
JP2011112808A (en) Image pickup apparatus
JP6700935B2 (en) Imaging device, control method thereof, and control program
JP7757974B2 (en) IMAGING DEVICE, SERVER DEVICE, AND 3D DATA GENERATION METHOD
TW201327019A (en) Capturing a perspective-flexible, viewpoint-synthesizing panoramic 3D image with a multi-view 3D camera
JP2023167486A (en) Image processing device, image processing method and program
KR101521352B1 (en) Panorama image managing apparatus and method
KR101237975B1 (en) Image processing apparatus
JP5704885B2 (en) Imaging device, imaging method, and imaging control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130604