[go: up one dir, main page]

JP2003141569A - Information processing method and video composition apparatus - Google Patents

Information processing method and video composition apparatus

Info

Publication number
JP2003141569A
JP2003141569A JP2001334706A JP2001334706A JP2003141569A JP 2003141569 A JP2003141569 A JP 2003141569A JP 2001334706 A JP2001334706 A JP 2001334706A JP 2001334706 A JP2001334706 A JP 2001334706A JP 2003141569 A JP2003141569 A JP 2003141569A
Authority
JP
Japan
Prior art keywords
image
real world
dimensional model
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001334706A
Other languages
Japanese (ja)
Other versions
JP2003141569A5 (en
JP4115117B2 (en
Inventor
Toshihiro Kobayashi
俊広 小林
Takeshi Kuroki
剛 黒木
Mahoro Anabuki
まほろ 穴吹
Eita Ono
英太 小野
Masahiro Suzuki
雅博 鈴木
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001334706A priority Critical patent/JP4115117B2/en
Publication of JP2003141569A publication Critical patent/JP2003141569A/en
Publication of JP2003141569A5 publication Critical patent/JP2003141569A5/ja
Application granted granted Critical
Publication of JP4115117B2 publication Critical patent/JP4115117B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 現実物体の3次元モデルを簡単に作成できる
ようにすることを目的とする。 【解決手段】 現実世界を示す画像に仮想世界を示すコ
ンピュータ映像を合成するために用いる、該現実世界を
示す画像に含まれるオブジェクトの3次元モデルを、調
整画面を用いて設定する情報処理方法であって、複数の
視点から得られる、前記オブジェクトを含む現実世界を
示す画像を取得し、前記複数の現実世界を示す画像の空
間位置情報と、前記オブジェクトに対応する3次元モデ
ルの位置情報に基づき、前記複数の現実世界を示す画像
の夫々に前記オブジェクトに対応する3次元モデルを合
成し、前記調整画面に表示させ、前記複数の合成画像に
基づき、ユーザがマニュアル指示で該合成画像における
前記オブジェクトに対応する3次元モデルの位置および
形状を調整する。
[57] An object of the present invention is to make it possible to easily create a three-dimensional model of a real object. An information processing method for setting, using an adjustment screen, a three-dimensional model of an object included in an image showing the real world, which is used to synthesize a computer image showing the virtual world with an image showing the real world. An image showing a real world including the object obtained from a plurality of viewpoints is acquired, and based on spatial position information of the image showing the plurality of real worlds and position information of a three-dimensional model corresponding to the object , A three-dimensional model corresponding to the object is synthesized with each of the plurality of images showing the real world, displayed on the adjustment screen, and based on the plurality of synthesized images, a user manually instructs the object in the synthesized image. The position and shape of the three-dimensional model corresponding to are adjusted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】現実世界を示す画像に仮想世
界を示すコンピュータ映像を合成するために用いる、該
現実世界を示す画像に含まれるオブジェクトの3次元モ
デルを、調整画面を用いて設定するものに関する。
BACKGROUND OF THE INVENTION Setting a three-dimensional model of an object included in an image showing the real world, which is used for synthesizing a computer image showing the virtual world with an image showing the real world, using an adjustment screen. Regarding

【0002】[0002]

【従来の技術】複数人で複合現実空間を共有するための
技術が、特開2000−350865「複合現実空間の
ゲーム装置、その画像処理方法およびプログラム記憶媒
体」に開示されている。ここに開示されているゲーム装
置では、現実世界に存在する物体と同一の幾何形状を有
するデータであり、マスクとして機能させるための現実
世界の3次元モデルを入力し保持する。現実世界の3次
元モデルは使用者の視点からの現実世界の奥行データに
変換される。この現実世界の奥行データは、仮想物体を
3次元CGとして描画する際に、現実物体に遮蔽される
べき部分を判定し、仮想物体のその部分を描画しないよ
うにするための処理に用いる。この処理により、仮想物
体は3次元CGとして現実物体との3次元的な前後関係
を正しく表現するように描画される。
2. Description of the Related Art A technique for sharing a mixed reality space with a plurality of people is disclosed in Japanese Patent Application Laid-Open No. 2000-350865 "Mixed Reality Game Device, Image Processing Method and Program Storage Medium". In the game device disclosed herein, the data has the same geometric shape as the object existing in the real world, and the three-dimensional model of the real world for functioning as a mask is input and held. The three-dimensional model of the real world is converted into depth data of the real world from the viewpoint of the user. This depth data of the real world is used for the processing for determining the portion that should be shielded by the real object when rendering the virtual object as a three-dimensional CG and for not rendering that portion of the virtual object. By this processing, the virtual object is drawn as a three-dimensional CG so that the three-dimensional front-rear relationship with the real object is correctly represented.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記に開示さ
れた技術を適用する場合には、現実物体、仮想物体とも
に3次元的な幾何形状が必要であり、これらを装置に入
力する必要があるが、正確な幾何形状を入力することは
多大な労力やコストを必要とし,改善が求められてい
た。
However, in the case of applying the technique disclosed above, both a real object and a virtual object need three-dimensional geometric shapes, and these must be input to the device. However, inputting an accurate geometric shape requires a great deal of labor and cost, and improvement has been required.

【0004】現実物体の3次元モデルについては、現実
世界に存在する物体と同一の幾何形状および大きさを持
ち、かつ現実世界中の対応する位置、向きに関して適切
に配置されることが望ましい。この幾何形状、大きさ、
位置、向きが現実のものと異なっていた場合には、現実
物体の3次元モデルをある視点位置からの現実世界の奥
行データに変換したときに、その視点からの現実世界の
映像と一致しなくなり、結果として、現実物体と仮想物
体との間の隠蔽関係が適切に表現されなくなる。例え
ば、現実物体と仮想物体との境界付近において、本来隠
されるべき仮想物体の一部分が現実世界の上に描かれる
ことによって見えてしまったり、逆に本来隠されるべき
でない現実物体の一部分が仮想物体によって隠されてし
まうという現象が生ずる。また、複数人で複合現実空間
を共有するような場合には、一つの視点からだけではな
く、すべての視点において、現実世界の映像と一致する
ような奥行データが必要である。しかし、この奥行デー
タを現実物体の3次元モデルから作成する場合には、正
確な3次元モデルの作成に加えて、現実物体の3次元モ
デルを配置するための現実世界中の位置や向きを正確に
測定することには困難が伴い、多くのコストを必要とす
る。
It is desirable that the three-dimensional model of the real object has the same geometric shape and size as the object existing in the real world, and is appropriately arranged with respect to the corresponding position and orientation in the real world. This geometry, size,
If the position and orientation are different from the actual ones, when the three-dimensional model of the real object is converted into the depth data of the real world from a certain viewpoint position, it will not match the image of the real world from that viewpoint. As a result, the concealment relationship between the real object and the virtual object is not properly expressed. For example, in the vicinity of the boundary between a real object and a virtual object, a part of the virtual object that should originally be hidden may be seen by being drawn on the real world, or conversely, a part of the real object that should not be hidden is a virtual object. The phenomenon that it is hidden by occurs. Further, in the case where a plurality of people share a mixed reality space, depth data that matches the image of the real world is necessary not only from one viewpoint but also from all viewpoints. However, when creating this depth data from a three-dimensional model of a physical object, in addition to creating an accurate three-dimensional model, the position and orientation in the real world for arranging the three-dimensional model of the physical object must be accurate. It is difficult to measure and requires a lot of cost.

【0005】本発明は、上述の点に鑑みてなされたもの
であり、現実物体の3次元モデルを簡単に作成できるよ
うにすることを目的とする。
The present invention has been made in view of the above points, and it is an object of the present invention to easily create a three-dimensional model of a physical object.

【0006】[0006]

【課題を解決するための手段】前記の目的を達成するた
めの本実施形態による映像合成装置は以下の構成を備え
る。
The video synthesizing apparatus according to the present embodiment for achieving the above object has the following configuration.

【0007】本願請求項1に記載の発明は、現実世界を
示す画像に仮想世界を示すコンピュータ映像を合成する
ために用いる、該現実世界を示す画像に含まれるオブジ
ェクトの3次元モデルを、調整画面を用いて設定する情
報処理方法であって、複数の視点から得られる、前記オ
ブジェクトを含む現実世界を示す画像を取得し、前記複
数の現実世界を示す画像の空間位置情報と、前記オブジ
ェクトに対応する3次元モデルの位置情報に基づき、前
記複数の現実世界を示す画像の夫々に前記オブジェクト
に対応する3次元モデルを合成し、前記調整画面に表示
させ、前記複数の合成画像に基づき、ユーザがマニュア
ル指示で該合成画像における前記オブジェクトに対応す
る3次元モデルの位置および形状を調整することを特徴
とする。
According to the first aspect of the present invention, a three-dimensional model of an object included in an image showing the real world, which is used for synthesizing an image showing the real world with a computer image showing the virtual world, is displayed on an adjustment screen. An information processing method set by using, acquiring an image showing a real world including the object, obtained from a plurality of viewpoints, corresponding to spatial position information of the image showing the plurality of real world, and the object. Based on the position information of the three-dimensional model, a three-dimensional model corresponding to the object is combined with each of the plurality of images showing the real world, displayed on the adjustment screen, and based on the plurality of combined images, the user It is characterized in that the position and the shape of the three-dimensional model corresponding to the object in the composite image are adjusted by manual instruction.

【0008】本願請求項8に記載の発明は、現実世界を
示す画像に仮想世界を示すコンピュータ映像を合成する
ために用いる、該現実世界を示す画像に含まれるオブジ
ェクトの3次元モデルを、調整画面を用いて設定する情
報処理方法であって、前記オブジェクトを含む現実世界
を示す画像を取得し、前記調整画面に表示させ、前記調
整画面に表示されている複数の立体モデルから、ユーザ
指示に基づき任意の立体モデルを選択し、前記選択され
た立体モデルを、前記現実世界を示す画像に合成し、前
記調整画面に表示させ、ユーザ指示に応じて、前記現実
世界を示す画像に合成された立体モデルの位置および形
状を調整することを特徴とする情報処理方法。
According to the invention of claim 8 of the present application, a three-dimensional model of an object included in an image showing the real world, which is used for synthesizing an image showing the real world with a computer image showing the virtual world, is displayed on an adjustment screen. An information processing method that is set using, acquiring an image showing a real world including the object, displaying the image on the adjustment screen, from a plurality of stereo models displayed on the adjustment screen, based on a user instruction An arbitrary stereo model is selected, the selected stereo model is combined with the image showing the real world, displayed on the adjustment screen, and the stereo combined with the image showing the real world according to a user instruction. An information processing method characterized by adjusting the position and shape of a model.

【0009】本願請求項10記載の発明は、現実世界を
撮影する撮像部と、前記撮像部を支持する指示部と、前
記撮像部の姿勢を測定する姿勢測定部と、コンピュータ
映像を生成するためのデータと現実世界の3次元モデル
データを保持するデータ部と、前記姿勢測定部で測定さ
れた姿勢情報をもとに、前記データ部に保持されている
データを用いてコンピュータ映像を生成するコンピュー
タ映像生成部と、前記撮影部によって撮影された撮影映
像と前記コンピュータ映像生成部で生成されたコンピュ
ータ映像を、前記現実世界の3次元モデルデータに基づ
き合成する映像合成部と、前記現実世界の3次元モデル
を前記撮影部によって撮影された撮影画像を用いて作
成、調整する3次元モデル作成部を有することを特徴と
する。
According to a tenth aspect of the present invention, an image pickup section for photographing the real world, an instruction section for supporting the image pickup section, a posture measuring section for measuring the posture of the image pickup section, and a computer image are generated. A computer that generates a computer image using the data held in the data unit based on the data unit that holds the data of 3D model data of the real world and the posture information measured by the posture measuring unit. An image generation unit, an image synthesis unit that synthesizes the captured image captured by the imaging unit and the computer image generated by the computer image generation unit based on the three-dimensional model data of the real world; The present invention is characterized by further comprising a three-dimensional model creation unit for creating and adjusting a dimensional model using a photographed image photographed by the photographing unit.

【0010】[0010]

【発明の実施の形態】以下、添付の図面を参照して本実
施形態の好適な実施形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of this embodiment will be described below with reference to the accompanying drawings.

【0011】<第1の実施形態>本実施形態の映像合成
装置は、展望台等で望遠鏡として使用されたり、博物館
等で情報表示端末とし使用されたりする。図1は本実施
形態による映像合成装置の概略構成を示すブロック図で
ある。
<First Embodiment> The image synthesizing apparatus of the present embodiment is used as a telescope in an observatory or the like, or as an information display terminal in a museum or the like. FIG. 1 is a block diagram showing the schematic arrangement of the video composition apparatus according to the present embodiment.

【0012】1は撮像部であり、たとえばカメラからな
る。撮像部1は屋外の風景や屋内の展示物といった現実
世界を撮影し、撮影映像を映像信号として撮影映像取込
部2に出力する。2は撮影映像取込部であり、撮像部1
から出た映像信号を映像合成部3に適した形式に変換し
て映像合成部3に送り出す。3は映像合成部であり、撮
影映像取込部2からの撮影映像とコンピュータ映像生成
部7からのコンピュータ映像を合成して表示部9に送出
する。
Reference numeral 1 denotes an image pickup section, which is composed of, for example, a camera. The image capturing unit 1 captures an image of the real world such as an outdoor landscape or an indoor exhibit, and outputs the captured image as a video signal to the captured image capturing unit 2. Reference numeral 2 is a captured image capturing unit, and the image capturing unit 1
The video signal output from the above is converted into a format suitable for the video synthesizing unit 3 and sent to the video synthesizing unit 3. An image synthesizing unit 3 synthesizes the photographic image from the photographic image capturing unit 2 and the computer image from the computer image generating unit 7 and sends it to the display unit 9.

【0013】4は雲台制御部であり、床等に設置され、
撮像部1を支える。雲台制御部4は可動部分を持ち、撮
像部1を使用者が手動で左右方向および上下方向に自由
に回転させることを可能にする。雲台制御部4は床等に
固定されてもよいが、たとえばレールや台車の上に載せ
て移動できるようにしてもよい。また、雲台制御部4は
図示しない駆動部分と制御装置から構成され、外部から
の制御信号により、自動で左右方向および上下方向に自
由に回転させるようにすることも可能である。駆動部分
は例えばモータや油圧または空気圧ジャッキなどから成
る。5は雲台制御部4と撮像部1の相対的な姿勢を測定
する姿勢測定部であり、撮像部1の姿勢情報、すなわち
撮像部1の上下方向および左右方向の回転情報をコンピ
ュータ映像生成部7からの要求に応じて、又はコンピュ
ータ映像生成部7からの要求なしにコンピュータ映像生
成部7に送り出す。姿勢測定部5は、例えば機械式のエ
ンコーダなどから構成される。姿勢測定部5は支持部と
撮像部の相対的な姿勢を測定することができればどうい
った構成としてもよく、また、他に例えばジャイロや光
学式のセンサを利用することも可能である。
A pan head controller 4 is installed on the floor,
Supports the imaging unit 1. The camera platform control unit 4 has a movable part, and allows a user to manually rotate the imaging unit 1 freely in the left-right direction and the up-down direction. The platform controller 4 may be fixed to the floor or the like, but may be mounted on a rail or a carriage so as to be movable. Further, the platform control unit 4 is composed of a drive unit (not shown) and a control device, and it is possible to automatically rotate freely in the left and right direction and the up and down direction by a control signal from the outside. The drive part comprises, for example, a motor or a hydraulic or pneumatic jack. A posture measuring unit 5 measures the relative postures of the platform control unit 4 and the image pickup unit 1. The posture information of the image pickup unit 1, that is, the rotation information of the image pickup unit 1 in the vertical direction and the horizontal direction is obtained by a computer image generation unit. It is sent to the computer image generation unit 7 in response to a request from the computer 7 or without a request from the computer image generation unit 7. The attitude measuring unit 5 is composed of, for example, a mechanical encoder. The posture measuring unit 5 may have any configuration as long as it can measure the relative postures of the support unit and the imaging unit, and it is also possible to use, for example, a gyro or an optical sensor.

【0014】6はレンズ状態制御部であり、撮像部1で
利用するレンズのズーム値やフォーカス値といったレン
ズ状態情報をコンピュータ映像生成部7からの要求に応
じて、又はコンピュータ映像生成部7からの要求なしに
コンピュータ映像生成部7に送り出す。ここで、ズーム
値・フォーカス値とは、レンズ状態制御部6でエンコー
ダ等により出力された値であり、たとえばレンズ状態制
御部6に8ビットのエンコーダが備えられている場合、
出力される値は1〜256の範囲の値となる。レンズ状
態制御部6はたとえばマイクロコンピュータを備え、エ
ンコーダ等により出力された値を用いてレンズの焦点距
離等を計算し、計算した値をレンズ状態情報として出力
してもよい。また、レンズ状態制御部6は図示しない操
作部や制御信号などによりレンズの状態を操作する。レ
ンズ状態制御部6は、例えば機械式のエンコーダやステ
ッピングモータからなる。
Reference numeral 6 denotes a lens state control unit, which receives lens state information such as a zoom value and a focus value of a lens used in the image pickup unit 1 in response to a request from the computer image generation unit 7 or from the computer image generation unit 7. It is sent to the computer image generation unit 7 without request. Here, the zoom value / focus value is a value output by an encoder or the like in the lens state control unit 6, and, for example, when the lens state control unit 6 includes an 8-bit encoder,
The output value is in the range of 1 to 256. The lens state control unit 6 may include, for example, a microcomputer, calculate the focal length of the lens using the value output by the encoder, and output the calculated value as the lens state information. The lens state control unit 6 operates the state of the lens by an operation unit (not shown) or a control signal. The lens state control unit 6 includes, for example, a mechanical encoder or a stepping motor.

【0015】7はコンピュータ映像生成部であり、姿勢
測定部5から撮像部1の姿勢情報を取り出して撮像部1
が向いている方向を推定し、またレンズ状態制御部6か
らレンズ状態情報を取り出して撮像部1の画角等を推定
する。撮像部1の向いている方向と画角が推定できれば
撮像部1の視野が求まるため、コンピュータ映像生成部
7はデータ部8から撮像部1の視野に入る部分のデータ
を取り出し、撮像部1の視野に重なるコンピュータ映像
を生成する。生成されたコンピュータ映像は映像合成部
3に送られる。
Reference numeral 7 denotes a computer image generation unit, which takes out the posture information of the image pickup unit 1 from the posture measurement unit 5 and picks up the image pickup unit 1.
Is estimated, the lens state information is extracted from the lens state control unit 6, and the angle of view of the image pickup unit 1 is estimated. If the direction in which the image pickup unit 1 is facing and the angle of view can be estimated, the visual field of the image pickup unit 1 can be obtained. Therefore, the computer image generation unit 7 extracts the data of the portion within the visual field of the image pickup unit 1 from the data unit 8 and Generate a computer image that overlaps the field of view. The generated computer image is sent to the image synthesizing unit 3.

【0016】8はデータ部であり、たとえばハードディ
スクから構成され、コンピュータ映像生成部7に引き渡
すデータを所持する。データ部8に格納されるデータと
しては、仮想物体の3次元CGデータや現実世界の奥行
データや現実世界の3次元モデル、テキスト情報やパノ
ラマ映像等といったものが考えられる。データ部8はコ
ンピュータ映像生成部7からの要求に応じて適切なデー
タをコンピュータ映像生成部7に送出する。たとえばコ
ンピュータ映像生成部7が撮像部1の視野に合成する3
次元CGデータを要求してきた時に、データ部8は格納
されている3次元CGデータの中から撮像部1の視野に
含まれる3次元CGデータを取り出して送出する。な
お、データ部8はハードディスクに限らず、データを保
持することができる媒体であれば何でもよく、たとえば
テープやメモリなどで構成してもよい。
Reference numeral 8 denotes a data section, which is composed of a hard disk, for example, and has data to be transferred to the computer image generation section 7. The data stored in the data unit 8 may be three-dimensional CG data of a virtual object, depth data of the real world, three-dimensional model of the real world, text information, panoramic video, and the like. The data unit 8 sends appropriate data to the computer image generation unit 7 in response to a request from the computer image generation unit 7. For example, the computer image generation unit 7 combines the field of view of the image pickup unit 1 with 3
When requesting the three-dimensional CG data, the data unit 8 extracts the three-dimensional CG data included in the visual field of the imaging unit 1 from the stored three-dimensional CG data and sends it out. The data section 8 is not limited to a hard disk, and may be any medium capable of holding data, such as a tape or a memory.

【0017】データ部8に3次元CG(コンピュータグ
ラフィックス)を格納する場合、格納する3次元CGと
しては、たとえば仮想のキャラクタなどが考えられる。
ここで、データ部8に格納する3次元CGデータには位
置や大きさ、形状、姿勢といった幾何情報だけでなく、
テクスチャデータや制約関係、動き、各CGデータを特
定するための識別情報といったデータも含まれる。たと
えばデータ部8に仮想のキャラクタの形状や動きの情報
を格納しておくことで、現実世界中に仮想のキャラクタ
を登場させることが可能になる。
When a three-dimensional CG (computer graphics) is stored in the data section 8, the stored three-dimensional CG may be, for example, a virtual character.
Here, the three-dimensional CG data stored in the data unit 8 includes not only geometric information such as position, size, shape, and posture, but also
Data such as texture data, constraint relationships, movements, and identification information for identifying each CG data are also included. For example, by storing the shape and movement information of the virtual character in the data unit 8, it becomes possible to make the virtual character appear in the real world.

【0018】データ部8にはあらかじめ現実世界の奥行
情報を表現する現実世界の奥行データを入力して利用す
る。あらかじめ現実世界の奥行データを持ち利用するこ
とで、現実世界の映像とコンピュータ映像との前後関係
や接触関係を含む相互関係を正しく反映した映像合成が
可能になる。たとえば、ある建物とある建物の間で3次
元CGのキャラクタを動かしたいというとき、現実世界
の奥行データを持たない場合では、3次元CGのキャラ
クタの全身が建物の前面に表示されてしまうため、図7
のように建物とキャラクタの前後関係が正しく反映され
ない。これに対して現実世界の奥行データを持つ場合、
キャラクタまでの奥行と建物までの奥行を比較し、キャ
ラクタまでの奥行が建物の奥行よりも大きい部分のコン
ピュータ映像生成を行わないことによって、図8のよう
に建物とキャラクタの前後関係を正しく反映した合成映
像を生成することができる。
In the data section 8, the depth data of the real world which represents the depth information of the real world is inputted in advance and used. By using and using the depth data of the real world in advance, it is possible to synthesize a video that accurately reflects the interrelationship between the real world video and the computer video, including the front-back and contact relationships. For example, when it is desired to move a three-dimensional CG character between a building and a certain building, the whole body of the three-dimensional CG character will be displayed in front of the building if the depth data of the real world is not included. Figure 7
The front and rear relationship between the building and the character is not correctly reflected as in. On the other hand, if you have depth data in the real world,
By comparing the depth up to the character and the depth up to the building, and not generating the computer image of the part where the depth up to the character is larger than the depth of the building, the front-rear relationship between the building and the character is correctly reflected as shown in FIG. A synthetic image can be generated.

【0019】現実世界に奥行情報を持たせること、すな
わち現実世界の奥行データを獲得することは現実世界の
3次元モデルを用いることで実現できる。現実世界の奥
行情報を3次元モデルとして与えた場合には、たとえば
図9のように建物の上に3次元CGのキャラクタを乗せ
るなどのような接触関係を表現することが可能である。
現実世界の3次元モデルは形状データ、位置姿勢デー
タ、各モデルを特定するための識別情報などから構成さ
れる。
To give depth information to the real world, that is, to obtain depth data of the real world can be realized by using a three-dimensional model of the real world. When the depth information of the real world is given as a three-dimensional model, it is possible to express a contact relationship such as placing a three-dimensional CG character on a building as shown in FIG. 9, for example.
The three-dimensional model in the real world includes shape data, position and orientation data, identification information for identifying each model, and the like.

【0020】9は表示部であり、映像合成部3から送出
された合成映像信号を表示する。この際、表示部9は撮
像部1と一体的に動くものとすると使用者にとっては直
に望遠鏡などを覗き込むかのように直感的で理解しやす
いが、必ずしもその必要はなく、たとえば撮像部1が可
動で表示部9が固定されるという構成でもよい。また、
この表示部9は複数備えられてもよく、その場合は合成
映像を多数の人が見ることが可能になる。
Reference numeral 9 denotes a display unit, which displays the composite video signal sent from the video composition unit 3. At this time, if the display unit 9 moves integrally with the image pickup unit 1, it is intuitive and easy for the user to directly look into a telescope or the like, but this is not always necessary. Alternatively, the display unit 9 may be fixed while the display unit 1 is movable. Also,
A plurality of display units 9 may be provided, in which case a large number of people can view the composite video.

【0021】図2は映像合成装置が通信網を介して相互
接続される場合の構成を示すブロック図である。
FIG. 2 is a block diagram showing the configuration in the case where the image synthesizing devices are mutually connected via a communication network.

【0022】10は映像装置であり、図1の1から9ま
での機能をすべて含む装置である。
Reference numeral 10 denotes a video device, which is a device including all the functions 1 to 9 in FIG.

【0023】11は通信網であり、複数台の映像装置1
0を相互に接続して、必要に応じて各映像装置10の間
で画像や映像、数値などのデータの転送を行う。通信網
11はLAN(Local Area Networ
k:構内通信網)などのように比較的狭い範囲を対象と
する通信網を独自に構築しても良いし、インターネット
やWAN(Wide Area Network:広域
通信網)などの一部を構成するような形態でも良い。図
2では、複数台の映像装置10が通信網11によって相
互接続された場合の構成図を示している。図2における
映像装置10と通信網11は図1における映像装置1
0、通信網11と同一の機能を持つ。
Reference numeral 11 is a communication network, and a plurality of video devices 1
0s are connected to each other, and data such as images, videos, and numerical values are transferred between the video devices 10 as needed. The communication network 11 is a LAN (Local Area Network).
A communication network for a relatively narrow range such as k: a local area communication network) may be independently constructed, or a part of the Internet or a WAN (Wide Area Network) may be configured. It may be in any form. FIG. 2 shows a configuration diagram when a plurality of video devices 10 are interconnected by a communication network 11. The video device 10 and the communication network 11 in FIG. 2 are the video device 1 in FIG.
0, it has the same function as the communication network 11.

【0024】12は映像装置管理部である。映像装置管
理部12は、各映像装置10中のレンズ状態制御部6お
よび姿勢測定部5から取得され、データ管理部13によ
って保持されている各映像装置10のレンズ状態制御デ
ータ、姿勢データをもとにシステム全体の状態を管理
し、必要に応じて各映像装置10に対して、レンズ状態
制御部6、雲台制御部4を制御するための信号を送出す
る。例えば、ある映像装置10の位置、方位、ズーム値
などからその映像装置10が観測している対象物を映像
装置管理部12が検出し、映像装置管理部12は他の映
像装置10についても同一の対象物を観測するように、
レンズ状態制御部6、雲台制御部4に制御命令を送出す
るような制御を行うことが可能である。
Reference numeral 12 is a video device management unit. The image device management unit 12 also acquires the lens state control data and the attitude data of each image device 10 acquired from the lens state control unit 6 and the attitude measurement unit 5 in each image device 10 and held by the data management unit 13. In addition, the state of the entire system is managed, and a signal for controlling the lens state control unit 6 and the platform control unit 4 is sent to each image device 10 as needed. For example, the video device management unit 12 detects an object observed by the video device 10 from the position, orientation, zoom value, etc. of the video device 10, and the video device management unit 12 is the same for other video devices 10. To observe the object of
It is possible to perform control such that a control command is sent to the lens state control unit 6 and the platform control unit 4.

【0025】13はデータ管理部であり、例えばハード
ディスク等の記憶装置から構成される。映像装置10内
のデータ部8が保持するデータの元となるデータを格納
しており、データ部8が保持するデータはデータ部13
が保持するデータに包含される。データとしては、デー
タ部8と同様、3次元CGデータ、現実世界の奥行デー
タ、現実世界の3次元モデル、テキスト情報、パノラマ
映像などが挙げられる。
A data management unit 13 is composed of a storage device such as a hard disk. The original data of the data held by the data unit 8 in the video device 10 is stored, and the data held by the data unit 8 is the data unit 13
It is included in the data held by. As the data, like the data unit 8, three-dimensional CG data, depth data of the real world, three-dimensional model of the real world, text information, panoramic video and the like can be mentioned.

【0026】例えば、システムに新たなデータを追加す
るような場合には、まずデータ管理部13に追加され
る。データ管理部13は各映像装置10に対して追加さ
れたデータを送出し、映像装置10は受け取ったデータ
をデータ部8にコピーして保持する。こうすることによ
って、すべての映像装置10において共通したデータを
持つことが可能になる。また、映像装置10がデータ部
8を使用せず、常にデータ管理部13からデータを受け
るようにしても共通したデータを用いることができる
が、本実施形態では、映像装置10はデータに変更があ
ったときのみデータ管理部13のデータを参照し、デー
タ部8にキャッシュしておくようにする。さらにデータ
管理部13は各映像装置10中における撮像部1の位置
データ、姿勢制御部5から得られる姿勢データ、レンズ
状態制御部6から得られるレンズ状態データについても
保持しており、必要に応じて映像装置管理部12から各
映像装置10へ制御信号を送出するのに用いられる。
For example, when new data is added to the system, it is first added to the data management unit 13. The data management unit 13 sends the added data to each video device 10, and the video device 10 copies and holds the received data in the data unit 8. By doing so, it becomes possible to have common data in all video devices 10. Further, even if the video device 10 does not use the data unit 8 and always receives data from the data management unit 13, common data can be used, but in the present embodiment, the video device 10 does not change the data. Only when there is, the data of the data management unit 13 is referred to, and the data unit 8 is cached. Further, the data management unit 13 also holds the position data of the image pickup unit 1 in each video device 10, the posture data obtained from the posture control unit 5, and the lens state data obtained from the lens state control unit 6, and if necessary. And is used to send a control signal from the video device management unit 12 to each video device 10.

【0027】本実施形態ではデータ管理部13に対して
データの追加を行ったが、ある特定の映像装置10を設
定してデータ部8にデータの追加を行い、データ管理部
13がその特定の映像装置10のデータ部8の追加デー
タを参照してコピーした後に、他の映像装置10のデー
タ部8に反映させることも可能である。
In the present embodiment, the data is added to the data management unit 13. However, a certain specific video device 10 is set and the data is added to the data unit 8, and the data management unit 13 performs the specific addition. It is also possible to refer to the additional data of the data section 8 of the video device 10 and copy it, and then reflect it on the data section 8 of another video device 10.

【0028】14はサーバであり、映像装置管理部12
とデータ管理部13の機能を含む。サーバ14は通信網
11に接続されており、任意の映像制御装置10と通信
を行うことが可能である。サーバ14は単独で使用する
だけでなく、複数台設置して、制御対象やデータを分散
させることも可能である。また、サーバ14はその機能
をある特定の映像装置10に内蔵することも可能であ
る。
Reference numeral 14 denotes a server, which is a video device management unit 12
And the function of the data management unit 13. The server 14 is connected to the communication network 11 and can communicate with any video control device 10. Not only can the server 14 be used alone, but a plurality of servers 14 can be installed to distribute control targets and data. Further, the server 14 can also have its function built into a specific video device 10.

【0029】15は制御端末であり、通信網11に接続
されている。各映像装置10、サーバ14の内部状態の
監視を行うことや、操作を行うことが可能である。制御
端末15は単独で使用するだけでなく、複数台設置して
用いてもよい。また、ある特定の映像装置10やサーバ
14に内蔵される形で用いることも可能である。
A control terminal 15 is connected to the communication network 11. It is possible to monitor the internal state of each video device 10 and the server 14 and to perform an operation. The control terminal 15 may be used not only by itself but also by installing a plurality thereof. Moreover, it is also possible to use it as a form built in a certain specific video device 10 or server 14.

【0030】各映像装置10は、例えば建物や山、博物
館内の展示物などの同一対象物を、異なる視点から望む
ことができるように配置する。同一の対象物を観測する
ことが可能であれば、その配置には制約を受けない。例
えば、対象物を観測することができる建物内の同一のフ
ロアに複数台の映像装置10を設置してもよいし、異な
る建物に1台ずつ設置してもよい。山などの大きな対象
物の場合には、距離的に離れた展望台や、他の山などに
設置することも考えられる。
Each image device 10 is arranged so that the same object such as a building, a mountain, or an exhibit in a museum can be viewed from different viewpoints. As long as the same object can be observed, its placement is not restricted. For example, a plurality of image devices 10 may be installed on the same floor in the building where the object can be observed, or one image device 10 may be installed in a different building. In the case of a large object such as a mountain, it may be possible to install it on an observatory or another mountain that is far away.

【0031】以上の様な構成を備えた本実施形態の制御
について、以下説明する。図3は映像合成装置における
処理の手順を説明するフローチャートである。
The control of this embodiment having the above configuration will be described below. FIG. 3 is a flowchart illustrating a procedure of processing in the video composition device.

【0032】ステップS0ではデータ準備を行う。ステ
ップS0ではデータ管理部13またはデータ部8に格納
するデータを用意する。用意するデータとしてはたとえ
ばテキスト情報やパノラマ映像、3次元CGデータおよ
び現実世界の奥行データ、現実世界の3次元モデルなど
がある。このデータはあらかじめ現実世界との位置の対
応づけを行っておく必要があり、たとえば3次元CGな
らばそれが現実世界中でどの位置に配置されるかを指定
しておかねばならない。また、パノラマ映像であればパ
ノラマ映像のどの部分が現実世界のどの部分に対応する
かを指定しておかねばならない。
In step S0, data preparation is performed. In step S0, data to be stored in the data management unit 13 or the data unit 8 is prepared. Examples of the data to be prepared include text information, panoramic images, three-dimensional CG data, depth data of the real world, and three-dimensional model of the real world. This data needs to be associated with the position in the real world in advance. For example, in the case of a three-dimensional CG, the position in the real world where it should be arranged must be specified. In the case of a panoramic image, it is necessary to specify which part of the panoramic image corresponds to which part of the real world.

【0033】データ管理部13またはデータ部8にパノ
ラマ映像を格納する場合、格納するパノラマ映像として
は、たとえば異なる時間帯や場所において撮影したパノ
ラマ映像が考えられる。あらかじめ異なる時間帯に撮影
したパノラマ映像を格納することで、たとえば展望台に
おいて曇天時においても展望台からの晴天時の眺めを再
現することができる。また、異なる場所で撮影したパノ
ラマ映像を格納することで、全く異なる場所で撮影され
たパノラマ映像があたかもその場にあるかのように再現
することができる。
When the panoramic video is stored in the data management unit 13 or the data unit 8, the panoramic video to be stored may be, for example, a panoramic video taken at different time zones or places. By storing panoramic images captured in different time zones in advance, for example, even when the observatory is cloudy, the view from the observatory during fine weather can be reproduced. In addition, by storing panoramic images captured at different locations, panoramic images captured at completely different locations can be reproduced as if they were there.

【0034】データ管理部13またはデータ部8に格納
するパノラマ映像は、たとえば撮像部1で撮影する。こ
の場合、図18のように、撮像部1で撮影した映像を撮
影映像取込部2で取り込み、データ部8に撮影映像を送
ることになる。パノラマ映像はこのように撮像部1で撮
影し、それをデータ部8に格納することができるが、デ
ータ管理部13およびデータ部8にパノラマ映像を格納
できる方法であればこれに限らずどのような方法でもよ
い。
The panoramic video stored in the data management unit 13 or the data unit 8 is captured by the image capturing unit 1, for example. In this case, as shown in FIG. 18, the image captured by the image capturing unit 1 is captured by the captured image capturing unit 2, and the captured image is sent to the data unit 8. Although the panoramic video can be captured by the image capturing unit 1 and stored in the data unit 8 as described above, the present invention is not limited to this as long as the panoramic video can be stored in the data management unit 13 and the data unit 8. Any method is acceptable.

【0035】データ管理部13またはデータ部8にパノ
ラマ映像を格納する場合、そのパノラマ映像には空白の
部分が含まれていてもよい。パノラマ映像中の空白を表
現する方法としては、たとえばパノラマ映像の各画素に
透過度を表すα値を与え、空白となっている画素のα値
を0とする方法がある。撮影したパノラマ映像中におい
て、パノラマ映像の合成を必要としない部分のα値を0
としておけば、映像合成部3が撮影映像とパノラマ映像
を合成する際、α値が0となっている部分に撮影映像を
合成し、α値が0となっていない部分にはパノラマ映像
を合成することで、パノラマ映像と撮影映像を一つの合
成映像中に表示することが可能になる。このとき、パノ
ラマ映像の各画素のα値をすべて1とすれば、映像合成
時に、撮影映像を含まずパノラマ映像だけを含んだ合成
映像が合成されることになる。
When the panoramic video is stored in the data management unit 13 or the data unit 8, the panoramic video may include a blank portion. As a method of expressing the blank in the panoramic video, for example, there is a method in which each pixel of the panoramic video is provided with an α value representing the transparency, and the α value of the blank pixel is set to zero. In the captured panoramic video, the α value of the part that does not require the panoramic video synthesis is set to 0.
If so, when the image synthesizing unit 3 synthesizes the captured image and the panoramic image, the captured image is synthesized in the part where the α value is 0, and the panoramic image is synthesized in the part where the α value is not 0. By doing so, it becomes possible to display the panoramic video and the captured video in one composite video. At this time, if all the α values of each pixel of the panoramic video are set to 1, a composite video including only the panoramic video without the captured video is composited at the time of video composition.

【0036】このパノラマ映像の各画素にα値を与える
方法について、展望室において本実施形態の映像合成装
置を利用する場合の例を図11を用いて説明する。ステ
ップS0において、展望室から周囲の光景を撮影してパ
ノラマ映像Iが撮影され、このパノラマ映像Iには、室
内の映像Rと室外の映像Pが含まれるものとする。室内
の映像Rのα値を0とし、室外の映像Pのα値を1とす
ることで、映像合成部3で映像合成を行う際に、室内部
分については撮影映像を合成し、室外部分については室
外の映像Pを合成するといったことが可能になる。この
ことによって、室内を見た時には現実世界の撮影映像が
見え、室外を見た時にはあらかじめ撮影されたパノラマ
映像が見える、といったことが可能になる。
A method of giving an α value to each pixel of this panoramic image will be described with reference to FIG. 11 when an image synthesizing apparatus according to this embodiment is used in an observation room. In step S0, it is assumed that a panoramic image I is captured by photographing the surrounding scene from the observatory, and the panoramic image I includes an indoor image R and an outdoor image P. By setting the α value of the indoor image R to 0 and the α value of the outdoor image P to 1, when the image combining unit 3 performs image combination, the captured image is combined for the indoor part and the outdoor part for the outdoor part. It becomes possible to synthesize the outdoor image P. This makes it possible to see a real-world shot image when looking inside a room, and to see a panoramic image shot in advance when looking outside the room.

【0037】ここではパノラマ映像中の空白の部分を表
現する方法としてα値を用いる方法を挙げたが、この方
法はパノラマ映像中の空白の部分を表現できる方法であ
ればどのような方法でもよい。
Here, the method of using the α value is described as a method of expressing the blank portion in the panoramic image, but this method may be any method as long as it can express the blank portion in the panoramic image. .

【0038】また、ここに格納するパノラマ映像データ
は、たとえば3次元CGをあらかじめパノラマ映像とし
てレンダリングしたものであってもよい。一般的に3次
元CGの生成を実時間で行う場合には描画能力の制限な
どから3次元CGの精密さが限定されてしまうが、この
手法を用いることで3次元CGのモデルを無制限に精密
にし、より3次元CGの映像の質を高めることが可能で
ある。この際、レンダリングしたパノラマ映像の各画素
に透過度を表すα値を与え、パノラマ映像中においてC
Gの描かれていない部分のα値を0とすれば、映像合成
部3が撮影映像とコンピュータ映像を合成する際、α値
が0となっている部分について撮影映像を合成すること
で、撮影映像中にあらかじめレンダリングした3次元C
Gを合成することが可能になる。
The panoramic video data stored here may be, for example, three-dimensional CG rendered in advance as a panoramic video. Generally, when the three-dimensional CG is generated in real time, the precision of the three-dimensional CG is limited due to the limitation of the drawing ability. It is possible to further improve the quality of the image of the three-dimensional CG. At this time, an α value representing transparency is given to each pixel of the rendered panoramic image, and C is displayed in the panoramic image.
If the α value of the portion where G is not drawn is set to 0, when the image synthesis unit 3 synthesizes the captured image and the computer image, the captured image is synthesized by synthesizing the captured image in the portion where the α value is 0. 3D C rendered in the video in advance
It becomes possible to synthesize G.

【0039】図4は図3の処理手順のうち、データ準備
を行うステップS0で行われる現実世界3次元モデルを
入力する処理手順を説明するフローチャートである。図
3のステップS0は図4のステップS101〜S105
を含む。
FIG. 4 is a flow chart for explaining the processing procedure for inputting the real world three-dimensional model, which is carried out in step S0 of preparing data in the processing procedure of FIG. Step S0 of FIG. 3 corresponds to steps S101 to S105 of FIG.
including.

【0040】ステップS101では、複数の映像装置1
0をモデル化の対象となっている物体(例えば建物、山
など)の方向に向ける。そして、複数の映像装置10を
用いて対象物体(オブジェクト)を複数の視点から撮影
し、対象物体を含む現実世界の画像を複数取得する。な
お、この作業は手動・自動を問わない。
In step S101, a plurality of video devices 1
Point 0 towards the object being modeled (eg, building, mountain, etc.). Then, the target object (object) is photographed from a plurality of viewpoints using the plurality of video devices 10, and a plurality of images of the real world including the target object are acquired. This work may be manual or automatic.

【0041】ステップS102では、複数の映像装置1
0から位置姿勢情報を取得し、ステップS101で得ら
れた撮影画像に対応させてデータ管理部13に送信す
る。撮影画像と撮影画像の空間位置情報を示すことにな
る映像装置の位置姿勢情報は正しく対応付けて管理する
ことが重要である。
In step S102, the plurality of video devices 1
The position and orientation information is acquired from 0 and transmitted to the data management unit 13 in association with the captured image obtained in step S101. It is important to manage the captured image and the position / orientation information of the video device, which indicates the spatial position information of the captured image, in association with each other correctly.

【0042】位置を取得するための手段としては、例え
ばGPS(Global Positioning S
ystem:全地球無線測位システム)などの装置を用
いる方法や、地図や建物の図面などを基準にして、映像
装置10を設置した位置を推定する方法が考えられる。
姿勢に関しては、姿勢測定部5によって測定された結果
を用いる。これらの位置姿勢情報はサーバ14内のデー
タ管理部13に送られる。
Means for obtaining the position include, for example, GPS (Global Positioning S).
(system: global radio positioning system) or a method of estimating the position where the video device 10 is installed on the basis of a map or a drawing of a building.
As for the posture, the result measured by the posture measuring unit 5 is used. These pieces of position and orientation information are sent to the data management unit 13 in the server 14.

【0043】ステップS103では、現在対象となって
いる物体の現実世界の3次元モデル、あるいは現実世界
の奥行データを入力する。この3次元モデルおよび奥行
データは、現実世界の映像とコンピュータ映像との相互
関係を正しく反映させた状態で両者を合成するために必
要となる。
In step S103, the real world three-dimensional model of the target object or the depth data of the real world is input. The three-dimensional model and the depth data are necessary for synthesizing the real world image and the computer image in a state in which the mutual relationship between them is correctly reflected.

【0044】ここで、地図データから現実世界の3次元
モデルを生成する方法について図16、図17を用いて
説明する。
Here, a method for generating a three-dimensional model of the real world from map data will be described with reference to FIGS. 16 and 17.

【0045】図16のような地図があるものとして、そ
の地図の中には建物E,F,G,Hが描かれ、またこの
建物E,F,G,Hの高さ情報が何らかの方法で得られ
たものとする。ここで、地図の左下端を原点とし、1m
を1単位とした、図17のようなXYZ座標系を定義す
ると、建物Hは高さ10,幅15,奥行15の直方体と
して表現することができ、また他の建物E,F,Gも同
様に表現することができる。
Assuming that there is a map as shown in FIG. 16, buildings E, F, G, and H are drawn in the map, and the height information of the buildings E, F, G, and H is obtained by some method. It shall be obtained. Here, with the lower left corner of the map as the origin, 1 m
If the XYZ coordinate system as shown in FIG. 17 is defined with 1 as a unit, the building H can be expressed as a rectangular parallelepiped having a height of 10, a width of 15 and a depth of 15, and the other buildings E, F and G are also the same. Can be expressed in

【0046】以上のようにして地図データから現実世界
の3次元モデルを生成することができる。ここでは図1
7のような座標系を定義したが、この座標系がいかなる
ものであれ地図データから現実世界の3次元モデルを生
成することができるのは言うまでもない。また、現実世
界に3次元形状モデルデータを持たせる方法は上記の方
法に限らず、現実世界の3次元形状モデルが構築できる
方法であればどのような方法でもよい。
As described above, a three-dimensional model of the real world can be generated from the map data. Figure 1 here
Although a coordinate system such as 7 is defined, it goes without saying that a real world three-dimensional model can be generated from map data regardless of the coordinate system. Further, the method of providing the three-dimensional shape model data in the real world is not limited to the above method, and any method may be used as long as the three-dimensional shape model of the real world can be constructed.

【0047】また、現実世界の奥行情報は必ずしも3次
元のモデルでなくてもよく、たとえば図10のように二
次元のモデルとしてもよい。また、必ずしもすべての映
像装置10で統一されている現実世界の3次元モデルを
持つ必要はなく、各映像装置10においてレンジスキャ
ナなどで得られた現実世界の奥行データを持ち、利用す
ることとしてもよい。また,1台の映像装置10が複数
の撮像部1および撮影映像取込部2を持つような場合に
は、それぞれの撮影映像取込部2から得られた映像を用
いて三角測量により現実世界の奥行情報を求め、利用し
てもよい。現実世界に奥行情報を持たせる方法は上記の
方法に限らず、たとえば距離画像を用いる方法でもよ
く、現実世界までの奥行がわかるものであればどのよう
な方法でもよい。
The depth information in the real world does not necessarily have to be a three-dimensional model, but may be a two-dimensional model as shown in FIG. Further, it is not always necessary to have a three-dimensional model of the real world that is unified in all video devices 10, and it is possible to have and use the depth data of the real world obtained by a range scanner or the like in each video device 10. Good. When one video device 10 has a plurality of image capturing units 1 and captured image capturing units 2, the images obtained from the captured image capturing units 2 are used in the real world by triangulation. Depth information may be obtained and used. The method of giving depth information to the real world is not limited to the above method, and for example, a method using a distance image may be used, and any method may be used as long as the depth to the real world is known.

【0048】ステップS104では、ステップS103
によって得られた現実世界の3次元モデルについて、そ
の大きさや配置する位置、向きなどを調整する作業を行
う。
In step S104, step S103
With respect to the three-dimensional model of the real world obtained by, the work of adjusting the size, the position to be arranged, the orientation, etc.

【0049】具体的には、映像装置10の撮影映像取込
部2によって獲得された現実世界の映像に対して、現実
世界の3次元モデルをある映像装置10の視点からの現
実世界の奥行データに変換し、可視化した画像を合成す
る。そして、合成された現実世界の撮影画像に3次元モ
デルを合成した画像を表示する。具体的には、現実世界
の3次元モデルを映像装置10の視点からのCGとして
生成し、撮影画像に合成する。
Specifically, with respect to the real-world image acquired by the captured image capturing section 2 of the image device 10, the depth data of the real world from the viewpoint of the certain image device 10 is a three-dimensional model of the real world. Convert to and synthesize the visualized image. Then, an image in which a three-dimensional model is combined with the combined captured image of the real world is displayed. Specifically, a three-dimensional model of the real world is generated as a CG from the viewpoint of the video device 10, and is combined with the captured image.

【0050】ステップS103で作成された現実世界の
3次元モデルまたは現実世界の奥行データは、必ずしも
現実の物体の形状を正確に表現しているものであるとは
限らない。現実の物体を計測した際に誤差が含まれてい
る場合もあるし、モデル化する対象が建物のような場合
には、例えば直方体などのような単純な立体で近似する
ことも考えられる。また、現実の物体の形状は正確に得
られていても、それを配置する現実世界の位置や向きの
情報が正確でない場合も考えられる。これらの要因によ
って、現実世界の3次元モデルを映像装置10の視点で
の現実世界の奥行データに変換した映像と、同一の視点
から実際に観測された映像中の対象物とが必ずしも厳密
には一致せず、仮想物体の3次元CGを合成するとき
に、現実世界の映像とコンピュータ映像との間にずれが
生じてしまうことがある。
The three-dimensional model of the real world or the depth data of the real world created in step S103 does not always accurately represent the shape of the real object. An error may be included in the measurement of a real object, and when the object to be modeled is a building, it may be possible to approximate it with a simple solid such as a rectangular parallelepiped. In addition, even if the shape of a real object is accurately obtained, it is possible that the position and orientation information of the real world in which it is placed is not accurate. Due to these factors, the image obtained by converting the three-dimensional model of the real world into the depth data of the real world from the viewpoint of the image device 10 and the object in the image actually observed from the same viewpoint are not always strictly speaking. When they do not match and a three-dimensional CG of a virtual object is synthesized, a shift may occur between the real-world image and the computer image.

【0051】ステップS104では、現実世界の映像と
現実世界の3次元モデルのCGとが一致するように、後
述する調整画面を用いて操作者がマニュアルで現実世界
の3次元モデルの大きさ、位置、向きなどのパラメータ
を調整する。
In step S104, the operator manually operates the size and position of the three-dimensional model of the real world using an adjustment screen described later so that the image of the real world and the CG of the three-dimensional model of the real world match. , Adjust parameters such as orientation.

【0052】現実世界の3次元モデルは、データ管理部
13によって、システム全体で同一のパラメータを用い
て管理される。したがって、単独の映像装置10の視点
からのみこの調整作業を行うと、他の視点においてはず
れが拡大してしまう可能性がある。特に奥行方向の位置
の変化については、その量を把握しにくいため、その傾
向が顕著になる。
The data management unit 13 manages the three-dimensional model of the real world using the same parameters in the entire system. Therefore, if this adjustment work is performed only from the viewpoint of the single video device 10, the deviation may be enlarged from other viewpoints. In particular, regarding the change in the position in the depth direction, it is difficult to grasp the amount thereof, and therefore the tendency becomes remarkable.

【0053】そこで、本実施形態では、操作者は複数の
視点からの合成映像を同時に確認し、すべての視点でず
れを少なくするように3次元モデルを調整できる調整画
面を提供する。
Therefore, in the present embodiment, the operator provides an adjustment screen where the operator can simultaneously check the composite video images from a plurality of viewpoints and adjust the three-dimensional model so as to reduce the deviation at all viewpoints.

【0054】また、現実世界の3次元モデルが正確でな
いときには、すべての視点において正確に一致させるよ
うなパラメータが存在しないことがあるが、そのような
場合には目的に応じて、全体としてずれが少なくなるよ
うに調整するか、特定の視点を重要視して調整を行うこ
とになる。
When the three-dimensional model in the real world is not accurate, there may not be a parameter that allows accurate matching in all viewpoints. In such a case, however, there is an overall deviation depending on the purpose. The adjustment should be made so that the number becomes smaller, or the particular viewpoint should be emphasized.

【0055】調整方法の具体例を以下に説明する。A specific example of the adjusting method will be described below.

【0056】(3次元モデル調整方法1)操作者が制御
端末15上で図5に示すようなGUI(Graphic
al User Interface:グラフィカルユ
ーザインタフェース)を用いて調整作業を行う。図5の
GUIにおいては、複数の映像装置10から観測された
現実世界の映像50に、その視点から描画した現実世界
の3次元モデルのCG51を合成した映像が同時に表示
される。さらに、現実世界の3次元モデルのパラメータ
を詳細に表示するパラメータ表示部52を有する。
(Three-dimensional model adjusting method 1) The operator uses the GUI (Graphic) as shown in FIG.
The adjustment work is performed using an al User Interface (graphical user interface). In the GUI of FIG. 5, an image obtained by combining a real-world image 50 observed from a plurality of image devices 10 with a CG 51 of a three-dimensional model of the real world drawn from the viewpoint is displayed at the same time. Further, it has a parameter display unit 52 for displaying the parameters of the three-dimensional model in the real world in detail.

【0057】操作者は、任意の合成映像上でマウスなど
の入力装置を用いてカーソル54を移動させ、現実世界
の3次元モデルの大きさ、配置する位置、向きを調整す
る。
The operator moves the cursor 54 on an arbitrary composite image using an input device such as a mouse to adjust the size, position and orientation of the real world three-dimensional model.

【0058】パラメータを調整された現実世界の3次元
モデルのデータは、直ちにデータ管理部13から各映像
装置10に送られ、各映像装置10は変更後のパラメー
タを用いて再度現実世界の3次元モデルを現実世界の奥
行データに変換して、現実世界の映像と合成した映像を
生成する。各映像装置10により生成された複数の合成
映像はGUIに表示される。このようにしてGUIを用
いることにより、パラメータの変更結果を即座に確認し
ながら現実世界の3次元モデルの調整作業を行うことが
可能である。
The data of the three-dimensional model of the real world whose parameters have been adjusted is immediately sent from the data management unit 13 to each image device 10, and each image device 10 again uses the changed parameters to recreate the three-dimensional model of the real world. The model is converted to depth data in the real world, and an image combined with the real world image is generated. The plurality of composite videos generated by each video device 10 are displayed on the GUI. By using the GUI in this way, it is possible to perform the adjustment work of the three-dimensional model in the real world while immediately confirming the result of parameter change.

【0059】この調整方法によれば、3次元モデルの調
整結果を複数の視点からの映像上で確認することがで
き、適切な3次元モデルの調整を簡単に行うことができ
る。
According to this adjusting method, the adjustment result of the three-dimensional model can be confirmed on the images from a plurality of viewpoints, and the appropriate three-dimensional model can be easily adjusted.

【0060】(3次元モデル調整方法2)調整方法2で
は、調整方法1で用いた調整画面(図5)に、地図デー
タ53を追加する。
(Three-dimensional model adjusting method 2) In the adjusting method 2, the map data 53 is added to the adjusting screen (FIG. 5) used in the adjusting method 1.

【0061】そして、地図データから現実世界の3次元
モデルを作成する機能を有する。操作者は地図という2
次元上で対象物体の2次元情報を、カーソル54を操作
することにより指示する。
Then, it has a function of creating a three-dimensional model of the real world from the map data. The operator is called a map 2
The two-dimensional information of the target object is specified in the dimension by operating the cursor 54.

【0062】地図データ53上で指示された対象物体の
2次元情報に所定の高さ情報を加えて3次元モデルを作
成し、合成映像に表示する。そして、操作者は、合成映
像上で高さ情報を調整方法1と同様に、カーソルを用い
て高さ情報などのパラメータを調整する。
A predetermined height information is added to the two-dimensional information of the target object designated on the map data 53 to create a three-dimensional model, which is displayed on the composite image. Then, the operator uses the cursor to adjust the parameters such as the height information on the composite video in the same manner as the adjusting method 1.

【0063】調整方法2によれば、対象物体の2次元情
報を地図データを用いて簡単に作成することができる。
したがって、位置や方向のパラメータを簡単に調整する
ことができる。
According to the adjusting method 2, the two-dimensional information of the target object can be easily created by using the map data.
Therefore, the position and direction parameters can be easily adjusted.

【0064】なお、地図データを用いた対象物体の2次
元情報の作成は、図20に示されるように操作者が対象
物体を含む領域をラフに指示すると、指示された領域内
の画像を解析し対象物体の輪郭を抽出し、2次元情報が
自動作成されるようにしても構わない。画像解析を用い
ることにより、複雑な形状を有する対象物体の2次元情
報を簡単にかつ高精度に作成することができる。
The two-dimensional information of the target object using the map data is created by analyzing the image in the designated area when the operator roughly indicates the area including the target object as shown in FIG. However, the contour of the target object may be extracted and the two-dimensional information may be automatically created. By using image analysis, two-dimensional information of a target object having a complicated shape can be easily created with high accuracy.

【0065】また、図21に示されるように、調整画面
上に表示する合成映像の視点位置(視点および方向)
を、地図データ上に矢印55を用いて表示しても構わな
い。
Further, as shown in FIG. 21, the viewpoint position (viewpoint and direction) of the composite image displayed on the adjustment screen.
May be displayed on the map data by using the arrow 55.

【0066】地図データ上で視点位置を矢印を用いて表
示することにより、操作者は合成映像の視点位置を視覚
的に確認することができる。
By displaying the viewpoint position on the map data with the arrow, the operator can visually confirm the viewpoint position of the composite image.

【0067】さらには、ステップS101において調整
画面上に表示可能な数以上の映像装置からの撮影画像を
取得している場合には、ステップS102で取得した位
置姿勢情報を地図データ上に表示し、そして操作者が選
択した位置姿勢情報に対応する視点からの合成映像を調
整画面に表示するようにしても構わない。
Further, when the photographed images from the video devices of which the number cannot be displayed on the adjustment screen are acquired in step S101, the position and orientation information acquired in step S102 is displayed on the map data, Then, a composite image from the viewpoint corresponding to the position and orientation information selected by the operator may be displayed on the adjustment screen.

【0068】このようにすることにより、操作者はステ
ップS101で取得した撮影画像から任意の撮影画像を
用いて3次元モデルを調整することができる。また、選
択可能な視点が地図データ上に表示されるので、簡単に
所望の視点(撮影画像)を選択することができる。
By doing so, the operator can adjust the three-dimensional model using an arbitrary captured image from the captured image acquired in step S101. Further, since selectable viewpoints are displayed on the map data, it is possible to easily select a desired viewpoint (captured image).

【0069】(3次元調整方法3)調整方法1または2
の変形例である調整方法3を説明する。調整方法3で
は、図22に示されるように、パレット55に予め複数
の形状モデルを用意する。そして、カーソル54を用い
て操作者によって選択された形状モデルを、地図上の任
意の位置に配置する。そして、配置された結果が合成映
像に反映される。操作者は、合成映像および地図データ
を用いて配置された形状モデルを調整することにより、
3次元モデルのパラメータを調整する。
(Three-dimensional adjustment method 3) Adjustment method 1 or 2
Adjustment method 3, which is a modified example of, will be described. In the adjusting method 3, as shown in FIG. 22, a plurality of shape models are prepared in advance on the pallet 55. Then, the shape model selected by the operator using the cursor 54 is arranged at an arbitrary position on the map. Then, the arrangement result is reflected in the composite video. The operator adjusts the placed shape model using the composite video and map data,
Adjust the parameters of the 3D model.

【0070】調整方法3によれば、地図データで作成さ
れた2次元情報に高さ情報を付加するだけでは作成する
ことができない形状(円錐や球など)にも対応すること
ができる。
According to the adjusting method 3, it is possible to deal with a shape (cone, sphere, etc.) that cannot be created only by adding height information to the two-dimensional information created by the map data.

【0071】(3次元モデル調整方法4)3次元モデル
の調整は、操作者が手動で行う場合に限られない。例え
ば、操作者は図19のようにGUIを用いて現実世界の
3次元モデルの頂点などの特徴的な点である特徴点と、
その点がある映像装置10の視点から見た現実世界の映
像中で観測される対応点とを入力する。1つの映像装置
10について複数の特徴点を入力し、これを複数の映像
装置10に対して行う。入力した特徴点や対応点のデー
タはサーバ14に送られ、サーバ14では現実世界の3
次元モデルの大きさ、位置、向きなどを自動的に変更す
る。
(3D Model Adjusting Method 4) The adjustment of the 3D model is not limited to manual adjustment by the operator. For example, the operator uses a GUI as shown in FIG. 19 to identify characteristic points such as vertices of a three-dimensional model in the real world,
The corresponding point at which the point is observed in the image of the real world viewed from the viewpoint of the image device 10 is input. A plurality of feature points are input for one video device 10, and this is performed for the plurality of video devices 10. The data of the input feature points and corresponding points is sent to the server 14, and the server 14 uses the real world 3
Automatically change the size, position, and orientation of the dimensional model.

【0072】また特徴点や対応点の入力は、操作者が手
動で行う場合に限られない。取得された現実世界の映像
にエッジ抽出などの画像処理を適用して自動で対応点を
抽出してもよいし、前記現実世界の3次元モデルの幾何
特徴などを利用して,自動的に特徴点と対応点の対応付
けを行ってもよい。
The input of feature points and corresponding points is not limited to manual input by the operator. Corresponding points may be automatically extracted by applying image processing such as edge extraction to the acquired real-world image, or the feature may be automatically detected by using the geometric features of the three-dimensional model of the real world. The points may be associated with the corresponding points.

【0073】現実世界の3次元モデルの大きさ、位置、
向きをなどを自動的に変更する方法として、例えば現実
世界の3次元モデル中の特徴点を現実世界の映像上に射
影したときの座標と対応点の座標との距離を尺度とする
ような評価関数を定め、この関数を最小化するパラメー
タを求める方法が考えられる。この評価関数は3次元モ
デルの大きさ、位置、向きなどをパラメータとして取る
ようにすると、すべての視点において、現実世界の3次
元モデルと現実世界との映像を最もよく一致させるよう
な現実世界の3次元モデルの大きさ、位置、向きなどを
求めることができる。
The size and position of the three-dimensional model in the real world,
As a method of automatically changing the orientation, for example, an evaluation using the distance between the coordinates of a feature point in a three-dimensional model of the real world projected on the image of the real world and the coordinates of the corresponding points as a scale. A method of defining a function and obtaining a parameter that minimizes this function can be considered. If this evaluation function takes the size, position, orientation, etc. of the three-dimensional model as parameters, in all viewpoints, the image of the three-dimensional model of the real world and the image of the real world that best match the image of the real world will be obtained. The size, position, orientation, etc. of the three-dimensional model can be obtained.

【0074】ここで評価関数の例を示す。M台の映像装
置10があり、現実世界の3次元モデルにN点の特徴点
を設定して入力したとする。このとき、現実世界の映像
上の対応点の画素の二次元座標をP,特徴点の現実世界
の3次元モデルの3次元座標をXとする。また、現実世
界の3次元モデルの位置、向き、大きさをそれぞれL,
A,Sとし、3次元モデルの回転、平行移動、スケーリ
ングを表現する行列をL,A,Sの関数で表す。これを
R(L,A,S)とする。ある映像装置10の現在の位
置、姿勢において、現実世界の3次元モデルを描画し、
二次元の映像上に射影する行列をMとする。このとき評
価関数F(L,A,S)は現実世界の3次元モデルの特
徴点を現実世界の映像上に射影した点と対応点とのユー
クリッド距離を尺度として
Here, an example of the evaluation function is shown. It is assumed that there are M video devices 10 and N characteristic points are set and input in a three-dimensional model of the real world. At this time, the two-dimensional coordinate of the pixel of the corresponding point on the image of the real world is P, and the three-dimensional coordinate of the three-dimensional model of the feature point of the real world is X. The position, orientation, and size of the three-dimensional model in the real world are L,
A and S are matrices representing rotation, translation, and scaling of the three-dimensional model, which are represented by functions of L, A, and S. Let this be R (L, A, S). Draw a three-dimensional model of the real world at the current position and orientation of a certain video device 10,
Let M be a matrix projected onto a two-dimensional image. At this time, the evaluation function F (L, A, S) is based on the Euclidean distance between the corresponding point and the point where the characteristic point of the three-dimensional model of the real world is projected on the image of the real world.

【外1】 [Outer 1]

【0075】と表すことができる。It can be expressed as

【0076】また、評価関数を定めるときに、映像装置
の視点や役割に応じて重みづけ係数を用いて、現実世界
の3次元モデルと現実世界の映像とを、ある視点につい
て重点的に一致させるようにしてもよい。ゲームを行う
ための映像装置10と、そのゲームを傍観するための別
の映像装置10があったとき、例えばゲームを行う映像
装置10については重み付けの係数を大きく取り、傍観
するための映像装置10については重み付けの係数を小
さく取ると、現実世界の3次元モデルはゲームを行う映
像装置10から見た現実世界の映像により正確に一致す
るようになる。
When determining the evaluation function, the weighting coefficient is used according to the viewpoint and role of the video device, and the three-dimensional model of the real world and the video of the real world are made to coincide with each other with respect to a certain viewpoint. You may do it. When there is a video device 10 for playing a game and another video device 10 for watching the game, for example, for the video device 10 for playing the game, a large weighting coefficient is set and a video device 10 for watching the game is taken. With respect to, if the weighting coefficient is set to be small, the three-dimensional model of the real world is more accurately matched to the real world image viewed from the video device 10 playing the game.

【0077】ステップS101からステップS104ま
での作業を、現実世界をモデル化する対象物体すべてに
ついて繰り返す。ただし、これらの作業は映像装置10
の設置時に一度行っておき、その結果を保存しておくこ
とによって、映像装置10の位置およびモデル化した現
実世界そのものが変化しない限り、次回からは保存した
結果を読み込むだけでよい。
The operations from step S101 to step S104 are repeated for all target objects that model the real world. However, these operations are performed by the video device 10.
It is sufficient to read the saved result from the next time unless the position of the video device 10 and the modeled real world itself change by performing the operation once at the time of installation and saving the result.

【0078】データ準備後、ステップS1でシステムが
起動される。ステップS2で撮像部1から映像が取得さ
れ、取得された撮影映像はたとえばNTSC映像信号と
して撮影映像取込部2に送られる。この際、撮像部1か
ら撮影映像取込部2に送られる撮影映像はNTSC映像
信号に限らず、映像を表現できるものであれば何でもよ
い。
After preparing the data, the system is started in step S1. In step S2, an image is acquired from the image capturing unit 1, and the acquired captured image is sent to the captured image capturing unit 2 as an NTSC image signal, for example. At this time, the captured image sent from the image capturing unit 1 to the captured image capturing unit 2 is not limited to the NTSC image signal, but may be anything that can express the image.

【0079】撮像部1で撮影された撮影映像は撮影映像
取込部2で適切なフォーマットに変換され、映像合成部
3に送られる。撮影映像取込部2ではたとえば撮像部1
から送られてきたNTSC映像信号をデジタルデータに
変換して映像合成部3に送るが、撮像部1の送り出す映
像はNTSC映像信号に限らず映像を表現するものであ
れば何でもよく、また、撮影映像取込部2が映像合成部
3に送り出す撮影映像もデジタルデータに限らず映像を
表現し、映像合成部3が処理できるものであれば何でも
よい。
The picked-up image picked up by the image pickup unit 1 is converted into an appropriate format by the picked-up image taking unit 2 and sent to the image combining unit 3. In the captured image capturing unit 2, for example, the image capturing unit 1
The NTSC video signal sent from the device is converted into digital data and sent to the video synthesizing unit 3, but the video sent by the image pickup unit 1 is not limited to the NTSC video signal, and any image can be displayed. The captured image sent out by the image capturing unit 2 to the image synthesizing unit 3 is not limited to digital data and may be any image as long as the image can be expressed and processed by the image synthesizing unit 3.

【0080】ステップS3で姿勢測定部5が撮像部1の
姿勢を検知し、検知された姿勢情報はコンピュータ映像
生成部7に送られる。ステップS4でレンズ状態制御部
6が撮像部1で利用するレンズのズーム値やフォーカス
値といったレンズ状態情報を検知し、検知されたレンズ
状態情報はコンピュータ映像生成部7に送られる。
At step S3, the posture measuring unit 5 detects the posture of the image pickup unit 1, and the detected posture information is sent to the computer image generating unit 7. In step S4, the lens state control unit 6 detects lens state information such as a zoom value and a focus value of the lens used in the image pickup unit 1, and the detected lens state information is sent to the computer image generation unit 7.

【0081】ステップS5ではコンピュータ映像生成部
7が、姿勢測定部5から送出された姿勢情報とレンズ状
態制御部6から送出されたレンズ状態情報から撮像部1
の視野を推定し、データ部8から撮像部1の視野に含ま
れる範囲のデータを取得する。
In step S5, the computer image generation unit 7 uses the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6 to take an image from the image pickup unit 1.
The field of view is estimated, and the data in the range included in the field of view of the imaging unit 1 is acquired from the data unit 8.

【0082】ここで、姿勢測定部5から送出された姿勢
情報と、レンズ状態制御部6から送出されたレンズ状態
情報から撮像部1の視野を求める方法にはさまざまなも
のがあるが、ここではそのうち一つの方法を示す。一般
的に、撮像部1で利用するレンズのレンズ中心の位置と
撮像部1の視野角を求めれば視野を求めることが可能で
あるため、以下ではまず姿勢測定部5から送出された姿
勢情報から撮像部1で利用するレンズのレンズ中心の位
置を求める方法について記し、その後にレンズ状態制御
部6から送出されたレンズ状態情報から撮像部1の視野
角を求める方法について記す。
There are various methods for obtaining the visual field of the image pickup unit 1 from the posture information sent from the posture measuring unit 5 and the lens state information sent from the lens state control unit 6, but here, there are various methods. One of them is shown. In general, the field of view can be obtained by obtaining the position of the lens center of the lens used in the image pickup unit 1 and the view angle of the image pickup unit 1. Therefore, in the following, first, from the posture information sent from the posture measurement unit 5, A method for obtaining the position of the lens center of the lens used in the image pickup unit 1 will be described, and then a method for obtaining the viewing angle of the image pickup unit 1 from the lens state information sent from the lens state control unit 6 will be described.

【0083】姿勢測定部5から送出された姿勢情報から
撮像部1で利用するレンズのレンズ中心の位置を求める
方法を図12と図13を用いて説明する。図12は本実
施形態の映像合成装置の外観図である。撮像部1と表示
部9は雲台制御部4に一体的に支持されており、回転中
心0を中心として上下方向および左右方向に回転できる
ものとする。雲台制御部4は床に固定されているため、
床と回転中心0の位置関係は不変である。そのため、回
転中心0とレンズ中心L0の相対的な位置関係がわかれ
ば、現実世界に対するレンズ中心L0の位置が一意に定
まることとなる。
A method of obtaining the position of the lens center of the lens used in the image pickup unit 1 from the posture information sent from the posture measuring unit 5 will be described with reference to FIGS. 12 and 13. FIG. 12 is an external view of the video compositing apparatus of this embodiment. The image pickup unit 1 and the display unit 9 are integrally supported by the camera platform control unit 4 and can rotate about the rotation center 0 in the vertical direction and the horizontal direction. Since the platform controller 4 is fixed to the floor,
The positional relationship between the floor and the center of rotation 0 is unchanged. Therefore, if the relative positional relationship between the rotation center 0 and the lens center L0 is known, the position of the lens center L0 with respect to the real world can be uniquely determined.

【0084】ここで、回転中心0を原点としたXYZ座
標系を図のように定義し、左右の回転角φと上下の回転
角θを図13のように定義する。撮像部1で用いるレン
ズのレンズ中心L0から回転中心0までの距離をdとし
て表すと、レンズ中心L0の座標は x=−dsinθsinφ y=dsinθcosφ z=dcosθ として表される。ここではXYZ座標系を図13のよう
に定義したが、座標系をどのように定義しても、また上
下および左右の回転角をどのように定義しても、左右方
向の回転角と上下方向の回転角から撮像部1で利用する
レンズのレンズ中心の位置が求まることは言うまでもな
い。
Here, an XYZ coordinate system with the center of rotation 0 as the origin is defined as shown in the figure, and the left and right rotation angles φ and the upper and lower rotation angles θ are defined as shown in FIG. When the distance from the lens center L0 of the lens used in the imaging unit 1 to the rotation center 0 is represented as d, the coordinates of the lens center L0 are represented as x = −dsin θ sin φ y = d sin θ cos φ z = d cos θ. Here, the XYZ coordinate system is defined as shown in FIG. 13. However, no matter how the coordinate system is defined or the vertical and horizontal rotation angles are defined, the horizontal rotation angle and the vertical rotation angle are defined. It goes without saying that the position of the lens center of the lens used in the imaging unit 1 can be obtained from the rotation angle of.

【0085】レンズ状態制御部6から送出されたレンズ
状態情報から撮像部1の視野角を求める方法を図14と
図15を用いて説明する。まず、レンズ状態制御部6か
ら送出されるズーム値から撮像部1で利用するレンズの
焦点距離を算出する。ここで、レンズ状態制御部6から
送出されるズーム値は撮像部1に備えられた8ビットの
エンコーダから出力される値であるものとし、その値と
レンズの焦点距離が図14のテーブルのように求まって
いるものとする。すると、図14のテーブルを用い、テ
ーブルに載っていない値については補間を行うことで、
撮像部1で利用するレンズの焦点距離をレンズ状態制御
部6から送出されるズーム値を用いて求めることができ
る。ただし、レンズ状態制御部6が直接焦点距離を出力
することができる場合には、図14のようなテーブルを
用いて焦点距離を算出する必要はない。
A method of obtaining the viewing angle of the image pickup section 1 from the lens state information sent from the lens state control section 6 will be described with reference to FIGS. 14 and 15. First, the focal length of the lens used in the image pickup unit 1 is calculated from the zoom value sent from the lens state control unit 6. Here, it is assumed that the zoom value sent from the lens state control unit 6 is a value output from the 8-bit encoder provided in the image pickup unit 1, and the value and the focal length of the lens are as shown in the table of FIG. It is assumed that Then, by using the table in FIG. 14 and interpolating the values not in the table,
The focal length of the lens used in the image pickup unit 1 can be obtained using the zoom value sent from the lens state control unit 6. However, when the lens state control unit 6 can directly output the focal length, it is not necessary to calculate the focal length using the table shown in FIG.

【0086】以上のようにして求まった撮像部1で利用
するレンズの焦点距離をfとして、撮像部1に備わる撮
像面の横幅をxとすると、図15から撮像部1の左右方
向の視野角ψは次の式で求めることができる。
When the focal length of the lens used in the image pickup unit 1 obtained as described above is f and the lateral width of the image pickup surface provided in the image pickup unit 1 is x, the horizontal viewing angle of the image pickup unit 1 from FIG. 15 is obtained. ψ can be calculated by the following formula.

【0087】ψ=2arctan(x/2f) 同様に、撮像部1に備わる撮像面の高さをyとすると、
図15から撮像部1の上下方向の視野角μは次の式で求
めることができる。
Ψ = 2 arctan (x / 2f) Similarly, if the height of the image pickup surface provided in the image pickup unit 1 is y,
From FIG. 15, the vertical viewing angle μ of the imaging unit 1 can be obtained by the following equation.

【0088】μ=2arctan(y/2f) 以上のように、姿勢測定部5から送出された姿勢情報と
レンズ状態制御部6から送出されたレンズ状態情報から
撮像部1で利用するレンズのレンズ中心の位置と撮像部
1の視野角が求まり、したがって撮像部1の視野を求め
ることが可能である。この際、撮像部1の視野を求める
方法として上記のような方法を用いたが、撮像部1の視
野が求まる方法であれば上記のような方法に限らずどの
ような方法でもよい。
Μ = 2 arctan (y / 2f) As described above, the lens center of the lens used in the image pickup unit 1 is calculated from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6. And the viewing angle of the image pickup unit 1 are obtained, and thus the view of the image pickup unit 1 can be obtained. At this time, the method as described above is used as a method for obtaining the visual field of the image pickup unit 1, but any method may be used as long as the visual field of the image pickup unit 1 can be obtained without being limited to the above method.

【0089】また、ステップS5では通信網11を通じ
て、サーバ14へ姿勢推定部5によって得られた姿勢デ
ータ、レンズ状態制御部6で得られたレンズ状態データ
を送出する。また同時に、サーバ14からはシステム全
体の状態、雲台制御部4へ送られる制御信号、レンズ状
態制御部6へ送られるレンズ制御信号などを受け取る。
雲台制御部4、レンズ状態制御部6は受信した信号に従
って、担当する機器を制御する。
In step S5, the posture data obtained by the posture estimation unit 5 and the lens state data obtained by the lens state control unit 6 are sent to the server 14 through the communication network 11. At the same time, the server 14 receives the state of the entire system, the control signal sent to the camera platform control unit 4, the lens control signal sent to the lens state control unit 6, and the like.
The platform control unit 4 and the lens state control unit 6 control the equipment in charge according to the received signal.

【0090】さらにステップS5ではコンピュータ映像
生成部7が、姿勢測定部5から送出された姿勢情報とレ
ンズ状態制御部6から送出されたレンズ状態情報から撮
像部1の視野を推定し、データ部8から撮像部1の視野
に含まれる範囲のデータを取得する。同時にこのデータ
は通信網を通じてサーバ14へも送られる。
Further, in step S5, the computer image generation unit 7 estimates the visual field of the image pickup unit 1 from the posture information sent from the posture measurement unit 5 and the lens state information sent from the lens state control unit 6, and the data unit 8 The data of the range included in the visual field of the imaging unit 1 is acquired from. At the same time, this data is also sent to the server 14 through the communication network.

【0091】ステップS6ではデータ部8から取得した
データを用いてコンピュータ映像生成部7がコンピュー
タ映像を生成する。生成した映像は映像合成部3に送ら
れる。
In step S6, the computer image generation unit 7 uses the data acquired from the data unit 8 to generate a computer image. The generated image is sent to the image synthesizing unit 3.

【0092】ステップS6の時点で、データ部8にパノ
ラマ映像を解像度を変えて多段に持ち利用すれば、撮像
部1で利用するレンズのレンズ状態情報のうちズーム情
報を用いてパノラマ映像の解像度を切り替えて表示する
ことも可能である。すなわち、ズームアウトした時には
解像度の粗いパノラマを表示し、ズームインしていくに
つれ解像度の細かい映像を表示していくことで、常に鮮
明なパノラマ映像をストレスなく提示することが可能で
ある。
At step S6, if panoramic images are used in the data section 8 in multiple stages with different resolutions, the panoramic image resolution can be determined by using the zoom information of the lens state information of the lens used in the image pickup section 1. It is also possible to switch and display. That is, when a zoom-out is performed, a coarse panorama image is displayed, and as the zoom-in is performed, a finer resolution image is displayed, so that a clear panoramic image can always be presented without stress.

【0093】ステップS7では、映像合成部3において
撮影映像取込部2から送出された撮影映像と、コンピュ
ータ映像生成部7から送出されたコンピュータ映像が合
成される。合成された合成映像は表示部9に送られる。
ステップS8では映像合成部3から送出されてきた映像
情報を表示部9が表示する。その後ステップS9でシス
テムを終了するかどうかがチェックされ、システムを終
了させる場合はステップS10でシステムを終了させ、
終了させない場合にはステップS2に戻り、上述の処理
を繰り返す。
In step S7, the captured image transmitted from the captured image capturing section 2 and the computer image transmitted from the computer image generation section 7 are synthesized in the image synthesis section 3. The combined composite image is sent to the display unit 9.
In step S8, the display unit 9 displays the video information sent from the video composition unit 3. After that, in step S9, it is checked whether or not to terminate the system. If the system is to be terminated, the system is terminated in step S10,
When not ending, it returns to step S2 and repeats the above-mentioned processing.

【0094】以上のように、第一の実施形態によれば、
たとえば展望台において曇天時においても展望台からの
晴天時の眺めを再現することができる。展望台において
晴天時に撮影したパノラマ映像をあらかじめデータ管理
部13またはデータ部8に格納し、姿勢情報とレンズ状
態情報を用いて撮像部1の視野を定め、パノラマ映像か
らその視野の部分を切り出して表示部9に表示すること
で、前記の事項は達成される。
As described above, according to the first embodiment,
For example, it is possible to reproduce the view from a observatory on a clear day even when it is cloudy. A panoramic image taken in fine weather at the observatory is stored in advance in the data management unit 13 or the data unit 8, the field of view of the imaging unit 1 is determined using the posture information and the lens state information, and the field of view is cut out from the panoramic image. By displaying on the display unit 9, the above items are achieved.

【0095】以上のように、本実施形態に映像合成装置
によれば、たとえば実際の風景のビルに重ねて仮想のキ
ャラクタを見ることができる。データ管理部13または
データ部8にあらかじめ現実世界の3次元モデル、現実
世界の奥行データおよび仮想キャラクタの3次元CGデ
ータを格納することで前記の事項は達成される。すなわ
ち、あらかじめ現実世界のビルの間の部分に仮想の3次
元CGのキャラクタの位置を定めておき、位置姿勢情報
とレンズ状態情報を用いて適切な位置、すなわちビルの
間の部分に仮想のキャラクタの映像を生成し、撮影映像
取込部2で獲得した映像に合成すればよい。
As described above, according to the image synthesizing apparatus of this embodiment, a virtual character can be seen, for example, by superimposing it on a building of an actual landscape. The above items are achieved by storing in advance the three-dimensional model of the real world, the depth data of the real world, and the three-dimensional CG data of the virtual character in the data management unit 13 or the data unit 8. That is, the position of a virtual three-dimensional CG character is set in advance between the buildings in the real world, and the virtual character is set at an appropriate position using the position / orientation information and the lens state information, that is, the portion between the buildings. Image may be generated and combined with the image acquired by the captured image capturing unit 2.

【0096】さらには、たとえば複数台の映像装置10
から実際の風景の同一のビルに重ねて、それぞれの視点
からの見え方で仮想のキャラクタを見ることができる。
装置に入力した現実世界の3次元モデルが正確でないよ
うな場合でも、その位置・大きさ・向きなどのパラメー
タを調整することによって、現実のビルと仮想のキャラ
クタの前後関係をより正確に表現することが可能であ
る。この調整は、映像装置10の撮影映像取込部2から
取り込まれる映像にその視点から見た現実世界の奥行デ
ータを可視化して合成した映像を、複数の視点から同時
に観測しながら行うことによって、調整を正確に効率よ
く行うことが可能である。また、3次元モデルの座標と
映像中での対応点を入力することによって、これらの調
整作業を自動で行うことも可能である。
Further, for example, a plurality of video devices 10 are provided.
It is possible to see virtual characters from different viewpoints by overlaying them on the same building in the actual landscape.
Even if the 3D model of the real world input to the device is not accurate, by adjusting the parameters such as position, size, and orientation, the front-back relation between the real building and the virtual character can be represented more accurately. It is possible. This adjustment is performed by simultaneously observing from a plurality of viewpoints an image obtained by visualizing and synthesizing the depth data of the real world viewed from the viewpoint with the image captured from the captured image capturing unit 2 of the image device 10. The adjustment can be performed accurately and efficiently. It is also possible to automatically perform these adjustment operations by inputting the coordinates of the three-dimensional model and the corresponding points in the image.

【0097】また、本実施形態によれば、たとえば特定
の1台の映像装置10を手動で人が操作し、他の映像装
置10については、手動で操作されている前記映像装置
10において、観測されている対象と同一の対象を追跡
することによって教示などに役立てることができる。ま
た、他の映像装置10上で合成された映像を別の映像装
置10に伝送することによって、ある視点からは死角に
なっていて見えない対象やその一部分(例えば建物の裏
側など)を、別の角度から観測することも可能となる。
Further, according to the present embodiment, for example, a person manually operates one specific video device 10, and the other video devices 10 are observed by the manually operated video device 10. By tracking the same object as the object being taught, it can be useful for teaching and the like. In addition, by transmitting an image synthesized on another image device 10 to another image device 10, an object or a part thereof (for example, the back side of a building) that is a blind spot from a certain viewpoint and cannot be seen is separated. It is also possible to observe from the angle.

【0098】本実施形態の映像合成装置においては、撮
像部1に加えてもう一つ撮像部を持ち、それぞれの撮像
部について撮影映像取込部2・コンピュータ映像生成部
7・映像合成部3・表示部9を持つことで、本実施形態
の映像合成装置を双眼鏡として使うことが可能になる。
言うまでもないが、この際の映像合成装置の処理手順は
撮像部1が一つの構成の場合と何ら変わりはない。この
際、図示しない操作部や制御信号によりレンズの状態を
操作する時には、それぞれの撮像部で利用するレンズの
状態を連動させることが必要である。
The image synthesizing device of this embodiment has another image pickup unit in addition to the image pickup unit 1, and each image pickup unit has a photographed image capturing unit 2, a computer image generating unit 7, an image synthesizing unit 3, By having the display unit 9, it becomes possible to use the image synthesizing apparatus of this embodiment as binoculars.
Needless to say, the processing procedure of the video synthesizing device at this time is no different from that in the case where the image pickup unit 1 has a single configuration. At this time, when operating the state of the lens by an operation unit (not shown) or a control signal, it is necessary to interlock the state of the lens used in each imaging unit.

【0099】<第2の実施形態>第2の実施形態では、
図示しない合成映像記憶部20と図示しない記憶映像出
力部21を備え、本実施形態の使用者が観察する合成映
像を記憶し、表示部9以外の媒体に出力する。
<Second Embodiment> In the second embodiment,
A composite video storage unit 20 (not shown) and a storage video output unit 21 (not shown) are provided to store a composite video image observed by the user of the present embodiment and output it to a medium other than the display unit 9.

【0100】合成映像記憶部20は例えばハードディス
クからなり、映像合成部3から合成映像信号を受け取
り、記録する。合成映像記憶部20としては他にたとえ
ばビデオレコーダやハードディスク等を用いることが考
えられ、映像を記憶できる媒体であれば何でもよい。ま
た、合成映像記憶部20には合成映像以外の情報も記憶
され、たとえば合成した日付や場所といったテキスト情
報や画像情報が記録される。
The composite video storage unit 20 is composed of a hard disk, for example, and receives the composite video signal from the video composition unit 3 and records it. It is conceivable to use, for example, a video recorder or a hard disk as the composite video storage unit 20, and any medium can be used as long as it can store video. Information other than the composite video is also stored in the composite video storage unit 20, for example, text information and image information such as the date and place of the composite are recorded.

【0101】合成映像記憶部20に合成映像などの情報
を記憶する処理はステップS8に含まれる。映像合成部
3は映像情報を表示部9に送出すると同時に、合成映像
記憶部20に対しても映像情報を送出する。また、テキ
スト情報や画像情報などはデータ管理部13またはデー
タ部8から合成映像記憶部20に送出される。
The process of storing information such as a composite video in the composite video storage unit 20 is included in step S8. The video synthesizing unit 3 sends the video information to the display unit 9 and also sends the video information to the synthetic video storage unit 20. Text information, image information, etc. are sent from the data management unit 13 or the data unit 8 to the composite video storage unit 20.

【0102】また、合成映像記憶部20は映像装置10
に備えるだけでなく、サーバ14に備えることも可能で
ある。映像合成部3から出力された合成映像は通信網1
1を介して合成映像記憶部20に入力される。この場
合、合成映像記憶部20にはすべての映像装置10から
の合成映像が記録されるので、複数の映像装置10から
の合成映像を同時に参照することが可能である。
Further, the composite video storage unit 20 is the video device 10
It is possible to provide not only for the server 14 but also for the server 14. The composite video output from the video composition unit 3 is the communication network 1
1 to the composite video storage unit 20. In this case, since the composite video from all the video devices 10 is recorded in the composite video storage unit 20, it is possible to simultaneously refer to the composite video from the plurality of video devices 10.

【0103】記憶映像出力部21は例えばプリンタから
なり、合成映像記憶部20が保持している情報を表示部
9以外の媒体に出力する。この処理はステップS10に
含まれる。本映像合成装置の使用者がステップS9で使
用を終えたとき、ステップS8で記憶映像出力部21か
ら出力された結果は使用者に渡される。使用者は自らが
本実施形態の映像合成装置を使用した際の合成映像の静
止画を記念として持ち帰ることや、また記憶映像出力部
21にビデオレコーダを用いれば、使用者本人および他
の使用者が合成装置を使用した際の合成映像の動画を持
ち帰ることも可能である。
The storage image output unit 21 is composed of, for example, a printer, and outputs the information held in the composite image storage unit 20 to a medium other than the display unit 9. This process is included in step S10. When the user of this video synthesizer finishes using it in step S9, the result output from the stored video output unit 21 in step S8 is passed to the user. If a user brings back a still image of a composite image when he / she uses the image composition apparatus of this embodiment, or if a video recorder is used for the stored image output unit 21, the user himself or another user It is also possible to bring back a moving image of a composite image when using the composition device.

【0104】以上のように第2の実施形態によれば、使
用者は自らが体験して観察した映像のプリントアウトや
合成映像の動画を持ち帰ることが可能となる。
As described above, according to the second embodiment, it becomes possible for the user to bring back a printout of an image that he / she has experienced and observed, or a moving image of a composite image.

【0105】以上のように、前記各実施形態によれば、
展望台などにおいて、本実施形態の映像合成装置を通し
て自由に視点を変えながら使用者は現実世界に重ねてC
Gを見たり、また現実世界のかわりにあらかじめ格納し
ていたパノラマ映像を見たりすることができる。また、
使用者は現実世界に現れたCGのキャラクタを自由に動
かしたり、また合成映像の静止画や動画を記念品として
持ち帰ることが可能である。さらに、現実世界と仮想世
界との前後関係を表現するための調整作業を効率的に行
うことも可能である。
As described above, according to each of the above embodiments,
At the observatory, etc., the user can change the viewpoint freely through the image synthesizing device according to the present embodiment, and the user overlays the C on the real world.
You can see G or see the panoramic video stored in advance instead of the real world. Also,
The user can freely move the CG character appearing in the real world, and can bring back a still image or a moving image of the composite image as a souvenir. Furthermore, it is possible to efficiently perform the adjustment work for expressing the context between the real world and the virtual world.

【0106】また、本実施形態の映像合成装置は、当然
のことながら展望台や博物館での利用に限られるもので
はなく、本実施形態の映像合成装置が有効に利用可能な
全ての状況において用いることが可能である。
The video synthesizing apparatus of this embodiment is naturally not limited to use in an observatory or a museum, but is used in all situations where the video synthesizing apparatus of this embodiment can be effectively used. It is possible.

【0107】本実施形態の目的は、前述した実施形態の
機能を実現するソフトウェアのプログラムコードを記録
した記憶媒体(または記録媒体)を、システムあるいは
装置に供給し、そのシステムあるいは装置のコンピュー
タ(またはCPUやMPU)が記憶媒体に格納されたプ
ログラムコードを読み出し実行することによっても達成
される。この場合、記憶媒体から読み出されたプログラ
ムコード自体が前述した実施形態の機能を実現すること
になり、そのプログラムコードを記憶した記憶媒体は本
実施形態を構成することになる。また、コンピュータが
読み出したプログラムコードを実行することにより、前
述した実施形態の機能が実現されるだけでなく、そのプ
ログラムコードの指示に基づき、コンピュータ上で稼動
しているオペレーティングシステム(0S)などが実際
の処理の一部または全部を行い、その処理によって前述
した実施形態の機能が実現される場合も含まれることは
言うまでもない。
The object of the present embodiment is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply a computer (or computer) of the system or apparatus. It is also achieved by the CPU or MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present embodiment. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the operating system (0S) or the like operating on the computer is executed based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0108】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張カードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部または全部を行
い、その処理によって前述した実施形態の機能が実現さ
れる場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that a case where the CPU included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments is also included.

【0109】[0109]

【発明の効果】本発明によれば、現実物体の3次元モデ
ルを簡単に作成することができる。
According to the present invention, it is possible to easily create a three-dimensional model of a physical object.

【図面の簡単な説明】[Brief description of drawings]

【図1】映像合成装置の概略構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a schematic configuration of a video composition device.

【図2】映像合成装置が通信網を介して相互接続される
場合の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration in the case where video synthesizing apparatuses are mutually connected via a communication network.

【図3】映像合成装置の処理手順を説明するフローチャ
ートである。
FIG. 3 is a flowchart illustrating a processing procedure of a video composition device.

【図4】映像合成装置の処理手順のうち、データ準備の
詳細を説明するフローチャートである。
FIG. 4 is a flowchart illustrating details of data preparation in the processing procedure of the video composition device.

【図5】現実世界の3次元モデルの調整作業を行うGU
Iの例を示す図である。
[Fig. 5] GU performing adjustment work for a three-dimensional model in the real world
It is a figure which shows the example of I.

【図6】地図データから現実世界の3次元モデルを作成
するためのGUIの例を示す図である.
FIG. 6 is a diagram showing an example of a GUI for creating a three-dimensional model of the real world from map data.

【図7】現実世界の建物と仮想のキャラクタの前後関係
が表現されていない場合の図である。
FIG. 7 is a diagram showing a case where the front-rear relationship between a real world building and a virtual character is not expressed.

【図8】現実世界の建物と仮想のキャラクタの前後関係
が表現されている場合の図である。
FIG. 8 is a diagram showing a case where the front-rear relationship between a real world building and a virtual character is expressed.

【図9】現実世界の建物と仮想のキャラクタの接触関係
が表現されている場合の図である。
FIG. 9 is a diagram when a contact relationship between a real world building and a virtual character is expressed.

【図10】現実世界のモデルを二次元のモデルとして表
現した場合の図である。
FIG. 10 is a diagram when a real world model is expressed as a two-dimensional model.

【図11】パノラマ映像の一部分にα値を与える場合を
説明する図である。
FIG. 11 is a diagram illustrating a case where an α value is given to a part of a panoramic video.

【図12】姿勢制御部から送られる姿勢情報から撮像部
で利用するレンズのレンズ中心の位置を求める方法を説
明する図である。
FIG. 12 is a diagram illustrating a method of obtaining the position of the lens center of the lens used in the imaging unit from the posture information sent from the posture control unit.

【図13】姿勢制御部から送られる姿勢情報から撮像部
で利用するレンズのレンズ中心の位置を求める方法を説
明する図である。
FIG. 13 is a diagram illustrating a method of obtaining the position of the lens center of the lens used in the imaging unit from the posture information sent from the posture control unit.

【図14】レンズ状態制御部から送られるレンズ状態情
報から撮像部で利用するレンズの焦点距離を求める方法
を説明する図である。
FIG. 14 is a diagram illustrating a method of obtaining a focal length of a lens used in an imaging unit from lens state information sent from a lens state control unit.

【図15】撮像部で利用するレンズの焦点距離からレン
ズの視野角を求める方法を説明する図である。
FIG. 15 is a diagram illustrating a method of obtaining a viewing angle of a lens from a focal length of the lens used in the imaging unit.

【図16】地図データから現実世界の3次元モデルを生
成する方法を説明する図である。
FIG. 16 is a diagram illustrating a method of generating a three-dimensional model of the real world from map data.

【図17】地図データから現実世界の3次元モデルを生
成する方法を説明する図である。
FIG. 17 is a diagram illustrating a method of generating a three-dimensional model of the real world from map data.

【図18】撮像部でパノラマ映像を撮影し、データ部に
格納する場合を説明する図である。
FIG. 18 is a diagram illustrating a case where a panoramic video is captured by the image capturing unit and stored in the data unit.

【図19】現実世界の3次元モデルの点と現実世界の映
像中の点との対応付け作業を説明する図である。
FIG. 19 is a diagram illustrating a work of associating points of a three-dimensional model in the real world with points in an image of the real world.

【図20】現実世界の3次元モデルの調整作業を行うG
UIの例を示す図である。
FIG. 20: G performing adjustment work of a three-dimensional model in the real world
It is a figure which shows the example of UI.

【図21】現実世界の3次元モデルの調整作業を行うG
UIの例を示す図である。
FIG. 21: G performing adjustment work of a three-dimensional model in the real world
It is a figure which shows the example of UI.

【図22】現実世界の3次元モデルの調整作業を行うG
UIの例を示す図である。
FIG. 22: G performing adjustment work of a three-dimensional model in the real world
It is a figure which shows the example of UI.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/272 H04N 5/272 (72)発明者 穴吹 まほろ 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 小野 英太 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 鈴木 雅博 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 片山 昭宏 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 Fターム(参考) 2C001 BA03 BC00 BC07 BC08 DA06 5B050 AA09 BA06 BA08 BA09 BA11 CA07 CA08 DA07 EA07 EA19 EA24 EA27 FA02 FA09 5B057 AA20 BA02 CA01 CA08 CA12 CA13 CA16 CA17 CB01 CB08 CB13 CB16 CE08 DA07 DA16 DB03 DB09 DC02 DC36 5C023 AA16 AA38 BA02 BA11 CA03 DA08 EA03 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/272 H04N 5/272 (72) Inventor Mahoro Anabuki 3-30-2 Shimomaruko, Ota-ku, Tokyo Kyano (72) Inventor Eita Ono 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Co., Ltd. (72) Inventor Masahiro Suzuki 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Co., Ltd. (72) Inventor Akihiro Katayama 3-30-2 Shimomaruko, Ota-ku, Tokyo F-Term (in reference) 2C001 BA03 BC00 BC07 BC08 DA06 5B050 AA09 BA06 BA08 BA09 BA11 CA07 CA08 DA07 EA07 EA19 EA24 EA27 FA02 FA09 5B057 AA20 BA02 CA01 CA08 CA12 CA13 CA16 CA17 CB01 CB08 CB13 CB16 CE08 DA07 DA16 DB03 DB09 DC02 DC36 5C023 AA16 AA38 BA02 BA11 CA03 DA08 EA03

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 現実世界を示す画像に仮想世界を示すコ
ンピュータ映像を合成するために用いる、該現実世界を
示す画像に含まれるオブジェクトの3次元モデルを、調
整画面を用いて設定する情報処理方法であって、 複数の視点から得られる、前記オブジェクトを含む現実
世界を示す画像を取得し、 前記複数の現実世界を示す画像の空間位置情報と、前記
オブジェクトに対応する3次元モデルの位置情報に基づ
き、前記複数の現実世界を示す画像の夫々に前記オブジ
ェクトに対応する3次元モデルを合成し、前記調整画面
に表示させ、 前記複数の合成画像に基づき、ユーザがマニュアル指示
で該合成画像における前記オブジェクトに対応する3次
元モデルの位置および形状を調整することを特徴とする
情報処理方法。
1. An information processing method for setting, using an adjustment screen, a three-dimensional model of an object included in an image showing the real world, which is used for synthesizing a computer image showing the virtual world with an image showing the real world. That is, an image showing the real world including the object obtained from a plurality of viewpoints is acquired, and the spatial position information of the image showing the plurality of real world and the position information of the three-dimensional model corresponding to the object are acquired. On the basis of the plurality of images showing the real world, the three-dimensional model corresponding to the object is synthesized and displayed on the adjustment screen. An information processing method characterized by adjusting the position and shape of a three-dimensional model corresponding to an object.
【請求項2】 さらに、前記調整画面に前記現実世界を
示す画像に対応する地図データを表示させ、 前記地図データ上に前記オブジェクトに対応する3次元
モデルを合成し、表示することを特徴とする請求項1記
載の情報処理方法。
2. The map data corresponding to the image showing the real world is displayed on the adjustment screen, and the three-dimensional model corresponding to the object is synthesized and displayed on the map data. The information processing method according to claim 1.
【請求項3】 さらに、前記地図データ上で前記3次元
モデルの位置、形状を調整可能であることを特徴とする
請求項2記載の情報処理方法。
3. The information processing method according to claim 2, wherein the position and shape of the three-dimensional model can be adjusted on the map data.
【請求項4】 さらに、前記地図データ上に、前記複数
の視点を示す情報を合成することを特徴とする請求項1
記載の情報処理方法。
4. The information indicating the plurality of viewpoints is combined on the map data.
Information processing method described.
【請求項5】 さらに、前記地図データ上に、前記複数
の視点および該視点の方位を示す情報を合成することを
特徴とする請求項1記載の情報処理方法。
5. The information processing method according to claim 1, further comprising synthesizing information indicating the plurality of viewpoints and directions of the viewpoints on the map data.
【請求項6】 さらに、前記地図データに基づき前記オ
ブジェクトの3次元モデルを作成することを特徴とする
請求項1記載の情報処理方法。
6. The information processing method according to claim 1, further comprising creating a three-dimensional model of the object based on the map data.
【請求項7】 請求項1記載の情報処理方法を実現する
ためのプログラム。
7. A program for realizing the information processing method according to claim 1.
【請求項8】 現実世界を示す画像に仮想世界を示すコ
ンピュータ映像を合成するために用いる、該現実世界を
示す画像に含まれるオブジェクトの3次元モデルを、調
整画面を用いて設定する情報処理方法であって、 前記オブジェクトを含む現実世界を示す画像を取得し、
前記調整画面に表示させ、 前記調整画面に表示されている複数の立体モデルから、
ユーザ指示に基づき任意の立体モデルを選択し、 前記選択された立体モデルを、前記現実世界を示す画像
に合成し、前記調整画面に表示させ、 ユーザ指示に応じて、前記現実世界を示す画像に合成さ
れた立体モデルの位置および形状を調整することを特徴
とする情報処理方法。
8. An information processing method for setting, using an adjustment screen, a three-dimensional model of an object included in an image showing the real world, which is used for synthesizing a computer image showing the virtual world with an image showing the real world. And acquiring an image showing the real world including the object,
Displayed on the adjustment screen, from the plurality of three-dimensional models displayed on the adjustment screen,
An arbitrary three-dimensional model is selected based on a user instruction, the selected three-dimensional model is combined with an image showing the real world, displayed on the adjustment screen, and an image showing the real world is displayed according to the user instruction. An information processing method characterized by adjusting the position and shape of a synthesized stereo model.
【請求項9】 請求項8記載の情報処理方法を実現する
ためのプログラム。
9. A program for realizing the information processing method according to claim 8.
【請求項10】 現実世界を撮影する撮像部と、 前記撮像部を支持する指示部と、 前記撮像部の姿勢を測定する姿勢測定部と、 コンピュータ映像を生成するためのデータと現実世界の
3次元モデルデータを保持するデータ部と、 前記姿勢測定部で測定された姿勢情報をもとに、前記デ
ータ部に保持されているデータを用いてコンピュータ映
像を生成するコンピュータ映像生成部と、 前記撮影部によって撮影された撮影映像と前記コンピュ
ータ映像生成部で生成されたコンピュータ映像を、前記
現実世界の3次元モデルデータに基づき合成する映像合
成部と、 前記現実世界の3次元モデルを前記撮影部によって撮影
された撮影画像を用いて作成、調整する3次元モデル作
成部を有することを特徴とする映像合成装置。
10. An image pickup section for photographing the real world, an instruction section for supporting the image pickup section, a posture measuring section for measuring the posture of the image pickup section, data for generating a computer image, and three of the real world. A data unit that holds dimensional model data; a computer image generation unit that generates a computer image using the data held in the data unit based on the posture information measured by the posture measurement unit; An image synthesizing unit for synthesizing a photographed image photographed by a computer unit and a computer image generated by the computer image generating unit based on the three-dimensional model data of the real world; and a three-dimensional model of the real world by the photographing unit. An image synthesizing apparatus having a three-dimensional model creating unit that creates and adjusts using a captured image that has been captured.
【請求項11】 前記現実世界の3次元モデルは、複数
の撮影部によって撮影された撮影画像を用い、3次元測
量により獲得する奥行データが含まれることを特徴とす
る請求項10記載の映像合成装置。
11. The image composition according to claim 10, wherein the three-dimensional model of the real world includes depth data obtained by three-dimensional survey using photographed images photographed by a plurality of photographing units. apparatus.
【請求項12】 前記現実世界の3次元モデルの調整
は、前記現実世界の3次元モデルの特徴点と現実世界の
映像上の対応点を入力することによって自動で行われる
ことを特徴とする請求項10記載の映像合成装置。
12. The adjustment of the three-dimensional model of the real world is automatically performed by inputting feature points of the three-dimensional model of the real world and corresponding points on an image of the real world. Item 10. The video synthesizing apparatus according to Item 10.
【請求項13】 前記対応点の入力は、現実世界の映像
を画像処理することによって自動で行われることを特徴
とする請求項12記載の映像合成装置。
13. The image synthesizing apparatus according to claim 12, wherein the input of the corresponding points is automatically performed by performing image processing on a real world image.
【請求項14】 前記入力された特徴点と前記対応点と
の対応付けは、前記現実世界の3次元モデルの幾何形状
をもとに自動で行われることを特徴とする請求項12記
載の映像合成装置。
14. The video according to claim 12, wherein the input feature points and the corresponding points are automatically associated with each other based on the geometric shape of the three-dimensional model of the real world. Synthesizer.
【請求項15】 前記現実世界の3次元モデルの調整
は、前記現実世界の3次元モデルの大きさ、位置、向き
などの属性をパラメータとし、前記対応点と前記特徴点
を映像上に射影した点との距離を示す評価関数を最小化
するようなパラメータを求めることにより実現されるこ
とを特徴とする請求項12記載の映像合成装置。
15. The adjustment of the three-dimensional model of the real world uses the attributes such as size, position and orientation of the three-dimensional model of the real world as parameters and projects the corresponding points and the feature points on an image. 13. The image synthesizing apparatus according to claim 12, which is realized by obtaining a parameter that minimizes an evaluation function indicating a distance to a point.
【請求項16】 前記評価関数は、各視点の役割によっ
て重みづけ係数を変更することが可能であることを特徴
とする請求項15記載の映像合成装置。
16. The image synthesizing apparatus according to claim 15, wherein the evaluation function is capable of changing a weighting coefficient depending on a role of each viewpoint.
JP2001334706A 2001-10-31 2001-10-31 Information processing apparatus and method Expired - Fee Related JP4115117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001334706A JP4115117B2 (en) 2001-10-31 2001-10-31 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001334706A JP4115117B2 (en) 2001-10-31 2001-10-31 Information processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2003141569A true JP2003141569A (en) 2003-05-16
JP2003141569A5 JP2003141569A5 (en) 2007-01-11
JP4115117B2 JP4115117B2 (en) 2008-07-09

Family

ID=19149797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001334706A Expired - Fee Related JP4115117B2 (en) 2001-10-31 2001-10-31 Information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4115117B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100134A (en) * 2003-09-25 2005-04-14 Canon Inc Mixed reality device
JP2006048639A (en) * 2004-06-29 2006-02-16 Canon Inc Information processing method and information processing apparatus
JP2007207251A (en) * 2006-02-03 2007-08-16 Metaio Gmbh Method and system for determining a data model designed to be superimposed with an image of a real object
JP2008015576A (en) * 2006-07-03 2008-01-24 Mitsubishi Precision Co Ltd Three-dimensional computer graphics composition method and device
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009017480A (en) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration apparatus and program thereof
JP2009118299A (en) * 2007-11-08 2009-05-28 Casio Comput Co Ltd Imaging apparatus and program
JP2012208571A (en) * 2011-03-29 2012-10-25 Brother Ind Ltd Virtual label display processing program
JP2012238117A (en) * 2011-05-10 2012-12-06 Canon Inc Information processing apparatus, processing method and program thereof
JP2014002645A (en) * 2012-06-20 2014-01-09 Shimizu Corp Synthetic image display system and method thereof
JP2014090243A (en) * 2012-10-29 2014-05-15 Mitsubishi Electric Corp Schedule generation device and content display system
JP2014513822A (en) * 2011-01-31 2014-06-05 マイクロソフト コーポレーション Use of 3D environmental models in game play
JP2014123376A (en) * 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp Location correction of virtual objects
WO2015056369A1 (en) * 2013-10-17 2015-04-23 株式会社ソニー・コンピュータエンタテインメント Game system, game control method, and game control program
CN104809689A (en) * 2015-05-15 2015-07-29 北京理工大学深圳研究院 Building point cloud model and base map aligned method based on outline
EP2849156A3 (en) * 2013-09-13 2015-12-23 Fujitsu Limited Augmented reality method and information processing device
US9619561B2 (en) 2011-02-14 2017-04-11 Microsoft Technology Licensing, Llc Change invariant scene recognition by an agent
JP6196416B1 (en) * 2016-05-27 2017-09-13 楽天株式会社 3D model generation system, 3D model generation method, and program
JP2017192106A (en) * 2016-04-15 2017-10-19 キヤノン株式会社 Imaging apparatus and control method of the same
JP2018022376A (en) * 2016-08-04 2018-02-08 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2018038837A (en) * 2017-10-30 2018-03-15 株式会社スクウェア・エニックス Video game processing program, video game processing system, and user terminal
JP2019139424A (en) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program
CN110892410A (en) * 2017-07-07 2020-03-17 奈安蒂克公司 Cloud-enabled augmented reality
US11215711B2 (en) 2012-12-28 2022-01-04 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
CN114444178A (en) * 2022-01-04 2022-05-06 中国十七冶集团有限公司 A method for determining the best floor and viewing angle of observation deck based on line of sight analysis
WO2022264519A1 (en) * 2021-06-14 2022-12-22 ソニーグループ株式会社 Information processing device, information processing method, and computer program
JP7216874B1 (en) 2021-12-20 2023-02-02 株式会社電通 Synthetic processor
US11710309B2 (en) 2013-02-22 2023-07-25 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
WO2024095356A1 (en) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ Graphics generation device, graphics generation method, and program
JP2024093923A (en) * 2022-12-27 2024-07-09 楽天グループ株式会社 Information processing system, information processing method, and program

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2005100134A (en) * 2003-09-25 2005-04-14 Canon Inc Mixed reality device
JP2006048639A (en) * 2004-06-29 2006-02-16 Canon Inc Information processing method and information processing apparatus
JP2007207251A (en) * 2006-02-03 2007-08-16 Metaio Gmbh Method and system for determining a data model designed to be superimposed with an image of a real object
US7889193B2 (en) 2006-02-03 2011-02-15 Metaio Gmbh Method of and system for determining a data model designed for being superposed with an image of a real object in an object tracking process
JP2008015576A (en) * 2006-07-03 2008-01-24 Mitsubishi Precision Co Ltd Three-dimensional computer graphics composition method and device
JP2009017480A (en) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration apparatus and program thereof
JP2009118299A (en) * 2007-11-08 2009-05-28 Casio Comput Co Ltd Imaging apparatus and program
JP2014513822A (en) * 2011-01-31 2014-06-05 マイクロソフト コーポレーション Use of 3D environmental models in game play
US9619561B2 (en) 2011-02-14 2017-04-11 Microsoft Technology Licensing, Llc Change invariant scene recognition by an agent
JP2012208571A (en) * 2011-03-29 2012-10-25 Brother Ind Ltd Virtual label display processing program
JP2012238117A (en) * 2011-05-10 2012-12-06 Canon Inc Information processing apparatus, processing method and program thereof
JP2014002645A (en) * 2012-06-20 2014-01-09 Shimizu Corp Synthetic image display system and method thereof
JP2014090243A (en) * 2012-10-29 2014-05-15 Mitsubishi Electric Corp Schedule generation device and content display system
JP2014123376A (en) * 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp Location correction of virtual objects
US11215711B2 (en) 2012-12-28 2022-01-04 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US11710309B2 (en) 2013-02-22 2023-07-25 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
EP2849156A3 (en) * 2013-09-13 2015-12-23 Fujitsu Limited Augmented reality method and information processing device
US10078914B2 (en) 2013-09-13 2018-09-18 Fujitsu Limited Setting method and information processing device
WO2015056369A1 (en) * 2013-10-17 2015-04-23 株式会社ソニー・コンピュータエンタテインメント Game system, game control method, and game control program
US12064690B2 (en) 2013-10-17 2024-08-20 Sony Interactive Entertainment Inc. Game system, game controlling method, and game controlling program
CN105705211A (en) * 2013-10-17 2016-06-22 索尼互动娱乐公司 Game system, game control method, and game control program
US10471354B2 (en) 2013-10-17 2019-11-12 Sony Interactive Entertainment Inc. Game system, game controlling method, and game controlling program
US11478703B2 (en) 2013-10-17 2022-10-25 Sony Interactive Entertainment Inc. Game system, game controlling method, and game controlling program
CN105705211B (en) * 2013-10-17 2020-03-20 索尼互动娱乐股份有限公司 Game system, game control method, and game control program
CN104809689A (en) * 2015-05-15 2015-07-29 北京理工大学深圳研究院 Building point cloud model and base map aligned method based on outline
JP2017192106A (en) * 2016-04-15 2017-10-19 キヤノン株式会社 Imaging apparatus and control method of the same
WO2017203710A1 (en) * 2016-05-27 2017-11-30 楽天株式会社 Three-dimensional model generation system, three-dimensional model generation method, and program
JP6196416B1 (en) * 2016-05-27 2017-09-13 楽天株式会社 3D model generation system, 3D model generation method, and program
JP2018022376A (en) * 2016-08-04 2018-02-08 キヤノン株式会社 Information processing apparatus, information processing method, and program
CN110892410B (en) * 2017-07-07 2024-06-07 奈安蒂克公司 Cloud-enabled augmented reality
US12307606B2 (en) 2017-07-07 2025-05-20 Niantic, Inc. Cloud assisted generation of local map data using novel viewpoints
US11430189B2 (en) 2017-07-07 2022-08-30 Niantic, Inc. Cloud assisted generation of local map data using novel viewpoints
CN110892410A (en) * 2017-07-07 2020-03-17 奈安蒂克公司 Cloud-enabled augmented reality
JP7179819B2 (en) 2017-07-07 2022-11-29 ナイアンティック, インコーポレイテッド Cloud-enabled augmented reality
JP2020526829A (en) * 2017-07-07 2020-08-31 ナイアンティック, インコーポレイテッドNiantic,Inc. Cloud-enabled augmented reality
JP2018038837A (en) * 2017-10-30 2018-03-15 株式会社スクウェア・エニックス Video game processing program, video game processing system, and user terminal
JP7144796B2 (en) 2018-02-08 2022-09-30 株式会社バンダイナムコ研究所 Simulation system and program
JP2019139424A (en) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program
WO2022264519A1 (en) * 2021-06-14 2022-12-22 ソニーグループ株式会社 Information processing device, information processing method, and computer program
JP2023091454A (en) * 2021-12-20 2023-06-30 株式会社電通 Synthetic processing apparatus
JP7216874B1 (en) 2021-12-20 2023-02-02 株式会社電通 Synthetic processor
CN114444178A (en) * 2022-01-04 2022-05-06 中国十七冶集团有限公司 A method for determining the best floor and viewing angle of observation deck based on line of sight analysis
WO2024095356A1 (en) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ Graphics generation device, graphics generation method, and program
JP2024093923A (en) * 2022-12-27 2024-07-09 楽天グループ株式会社 Information processing system, information processing method, and program
JP7631291B2 (en) 2022-12-27 2025-02-18 楽天グループ株式会社 Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP4115117B2 (en) 2008-07-09

Similar Documents

Publication Publication Date Title
JP4115117B2 (en) Information processing apparatus and method
JP5093053B2 (en) Electronic camera
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
US11776577B2 (en) Camera tracking system for live compositing
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
CN115733936A (en) Image processing apparatus, image processing method, and storage medium
JP6685814B2 (en) Imaging device and control method thereof
JP2003143477A (en) Image synthesizing apparatus and method
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP7447403B2 (en) Information processing device, information processing system, information processing method and program
JP2006040053A (en) Image processing method and program
US20230274515A1 (en) Previsualization devices and systems for the film industry
JP2006048484A (en) Design support device
JP2002352271A (en) Three-dimensional image acquisition device
JP2004310686A (en) Image processing method and apparatus
CN117479022A (en) Information processing apparatus, information processing system, information processing method, input/output apparatus, and input/output method
US20220245885A1 (en) Volumetric Imaging
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium
JP4124995B2 (en) Video composition apparatus and information processing method
JP4135934B2 (en) Electronics
JPH11144076A (en) Video production equipment
JP5647813B2 (en) Video presentation system, program, and recording medium
JP2002312810A (en) Synthetic moving image generating apparatus and synthetic moving image generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040903

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees