[go: up one dir, main page]

JP2011204118A - Three-dimensional image creation system and three-dimensional image creation method - Google Patents

Three-dimensional image creation system and three-dimensional image creation method Download PDF

Info

Publication number
JP2011204118A
JP2011204118A JP2010072379A JP2010072379A JP2011204118A JP 2011204118 A JP2011204118 A JP 2011204118A JP 2010072379 A JP2010072379 A JP 2010072379A JP 2010072379 A JP2010072379 A JP 2010072379A JP 2011204118 A JP2011204118 A JP 2011204118A
Authority
JP
Japan
Prior art keywords
dimensional
data
dimensional data
image
image creation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010072379A
Other languages
Japanese (ja)
Inventor
Yasushi Kawabe
恭 河邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2010072379A priority Critical patent/JP2011204118A/en
Publication of JP2011204118A publication Critical patent/JP2011204118A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional image creation system capable of obtaining a three-dimensional image with an expanded view field range, and a three-dimensional image creation method.SOLUTION: The three-dimensional image creation system includes: one or more stereoscopic cameras 100 attached to a movable body; a three-dimensional data generation means 101 generating three-dimensional data in time series from images photographed by the stereoscopic cameras; a movement detection means 102 detecting movement of the movable body; and time series data integrating means 104 and 103 integrating the three-dimensional data generated by the three-dimensional data generation means together while performing interpolation based on three-dimensional data in the past and the movement detected by the movement detection means.

Description

本発明は、三次元画像作成システムおよび三次元画像作成方法に関し、詳細には、移動体に設置したステレオカメラを用いた三次元画像作成システムおよび三次元画像作成方法に関する。   The present invention relates to a 3D image creation system and a 3D image creation method, and more particularly to a 3D image creation system and a 3D image creation method using a stereo camera installed on a moving body.

近年、車両にステレオカメラを設置して三次元画像を取得することで地形を認識し、車両の安全な運転を確保する運転支援システムが開発されている。   In recent years, a driving support system has been developed in which a stereo camera is installed on a vehicle to acquire a three-dimensional image, thereby recognizing the terrain and ensuring safe driving of the vehicle.

下記特許文献1には、車両に設置したステレオカメラにより時系列に画像データを取得し、第1の画像データと、それ以前の第2の画像データと、これらの画像データに関する距離データと、から車両の移動量を検出する。そして、該移動量を考慮した上で、画像データから得た地形データを順次合成する。これにより、地面の三次元形状を精度よく認識する技術が記載されている。   In the following Patent Document 1, image data is acquired in time series by a stereo camera installed in a vehicle, and the first image data, the second image data before that, and the distance data related to these image data, The amount of vehicle movement is detected. Then, the terrain data obtained from the image data is sequentially synthesized in consideration of the movement amount. This describes a technique for accurately recognizing the three-dimensional shape of the ground.

特開2004−144644号公報JP 2004-144644 A

しかし、ステレオカメラで取得した三次元画像はオクルージョンによる画像の欠落が発生するが、上記従来技術ではオクルージョンによる画像の欠落を削減することができない。このため、上記従来技術は、限定した視野範囲しか三次元画像が取得できないという問題がある。   However, in the three-dimensional image obtained by the stereo camera, omission of images is caused by occlusion, but the above-described conventional technology cannot reduce omission of images. For this reason, the prior art has a problem that a three-dimensional image can be acquired only in a limited visual field range.

上記課題を解決するために、本発明に係る三次元画像作成システムは、移動体に取付けた1以上のステレオカメラと、ステレオカメラが撮影した画像から時系列に三次元データを生成する三次元データ生成手段と、移動体の移動を検出する移動検出手段と、三次元データ生成手段が生成した三次元データを、過去の三次元データと、移動検出手段が検出した前記移動と、に基づいて補間して統合する時系列データ統合手段と、を有する。   In order to solve the above problems, a three-dimensional image creation system according to the present invention includes one or more stereo cameras attached to a moving body and three-dimensional data for generating three-dimensional data in time series from images taken by the stereo cameras. Generating means, movement detecting means for detecting movement of the moving body, and three-dimensional data generated by the three-dimensional data generating means are interpolated based on the past three-dimensional data and the movement detected by the movement detecting means. And time-series data integration means for integrating them.

また、本発明に係る三次元画像作成方法は、移動体に取付けた1以上のステレオカメラが撮影した画像から時系列に三次元データを生成する三次元データ生成段階と、移動体の移動を検出する移動検出段階と、三次元データ生成段階で生成した三次元データを、過去の三次元データと、移動検出段階で検出した前記移動と、に基づいて補間して統合する時系列データ統合段階と、を有する。   In addition, a 3D image creation method according to the present invention includes a 3D data generation stage for generating 3D data in time series from images taken by one or more stereo cameras attached to a mobile body, and detecting the movement of the mobile body And a time series data integration stage for interpolating and integrating the three-dimensional data generated in the three-dimensional data generation stage based on the past three-dimensional data and the movement detected in the movement detection stage. Have.

本発明に係る三次元画像作成システムおよび三次元画像作成方法によれば、移動体に取付けたステレオカメラの画像の三次元データを、過去の三次元データと、移動検出手段が検出した前記移動と、に基づいて補間して統合する。これにより、オクルージョンによるデータの欠落を削減し、視野範囲を拡大した三次元画像を得ることができる。   According to the three-dimensional image creation system and the three-dimensional image creation method according to the present invention, the three-dimensional data of the image of the stereo camera attached to the moving body is the past three-dimensional data, and the movement detected by the movement detector. , Interpolate and integrate based on As a result, data loss due to occlusion can be reduced, and a three-dimensional image with an expanded visual field range can be obtained.

本発明の第一実施形態に係る三次元画像作成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional image creation system which concerns on 1st embodiment of this invention. オクルージョンの第1の例を示す図である。It is a figure which shows the 1st example of occlusion. オクルージョンの第2の例を示す図である。It is a figure which shows the 2nd example of occlusion. オクルージョンの第3の例を示す図である。It is a figure which shows the 3rd example of occlusion. 本発明の第一実施形態に係る三次元画像作成方法のフローチャートを示す図である。It is a figure which shows the flowchart of the three-dimensional image creation method which concerns on 1st embodiment of this invention. 図5に示すフローチャートのステップS505のサブルーチンフローチャートを示す図である。It is a figure which shows the subroutine flowchart of step S505 of the flowchart shown in FIG. 図5に示すフローチャートのステップS506のサブルーチンフローチャートを示す図である。It is a figure which shows the subroutine flowchart of step S506 of the flowchart shown in FIG. 物体が静止物体かどうかを判断するためのベクトルを図示した説明図である。It is explanatory drawing which illustrated the vector for determining whether an object is a stationary object. 本発明の第二実施形態に係る三次元画像作成方法のフローチャートを示す図である。It is a figure which shows the flowchart of the three-dimensional image creation method which concerns on 2nd embodiment of this invention. 図9に示すフローチャートのステップS901のサブルーチンフローチャートを示す図である。It is a figure which shows the subroutine flowchart of step S901 of the flowchart shown in FIG. 図9に示すフローチャートのステップS909のサブルーチンフローチャートを示す図である。It is a figure which shows the subroutine flowchart of step S909 of the flowchart shown in FIG. 本発明の第三実施形態において、保持する時系列データのフレームレートを変化させる場合の時系列データの保持に関するフローチャートの例を示す図である。It is a figure which shows the example of the flowchart regarding holding | maintenance of the time series data in the case of changing the frame rate of the time series data to hold | maintain in 3rd embodiment of this invention. 本発明の第四実施形態に係る三次元画像作成システムの移動体とステレオカメラの相対位置関係を示す図である。It is a figure which shows the relative positional relationship of the mobile body and stereo camera of the three-dimensional image creation system which concern on 4th embodiment of this invention. 本発明の第四実施形態に係る三次元画像作成システムを示すブロック図である。It is a block diagram which shows the three-dimensional image creation system which concerns on 4th embodiment of this invention. 本発明の第四実施形態に係る三次元画像作成方法のフローチャートを示す図である。It is a figure which shows the flowchart of the three-dimensional image creation method which concerns on 4th embodiment of this invention.

以下、図面を参照して、本発明の実施形態に係る三次元画像作成システムおよび三次元画像作成方法について詳細に説明する。   Hereinafter, a three-dimensional image creation system and a three-dimensional image creation method according to an embodiment of the present invention will be described in detail with reference to the drawings.

[第一実施形態]
図1は、本発明の第一実施形態に係る三次元画像作成システムの構成を示すブロック図である。
[First embodiment]
FIG. 1 is a block diagram showing a configuration of a three-dimensional image creation system according to the first embodiment of the present invention.

本実施形態に係る三次元画像作成システム10は、ステレオカメラ100、三次元データ生成部(三次元データ生成手段、静止物体判断手段)101、移動量演算部(移動検出手段、静止物体判断手段)102、時系列データ保持部(時系列データ保持手段)103、時系列データ統合部(時系列データ統合手段)104、出力部(出力手段)105、を有する。これらの構成要素は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、入出力装置といったコンピュータのハードウェアおよびソフトウェア(コンピュータプログラム)で一部または全部を構成してもよい。   A three-dimensional image creation system 10 according to the present embodiment includes a stereo camera 100, a three-dimensional data generation unit (three-dimensional data generation unit, stationary object determination unit) 101, and a movement amount calculation unit (movement detection unit, stationary object determination unit). 102, a time-series data holding unit (time-series data holding unit) 103, a time-series data integration unit (time-series data integration unit) 104, and an output unit (output unit) 105. Some or all of these components are composed of computer hardware and software (computer programs) such as a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), hard disk, and input / output device. May be.

これらの構成要素は、移動体に実装することができる。しかし、ステレオカメラ100以外の構成要素は移動体に実装しなくてもよい。ここで、移動体としては車両のほかロボット等のあらゆる移動体が考えられる。   These components can be mounted on a mobile object. However, components other than the stereo camera 100 may not be mounted on the moving body. Here, as the moving body, any moving body such as a robot in addition to a vehicle can be considered.

ステレオカメラ100は、2つのカメラ、すなわち、基準カメラおよび参照カメラを有する。基準カメラおよび参照カメラは、それぞれ、CCD素子などの撮像素子とその他の光学系によって構成可能であり、その構成は一般的なステレオカメラと同様である。   Stereo camera 100 has two cameras: a base camera and a reference camera. Each of the reference camera and the reference camera can be configured by an imaging device such as a CCD device and other optical systems, and the configuration is the same as that of a general stereo camera.

ステレオカメラ100は、基準カメラおよび参照カメラでそれぞれ画像を取得する。基準カメラで取得した基準画像と参照カメラで取得した参照画像は、ディジタル画像に変換され、それぞれ、基準画像データと参照画像データとしてフレーム単位、または、画素単位で出力される。   The stereo camera 100 acquires images with the reference camera and the reference camera, respectively. The standard image acquired by the standard camera and the reference image acquired by the reference camera are converted into digital images, and are output as standard image data and reference image data in frame units or pixel units, respectively.

三次元データ生成部101は、ステレオカメラ100から基準画像データと参照画像データとを受信し、これらの画像データに基づいて三次元データを生成する。三次元データは、基準画像データと参照画像データとから視差を演算し、該視差と、ステレオカメラ100の基線長と、焦点距離と、から三角測量の原理により、ステレオカメラ100から物体までの距離を演算することで得られる。三次元データには、少なくとも画素ごと(または、複数の画素グループごと)の視差および輝度のデータを含む。   The three-dimensional data generation unit 101 receives standard image data and reference image data from the stereo camera 100, and generates three-dimensional data based on these image data. The three-dimensional data calculates the parallax from the standard image data and the reference image data, and the distance from the stereo camera 100 to the object according to the principle of triangulation from the parallax, the base line length of the stereo camera 100, and the focal length. It is obtained by computing. The three-dimensional data includes at least parallax and luminance data for each pixel (or for each of a plurality of pixel groups).

また、三次元データ生成部101は、画像の信頼度(以下、「信頼度」と称する)を算出する。ここで、信頼度とは、基準画像データと参照画像データとのマッチングの明確性をいう。すなわち、基準画像データおよび参照画像データの一方に存在する物体の画像データが他方に存在しない場合が低信頼度であり、基準画像データおよび参照画像データの両方に物体の画像データが存在する場合が高信頼度である。ここで、基準画像および参照画像の一方に存在する物体の画像が他方に存在しないという現象はオクルージョンの一種であると考えることができる。すなわち、低信頼度の画像データは、オクルージョン領域の画像データとなる。   The three-dimensional data generation unit 101 calculates the reliability of the image (hereinafter referred to as “reliability”). Here, the reliability refers to the clarity of matching between the standard image data and the reference image data. That is, the case where the object image data present in one of the standard image data and the reference image data does not exist in the other is low reliability, and the object image data exists in both the standard image data and the reference image data. High reliability. Here, the phenomenon that the image of the object existing in one of the standard image and the reference image does not exist in the other can be considered as a kind of occlusion. That is, the low-reliability image data is image data in the occlusion area.

なお、信頼度は、数値化可能な概念であり、基準画像データおよび参照画像データの両方に物体の画像データが存在する場合であっても信頼度の高低を評価することができる。   The reliability is a concept that can be quantified, and the level of reliability can be evaluated even when object image data exists in both the standard image data and the reference image data.

一方、画像中の障害物により物体が隠れる現象もオクルージョンである。すなわち、画像データ中で、障害物により物体が隠れた領域はオクルージョン領域の画像データである。   On the other hand, a phenomenon in which an object is hidden by an obstacle in the image is also occlusion. That is, in the image data, the area where the object is hidden by the obstacle is the image data of the occlusion area.

移動量演算部102は、ステレオカメラ100から基準画像データと参照画像データとを受信し、基準画像データと参照画像データ間、および、フレーム間の画像の移動を演算することで、相関演算により画像内の物体の移動量および移動方向(以下、「移動ベクトル」と称する)を演算する。さらに、移動量演算部102は、基準画像データと参照画像データ間、および、フレーム間の相関演算により移動体の移動ベクトルを演算する。ここで、相関演算は、位相限定相関法、差分絶対値和、差分自乗和、正規化相互相関、のいずれで行なってもよい。   The movement amount calculation unit 102 receives the base image data and the reference image data from the stereo camera 100, calculates the movement of the image between the base image data and the reference image data, and between the frames, and thereby calculates the image by the correlation calculation. The movement amount and movement direction (hereinafter referred to as “movement vector”) of the object inside are calculated. Furthermore, the movement amount calculation unit 102 calculates the movement vector of the moving object by calculating the correlation between the base image data and the reference image data and between the frames. Here, the correlation calculation may be performed by any of the phase-only correlation method, the sum of absolute differences, the sum of squared differences, and the normalized cross-correlation.

なお、移動体の移動ベクトルは、加速度センサやジャイロセンサの測定結果を用いて演算してもよい。   Note that the movement vector of the moving body may be calculated using the measurement result of the acceleration sensor or the gyro sensor.

時系列データ保持部103は、三次元データ生成部101から受信した三次元データおよび信頼度と、移動量演算部から受信した画像内の物体の移動ベクトルおよび移動体の移動ベクトルと、を保持する。保持したデータは、所望の時間におけるデータとして読み出すことができる。ここで、三次元データおよび信頼度を、時系列データ保持部103に保持するのは、時系列データ統合部104において、現在の三次元データを過去の三次元データで補間することを容易にするためである。   The time-series data holding unit 103 holds the three-dimensional data and reliability received from the three-dimensional data generation unit 101, and the movement vector of the object and the movement vector of the moving body in the image received from the movement amount calculation unit. . The retained data can be read as data at a desired time. Here, holding the three-dimensional data and the reliability in the time-series data holding unit 103 makes it easy for the time-series data integration unit 104 to interpolate the current three-dimensional data with the past three-dimensional data. Because.

時系列データ統合部104は、三次元データ生成部101から三次元データおよび信頼度を、時系列データ保持部103から過去の三次元データおよび信頼度を受信する。データ統合部104は、現在の三次元データにオクルージョン領域のデータが含まれる場合は、該オクルージョン領域に対応する過去の三次元データが所定の条件を満たすことを条件として、該オクルージョン領域のデータを過去の三次元データで補間して統合する。   The time-series data integration unit 104 receives the three-dimensional data and the reliability from the three-dimensional data generation unit 101, and the past three-dimensional data and the reliability from the time-series data holding unit 103. If the current three-dimensional data includes the occlusion area data, the data integration unit 104 converts the occlusion area data on the condition that the past three-dimensional data corresponding to the occlusion area satisfies a predetermined condition. Interpolate and integrate with past 3D data.

出力部105は、時系列データ統合部104が統合した三次元データをモニタへ出力する。   The output unit 105 outputs the three-dimensional data integrated by the time series data integration unit 104 to the monitor.

オクルージョンについて、さらに詳細に説明する。   Occlusion will be described in more detail.

図2は、オクルージョンの第1の例を示す図である。図2の斜線部は、時刻t1におけるオクルージョン領域210を示す。図2に示すように、時刻t0(時刻t1に対し過去の時刻である)における移動体200aから見ると、時刻t1におけるオクルージョン領域210は、障害物220によって視野が妨げられず、オクルージョン領域とはならない。しかし、時刻t1における移動体200bから見ると、領域210は、障害物210によって視野が妨げられるため、オクルージョン領域となる。   FIG. 2 is a diagram illustrating a first example of occlusion. 2 indicates the occlusion area 210 at time t1. As shown in FIG. 2, when viewed from the moving body 200a at time t0 (which is a past time with respect to time t1), the occlusion area 210 at time t1 is not obstructed by the obstacle 220, and the occlusion area is Don't be. However, when viewed from the moving body 200b at the time t1, the area 210 is an occlusion area because the visual field is blocked by the obstacle 210.

図3は、オクルージョンの第2の例を示す図である。図3の斜線部は、時刻t1におけるオクルージョン領域210a、210bを示す。図3に示すように、時刻t0における移動体200aから見ると、時刻t1におけるオクルージョン領域210a、210bは、障害物220によって視野が妨げられず、オクルージョン領域とはならない。しかし、時刻t1における移動体200bから見ると、領域210は、障害物210によって視野が妨げられるため、オクルージョン領域となる。   FIG. 3 is a diagram illustrating a second example of occlusion. 3 indicate occlusion areas 210a and 210b at time t1. As shown in FIG. 3, when viewed from the moving body 200a at time t0, the occlusion areas 210a and 210b at time t1 are not obstructed by the obstacle 220 and do not become occlusion areas. However, when viewed from the moving body 200b at the time t1, the area 210 is an occlusion area because the visual field is blocked by the obstacle 210.

図4は、オクルージョンの第3の例を示す図である。図4に示すように、ステレオカメラ100の参照カメラ100bから見ると、物体400は、障害物210によって視野が妨げられず、参照画像データには物体の画像データが存在することになる。しかし、ステレオカメラ100の基準カメラ100aから見ると、物体400は、障害物210によって視野が妨げられ、基準画像データには物体の画像データが存在しないことになる。このように、基準画像データと参照画像データとで物体400のマッチングがとれない現象は、低信頼度によるオクルージョンであり、物体400の画像データはオクルージョン領域の画像データとなる。   FIG. 4 is a diagram illustrating a third example of occlusion. As shown in FIG. 4, when viewed from the reference camera 100b of the stereo camera 100, the object 400 is not obstructed by the obstacle 210, and the image data of the object exists in the reference image data. However, when viewed from the reference camera 100a of the stereo camera 100, the field of view of the object 400 is obstructed by the obstacle 210, and the image data of the object does not exist in the reference image data. Thus, the phenomenon that the object 400 cannot be matched between the standard image data and the reference image data is occlusion due to low reliability, and the image data of the object 400 is image data of the occlusion area.

図5は、本実施形態に係る三次元画像作成方法のフローチャートを示す図である。   FIG. 5 is a diagram illustrating a flowchart of the three-dimensional image creation method according to the present embodiment.

図6は、図5に示すフローチャートのステップS505のサブルーチンフローチャートを示す図である。   FIG. 6 shows a subroutine flowchart of step S505 of the flowchart shown in FIG.

図7は、図5に示すフローチャートのステップS506のサブルーチンフローチャートを示す図である。   FIG. 7 is a diagram showing a subroutine flowchart of step S506 in the flowchart shown in FIG.

以下、図5〜図7に示すフローチャートを参照して、本実施形態に係る三次元画像作成方法について詳細に説明する。本実施形態に係る三次元画像作成方法は、図1に示す三次元画像作成システムにより行なう。   Hereinafter, the three-dimensional image creation method according to the present embodiment will be described in detail with reference to the flowcharts shown in FIGS. The 3D image creation method according to the present embodiment is performed by the 3D image creation system shown in FIG.

三次元データ生成部101は、ステレオカメラ100から受信した基準画像データおよび参照画像データに基づいて三次元データを生成し(S500)、時系列データ保持部103は、三次元データ生成部101が生成した三次元データを保持する(S501)。このような三次元データの生成および保持は、1フレームの全測定点(画素)について行なう(S502、S503)。すなわち、全ての三次元測定点の処理が終了したかどうかを判断し(S502)、全ての三次元測定点の処理が終了していないと判断した場合は(S502、No)、次の測定点に移行し(S503)、三次元データの作成(S500)、および、時系列データの保持(S501)を行なう。   The three-dimensional data generation unit 101 generates three-dimensional data based on the standard image data and reference image data received from the stereo camera 100 (S500), and the time-series data holding unit 103 is generated by the three-dimensional data generation unit 101. The obtained three-dimensional data is held (S501). Such generation and holding of three-dimensional data is performed for all measurement points (pixels) in one frame (S502, S503). That is, it is determined whether or not the processing of all three-dimensional measurement points has been completed (S502). If it is determined that the processing of all three-dimensional measurement points has not been completed (S502, No), the next measurement point is determined. (S503), three-dimensional data is created (S500), and time-series data is held (S501).

出力データ生成領域を設定する(S504)。すなわち、モニタに出力して表示すべき三次元画像の領域を設定する。例えば、モニタに表示する三次元画像の座標を指定することで、出力データの生成領域を設定することができる。   An output data generation area is set (S504). That is, a region of a 3D image to be output and displayed on the monitor is set. For example, the generation area of output data can be set by designating coordinates of a three-dimensional image displayed on the monitor.

オクルージョンの判定をする(S505)。オクルージョンの判定は、図6に示すサブルーチンフローチャートに従って行なう。   The occlusion is determined (S505). The occlusion determination is performed according to a subroutine flowchart shown in FIG.

現在の三次元データにデータが存在するかどうかを確認する(S600)。すなわち、現在の三次元データに画像の欠落が存在するかどうかを判断する。現在の三次元データに画像の欠落が存在する場合は、当該欠落はオクルージョン領域であるため、オクルージョンであると判定する(S603)。現在の三次元データに画像の欠落が存在しない場合は(S600、Yes)、ステップS601に移行する。   It is checked whether data exists in the current three-dimensional data (S600). That is, it is determined whether or not there is a missing image in the current three-dimensional data. If there is a missing image in the current three-dimensional data, the missing portion is an occlusion area, so it is determined to be occlusion (S603). If there is no missing image in the current three-dimensional data (S600, Yes), the process proceeds to step S601.

画像の欠落が存在するかどうかは、現在の画像データと過去の画像データ(例えば、1フレーム前の画像データ)とを比較し、過去の画像データに存在する物体が現在の画像データに存在するかどうかで判断することができる。   Whether there is a missing image is determined by comparing current image data with past image data (for example, image data one frame before), and an object existing in the past image data exists in the current image data. It can be judged by whether or not.

現在の三次元データが高信頼度かどうかを判断する(S601)。現在の三次元データが高信頼度でないと判断した場合は(S601、No)、オクルージョンがあると判定し(S603)、現在の三次元データが高信頼度であると判断した場合は(S601、Yes)、オクルージョンではないと判定する(S602)。   It is determined whether the current three-dimensional data is highly reliable (S601). When it is determined that the current 3D data is not highly reliable (S601, No), it is determined that there is occlusion (S603), and when it is determined that the current 3D data is highly reliable (S601, Yes), it is determined that it is not occlusion (S602).

三次元データが高信頼度かどうかは、基準画像データと参照画像データとを比較することで判断する。すなわち、例えば、基準画像データに物体のデータが存在せず、参照画像データに物体のデータが存在する場合は、物体の三次元データは低信頼度(すなわち、高信頼度ではない)と判断する。基準画像データと参照画像データとの比較は、相関演算により行なう。相関演算は、例えば、位相限定相関法、差分絶対値和、差分自乗和、正規化相互相関、のいずれかで行なうことができる。   Whether the three-dimensional data is highly reliable is determined by comparing the standard image data with the reference image data. That is, for example, when there is no object data in the standard image data and there is object data in the reference image data, it is determined that the three-dimensional data of the object is low reliability (that is, not high reliability). . The comparison between the reference image data and the reference image data is performed by correlation calculation. The correlation calculation can be performed by any one of, for example, a phase-only correlation method, a sum of absolute differences, a sum of squares of differences, and a normalized cross-correlation.

オクルージョンの判定(S505)をした後、時系列データを補間する(S506)。時系列データの補間は、図7に示すサブルーチンフローチャートに従って行なう。   After determining the occlusion (S505), the time series data is interpolated (S506). Time series data interpolation is performed according to a subroutine flowchart shown in FIG.

オクルージョンでないと判断した場合は(S700、No)、データの補間は行なわず、現在の三次元データをそのまま現在の三次元データとして使用する(S708)。   If it is determined that it is not occlusion (No in S700), the data is not interpolated and the current three-dimensional data is used as it is as the current three-dimensional data (S708).

オクルージョンであると判断した場合は(S700、Yes)、整数型変数Nに初期値1を付与し、Nで指定されたフレーム(すなわち、第1フレーム)から現在の三次元データのオクルージョン領域に対応するデータを抽出する(S702)。ここで、第1フレームとは、現在のフレームの直前の過去のフレームを指す。   If it is determined that it is occlusion (S700, Yes), the initial value 1 is assigned to the integer type variable N, and it corresponds to the occlusion area of the current three-dimensional data from the frame specified by N (ie, the first frame). Data to be extracted is extracted (S702). Here, the first frame refers to a past frame immediately before the current frame.

抽出したデータが静止物体のものであり、かつ、高信頼度かどうかを判断する(S703)。抽出したデータが静止物体のもので、かつ、高信頼度である場合は(S703、Yes)、抽出したデータで、現在の三次元データのオクルージョン領域のデータを補間する(S706)。当該補間にあたっては、必要に応じて、移動体の移動を考慮し、抽出したデータに対して座標変換を行なう。この際、時系列データ統合部104は、ステップS504で指定された領域に整合した三次元データを作成する。すなわち、時系列データ統合部104は、三次元データの補間の前または後において、ステップS504で指定された領域に整合した三次元データとするために、当該画素の三次元データを座標変換する。   It is determined whether the extracted data is of a stationary object and has high reliability (S703). If the extracted data is of a stationary object and has high reliability (S703, Yes), the data of the occlusion area of the current three-dimensional data is interpolated with the extracted data (S706). In the interpolation, coordinate conversion is performed on the extracted data in consideration of the movement of the moving body as necessary. At this time, the time-series data integration unit 104 creates three-dimensional data that matches the area specified in step S504. That is, the time-series data integration unit 104 performs coordinate conversion of the three-dimensional data of the pixel before or after the interpolation of the three-dimensional data in order to obtain three-dimensional data that matches the area specified in step S504.

なお、抽出したデータが静止物体のものであり、かつ、高信頼度かどうかを判断することに代えて、もしくは、加えて、最も近くで撮影された画像かどうかを判断してもよい。   Note that instead of determining whether or not the extracted data is of a stationary object and has high reliability, it may be determined whether or not the extracted image is an image taken closest.

図8は、物体が静止物体かどうかを判断するためのベクトルを図示した説明図である。   FIG. 8 is an explanatory diagram illustrating vectors for determining whether an object is a stationary object.

図8に示すように、時刻t0における移動体200aの位置と、時刻t0より後の時刻t1における移動体200bの位置と、の変位を示すベクトルMは移動体200a、200bの移動ベクトルである。また、時刻t0における物体800aの位置と、時刻t1における移動体800bの位置と、の変位を示すベクトルA01は物体800a、800bの移動ベクトルである。ベクトルA01が零であれば、物体800a、800bは静止物体であると判断することができる。   As shown in FIG. 8, a vector M indicating the displacement between the position of the moving body 200a at time t0 and the position of the moving body 200b at time t1 after time t0 is the moving vector of the moving bodies 200a and 200b. A vector A01 indicating the displacement between the position of the object 800a at time t0 and the position of the moving body 800b at time t1 is a movement vector of the objects 800a and 800b. If the vector A01 is zero, it can be determined that the objects 800a and 800b are stationary objects.

ベクトルA0は、時刻t0における物体800aの移動体200aに対する位置ベクトルであり、ベクトルA1は、時刻t1における物体800bの移動体200bに対する位置ベクトルである。ベクトルA0およびベクトルA1は、ステレオカメラ100の時刻t0およびt1における三次元データから算出することができる。また、前述したように、移動体200a、200bの移動ベクトルであるベクトルMは三次元データのフレーム間の相関演算により算出することができる。したがって、これらのベクトルA0、ベクトルA1、ベクトルMから物体800a、800bの移動ベクトルA01を算出することができる。   Vector A0 is a position vector of object 800a with respect to moving body 200a at time t0, and vector A1 is a position vector of object 800b with respect to moving body 200b at time t1. Vector A0 and vector A1 can be calculated from the three-dimensional data of stereo camera 100 at times t0 and t1. Further, as described above, the vector M, which is the movement vector of the moving bodies 200a and 200b, can be calculated by correlation calculation between frames of three-dimensional data. Therefore, the movement vector A01 of the objects 800a and 800b can be calculated from these vectors A0, A1 and M.

なお、物体800a、800bが静止物体かどうか判断する必要があるのは、現在の物体800bがオクルージョン領域の画像データである場合である。そうすると、現在は、物体800bをステレオカメラ100からは視認できないことになる。そのため、厳密には、現在は、ベクトルA1を算出することができないため、現在の物体800bが静止物体かどうかは判断できないことになる。そこで、実際には、物体800bが画像データとして存在する過去(例えば、数フレーム前の過去)において物体800bが静止物体かどうかを判断することになろう。   Note that it is necessary to determine whether the objects 800a and 800b are stationary objects when the current object 800b is image data of an occlusion area. Then, the object 800b cannot be visually recognized from the stereo camera 100 at present. Therefore, strictly speaking, the vector A1 cannot be calculated at present, and therefore it cannot be determined whether or not the current object 800b is a stationary object. Therefore, in practice, it will be determined whether or not the object 800b is a stationary object in the past (for example, the past several frames before) in which the object 800b exists as image data.

抽出したデータが静止物体のものでなく、または、高信頼度でない場合は(S703、No)、時系列データ保持部103に保持されている全てのフレームについて、チェックが終了したかどうかを判断する(S704)。すなわち、時系列データ保持部103に保持されている過去の全てのフレームについて、抽出したデータが静止物体のものであり、かつ、高信頼度かどうかを判断する。全てのフレームについて、チェックが終了したと判断した場合は(S704、Yes)、現在の三次元データに関するオクルージョン領域は、測定不可点に決定し(S707)、データの補間は行なわない。   If the extracted data is not a stationary object or is not highly reliable (S703, No), it is determined whether or not the check has been completed for all frames held in the time-series data holding unit 103. (S704). That is, for all past frames held in the time-series data holding unit 103, it is determined whether the extracted data is for a stationary object and has high reliability. If it is determined that the check has been completed for all the frames (S704, Yes), the occlusion area relating to the current three-dimensional data is determined as a measurement impossible point (S707), and data interpolation is not performed.

一方、全てのフレームについて、チェックが終了していないと判断した場合は(S704、No)、整数型変数Nをインクリメントし(S705)、Nで指定されたフレーム(すなわち、第2フレーム)から現在の三次元データのオクルージョン領域に対応するデータを抽出する(S702)。ここで、第N+1フレームとは、第Nフレームの直前のフレームを指す。   On the other hand, if it is determined that the check has not been completed for all the frames (S704, No), the integer variable N is incremented (S705), and the current frame from the frame specified by N (ie, the second frame) is updated. The data corresponding to the occlusion area of the three-dimensional data is extracted (S702). Here, the (N + 1) th frame refers to a frame immediately before the Nth frame.

以後、ステップS702〜S707を、時系列データ保持部103に保持されている全てのフレームについて、チェックが終了するまで(S704、Yes)行なう。これにより、現在の三次元データの直前のフレームに補間に適したデータが存在しない場合でも、さらに過去のフレームに遡って補間に適したデータの有無をチェックするため、測定不可点となる確率を低下させ、視野範囲を拡大した三次元画像を得ることができる。   Thereafter, steps S702 to S707 are performed for all the frames held in the time-series data holding unit 103 until the check is completed (S704, Yes). As a result, even if there is no data suitable for interpolation in the previous frame of the current 3D data, the probability of being a measurement impossible point is checked in order to check whether there is data suitable for interpolation going back to the past frame. It is possible to obtain a three-dimensional image that has been reduced and has an expanded visual field range.

ただし、補間に適するデータのチェックは、現在の三次元データの直前のフレームについてのみ行なってもよい。この場合は、時系列データ保持部103は、2つのフレームを保持するだけの記憶容量で足りるため、時系列データ保持部103の記憶容量サイズを小さくすることができる。   However, data suitable for interpolation may be checked only for the frame immediately before the current three-dimensional data. In this case, the time-series data holding unit 103 needs only a storage capacity to hold two frames, and thus the storage capacity size of the time-series data holding unit 103 can be reduced.

現在の三次元画像の全ての出力点(画素)について、処理が終了していない場合は(S507、No)、次の出力点に移行し(S508)、現在のフレームの全ての出力点についてステップS505〜S507を行なう。   If processing has not been completed for all output points (pixels) of the current 3D image (S507, No), the process proceeds to the next output point (S508), and steps are performed for all output points of the current frame. S505 to S507 are performed.

現在の三次元画像の全ての出力点の処理が終了した場合は、現在のフレームについての本フローチャートによる三次元画像作成方法は終了し、次のフレームについて本フローチャートを実施する。   When processing of all output points of the current 3D image is completed, the 3D image creation method according to this flowchart for the current frame ends, and this flowchart is executed for the next frame.

以上、本実施形態に係る三次元画像作成システムおよび三次元画像作成方法について説明したが、本実施形態によれば、移動体に取付けたステレオカメラの三次元データを過去の三次元データと、移動検出手段が検出した前記移動ベクトルと、に基づいて補間して統合する。これにより、オクルージョンによるデータの欠落を削減し、視野範囲を拡大した三次元画像を得ることができる。   As described above, the three-dimensional image creation system and the three-dimensional image creation method according to the present embodiment have been described. According to the present embodiment, the three-dimensional data of the stereo camera attached to the moving body is transferred to the past three-dimensional data and Interpolation is performed based on the movement vector detected by the detection means, and integration is performed. As a result, data loss due to occlusion can be reduced, and a three-dimensional image with an expanded visual field range can be obtained.

[第二実施形態]
本発明の第二実施形態に係る三次元画像作成システムおよび三次元画像作成方法について、図9〜図11、および図6を参照して詳細に説明する。本実施形態に係る三次元画像作成方法は、第一実施形態と同様に、図1に示す三次元画像作成システムにより行なう。
[Second Embodiment]
A three-dimensional image creation system and a three-dimensional image creation method according to the second embodiment of the present invention will be described in detail with reference to FIGS. 9 to 11 and FIG. The 3D image creation method according to the present embodiment is performed by the 3D image creation system shown in FIG. 1 as in the first embodiment.

本実施形態が第一実施形態と異なるのは次の点である。すなわち、本実施形態においては、時系列データ保持部103に保持する三次元データを、高信頼度かつ静止物体のものに限定し、現在の三次元データの補間の際には、過去の三次元データについて高信頼度かつ静止物体かどうかの判断をしない点である。   This embodiment is different from the first embodiment in the following points. That is, in the present embodiment, the three-dimensional data held in the time-series data holding unit 103 is limited to those of a highly reliable and stationary object, and the past three-dimensional data is interpolated when interpolating the current three-dimensional data. The point is that it is not judged whether the data is a highly reliable and stationary object.

本実施形態の説明において、第一実施形態と重複する説明は省略する。   In the description of the present embodiment, the description overlapping with the first embodiment is omitted.

図9は、本発明の第二実施形態に係る三次元画像作成方法のフローチャートを示す図である。   FIG. 9 is a diagram showing a flowchart of the three-dimensional image creation method according to the second embodiment of the present invention.

図10は、図9に示すフローチャートのステップS901のサブルーチンフローチャートを示す図である。   FIG. 10 shows a subroutine flowchart of step S901 in the flowchart shown in FIG.

図11は、図9に示すフローチャートのステップS909のサブルーチンフローチャートを示す図である。   FIG. 11 is a diagram showing a subroutine flowchart of step S909 in the flowchart shown in FIG.

なお、図9に示すフローチャートのステップS905のサブルーチンフローチャートは、第一実施形態と同様に図6である。   In addition, the subroutine flowchart of step S905 of the flowchart shown in FIG. 9 is FIG. 6 like the first embodiment.

三次元データ生成部101は、ステレオカメラ100から受信した基準画像データおよび参照画像データに基づいて三次元データを生成し(S900)、時系列データ保持部103は、保持している過去の時系列の三次元データを現在の三次元データで更新する(S901)。時系列データの更新は、図10に示すステップS501のサブルーチンフローチャートに従って行なう。   The three-dimensional data generation unit 101 generates three-dimensional data based on the standard image data and the reference image data received from the stereo camera 100 (S900), and the time series data holding unit 103 holds the past time series held. The three-dimensional data is updated with the current three-dimensional data (S901). The time series data is updated according to the subroutine flowchart of step S501 shown in FIG.

現在の三次元データが高信頼度かどうか判断する(S1000)。現在の三次元データが高信頼度ではないと判断した場合は(S1000、No)、時系列データ保持部103のデータを更新しない(S1004)。現在の三次元データが高信頼度であると判断した場合は(S1000、Yes)、さらに、現在の三次元データより過去の三次元データの方が高信頼度かどうか判断する(S1001)。   It is determined whether the current three-dimensional data is highly reliable (S1000). If it is determined that the current three-dimensional data is not highly reliable (S1000, No), the data in the time series data holding unit 103 is not updated (S1004). If it is determined that the current three-dimensional data is highly reliable (S1000, Yes), it is further determined whether the past three-dimensional data is more reliable than the current three-dimensional data (S1001).

現在の三次元データより過去の三次元データの方が高信頼度ではないと判断した場合は(S1001、No)、時系列データ保持部103のデータを更新しない(S1004)。現在の三次元データより過去の三次元データの方が高信頼度であると判断した場合は(S1001、Yes)、さらに、過去の三次元データが静止物体のものかどうか判断する(S1002)。   If it is determined that the past three-dimensional data is not more reliable than the current three-dimensional data (S1001, No), the data in the time-series data holding unit 103 is not updated (S1004). When it is determined that the past three-dimensional data is more reliable than the current three-dimensional data (S1001, Yes), it is further determined whether the past three-dimensional data is that of a stationary object (S1002).

現在の三次元データが静止物体のものではないと判断した場合は(S1002、No)、時系列データ保持部103のデータを更新しない(S1004)。現在の三次元データが静止物体のものであると判断した場合は(S1002、Yes)、時系列データ保持部103のデータを現在の三次元データで更新する(S1003)。   When it is determined that the current three-dimensional data is not for a stationary object (S1002, No), the data in the time series data holding unit 103 is not updated (S1004). If it is determined that the current three-dimensional data is that of a stationary object (S1002, Yes), the data in the time series data holding unit 103 is updated with the current three-dimensional data (S1003).

なお、過去のデータが静止物体のものかどうかの判断や、高信頼度かどうかの判断に代えて、もしくは、これに加えて、最も近くで撮影された画像かどうかを判断してもよい。最も近くで撮影された画像かどうかは、ステレオカメラ100の三次元データから画像内の物体までの距離を算出することで判断することができる。   It should be noted that instead of determining whether the past data is for a stationary object or determining whether the past data is highly reliable, or in addition to this, it may be determined whether the image has been taken closest. Whether or not the image is the closest image can be determined by calculating the distance from the three-dimensional data of the stereo camera 100 to the object in the image.

このように、本実施形態においては、時系列データ保持部103に保持する三次元データを、高信頼度かつ静止物体のものに限定する。これにより、時系列データ保持部103を構成するメモリのサイズを小さくすることができるため、システムの低コスト化、低消費電力化を実現できる。   Thus, in the present embodiment, the three-dimensional data held in the time-series data holding unit 103 is limited to that of a highly reliable and stationary object. As a result, the size of the memory constituting the time-series data holding unit 103 can be reduced, so that the cost and power consumption of the system can be reduced.

1フレームの全ての測定点(画素)について、三次元データの作成(S900)、および、時系列の三次元データの更新(S901)を行なった後(S902、S903)、ステップS904に移行する。   After creating three-dimensional data (S900) and updating time-series three-dimensional data (S901) for all measurement points (pixels) in one frame (S902, S903), the process proceeds to step S904.

出力データ生成領域を設定する(S904)。すなわち、モニタに出力して表示すべき三次元画像の領域を設定する。   An output data generation area is set (S904). That is, a region of a 3D image to be output and displayed on the monitor is set.

オクルージョンの判定をする(S905)。オクルージョンの判定は、図6に示すサブルーチンフローチャートに基づいて行なう。オクルージョンの判定は、第一実施形態と同様であるため、説明は省略する。   The occlusion is determined (S905). The occlusion determination is performed based on a subroutine flowchart shown in FIG. Since the occlusion determination is the same as in the first embodiment, description thereof is omitted.

オクルージョンの判定(S905)をした後、時系列データを補間する(S906)。時系列データの補間は、図11に示すサブルーチンフローチャートに基づいて行なう。   After determining the occlusion (S905), the time series data is interpolated (S906). Time series data interpolation is performed based on a subroutine flowchart shown in FIG.

オクルージョンでないと判断した場合は(S1100、No)、データの補間は行なわず、現在の三次元データをそのまま現在の三次元データとして使用する(S1105)。   If it is determined that it is not occlusion (S1100, No), data interpolation is not performed, and the current three-dimensional data is used as it is as the current three-dimensional data (S1105).

オクルージョンであると判断した場合は(S1100、Yes)、現在の三次元データのオクルージョン領域に対応する過去の三次元データを、時系列データ保持部103において検索する(S1101)。現在の三次元データのオクルージョン領域に対応する過去の三次元データが時系列データ保持部103に存在する場合は(S1102、Yes)、該対応する過去の三次元データで現在の三次元データを補間する(S1103)。   If it is determined that it is occlusion (S1100, Yes), the past three-dimensional data corresponding to the occlusion area of the current three-dimensional data is searched in the time-series data holding unit 103 (S1101). When past three-dimensional data corresponding to the occlusion area of the current three-dimensional data exists in the time-series data holding unit 103 (S1102, Yes), the current three-dimensional data is interpolated with the corresponding past three-dimensional data. (S1103).

現在の三次元データのオクルージョン領域に対応する過去の三次元データが時系列データ保持部103に存在しない場合は(S1102、No)、現在の三次元データに関するオクルージョン領域は、測定不可点に決定し(S1104)、データの補間は行なわない。   When past 3D data corresponding to the current 3D data occlusion area does not exist in the time-series data holding unit 103 (No in S1102), the occlusion area related to the current 3D data is determined as an unmeasurable point. (S1104), no data interpolation is performed.

現在の三次元画像の全ての出力点(画素)について、まだ処理が終了していない場合は(S907、No)、次の出力点に移行し(S908)、現在のフレームの全ての出力点についてステップS905〜S907を行なう。   If processing has not been completed for all output points (pixels) of the current three-dimensional image (S907, No), the process proceeds to the next output point (S908), and all output points of the current frame are determined. Steps S905 to S907 are performed.

現在の三次元画像の全ての出力点の処理が終了した場合は、現在のフレームについての本フローチャートによる三次元画像作成方法は終了する。そして、次のフレームについて本フローチャートに従い、三次元画像作成方法を実施する。   When the processing of all output points of the current 3D image is completed, the 3D image creation method according to this flowchart for the current frame ends. Then, the 3D image creation method is performed for the next frame according to this flowchart.

以上、本実施形態に係る三次元画像作成システムおよび三次元画像作成方法について説明したが、本実施形態によれば、第一実施形態と同様に、移動体に取付けたステレオカメラの三次元データを過去の三次元データと、移動検出手段が検出した前記移動と、に基づいて補間して統合する。これにより、オクルージョンによるデータの欠落を削減し、視野範囲を拡大した三次元画像を得ることができる。   As described above, the three-dimensional image creation system and the three-dimensional image creation method according to the present embodiment have been described. However, according to the present embodiment, the three-dimensional data of the stereo camera attached to the moving body is obtained as in the first embodiment. Interpolation and integration are performed based on the past three-dimensional data and the movement detected by the movement detecting means. As a result, data loss due to occlusion can be reduced, and a three-dimensional image with an expanded visual field range can be obtained.

さらに、本実施形態においては、時系列データ保持部に保持する三次元データを、高信頼度かつ静止物体のものに限定する。これにより、時系列データ保持部を構成するメモリのサイズを小さくすることができるため、システムの低コスト化、低消費電力化を実現できる。   Furthermore, in the present embodiment, the three-dimensional data held in the time-series data holding unit is limited to those with high reliability and stationary objects. As a result, the size of the memory constituting the time-series data holding unit can be reduced, so that the system can be reduced in cost and power consumption.

[第三実施形態]
本発明の第三実施形態に係る三次元画像作成システムおよび三次元画像作成方法について、詳細に説明する。
[Third embodiment]
The 3D image creation system and 3D image creation method according to the third embodiment of the present invention will be described in detail.

本実施形態が第一実施形態と異なるのは次の点である。すなわち、本実施形態においては、時系列データ保持部103に保持する時系列の三次元データのフレームレートを、ステレオカメラ100を実装した移動体の速度に基づいて変化させる点である。その他の点については、本実施形態は第一実施形態と同様であり、第一実施形態と重複する説明は省略する。   This embodiment is different from the first embodiment in the following points. In other words, in the present embodiment, the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 is changed based on the speed of the moving body on which the stereo camera 100 is mounted. In other respects, the present embodiment is the same as the first embodiment, and a duplicate description of the first embodiment is omitted.

本実施形態に係る三次元画像作成方法は第一実施形態と同様に図5〜図7に示すフローチャートにより行なう。ここで、図5のステップS501における三次元データの保持においては、前述したように、時系列データ保持部103に保持する時系列の三次元データのフレームレートを、ステレオカメラ100を実装した移動体の速度に基づいて変化させる。図5のステップS501に関する内容以外は、本実施形態は第一実施形態と同様であるため説明は省略する。   The three-dimensional image creation method according to this embodiment is performed according to the flowcharts shown in FIGS. 5 to 7 as in the first embodiment. Here, in the holding of the three-dimensional data in step S501 in FIG. 5, as described above, the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 is set to the moving body in which the stereo camera 100 is mounted. Vary based on the speed of the. Except for the contents related to step S501 in FIG. 5, the present embodiment is the same as the first embodiment, and a description thereof will be omitted.

時系列データ保持部103に保持する時系列の三次元データのフレームレートは、例えば、次のようにすることができる。すなわち、移動体の速度が低速であるときは、時系列データ保持部103に保持する時系列の三次元データのフレームレートを、三次元データ生成部101から受信する三次元データのフレームレートの4分の1(低速)とする。移動体の速度が中速であるときは、時系列データ保持部103に保持する時系列の三次元データのフレームレートを、三次元データ生成部101から受信する三次元データのフレームレートの3分の1(中速)とする。移動体の速度が高速であるときは、時系列データ保持部103に保持する時系列の三次元データのフレームレートを、三次元データ生成部101から受信する三次元データのフレームレートの2分の1(高速)とする。このように、移動体の速度が低くなるに従って時系列データ保持部103に保持する時系列の三次元データのフレームレートを低くするのは、移動体の速度が低い場合は、時間的に隣接する三次元データのフレームの画像の変化が小さく、また、フレームレートを変化させる前と比較してフレームの画像の変化が小さいと考えられるからである。   The frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 can be set as follows, for example. That is, when the speed of the moving body is low, the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 is 4 of the frame rate of the three-dimensional data received from the three-dimensional data generation unit 101. Set to 1 / (low speed). When the speed of the moving body is medium, the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 is three times the frame rate of the three-dimensional data received from the three-dimensional data generation unit 101. 1 (medium speed). When the speed of the moving object is high, the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 is two times the frame rate of the three-dimensional data received from the three-dimensional data generation unit 101. 1 (high speed). As described above, the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 is lowered as the speed of the moving body is lowered. This is because the change in the image of the frame of the three-dimensional data is small and the change in the image of the frame is considered to be small compared to before changing the frame rate.

時系列データ保持部103に保持する時系列の三次元データのフレームレートを、ステレオカメラ100を実装した移動体の速度に基づいて変化させることで、時系列データ保持部103に保持するデータサイズを削減する。これにより、時系列データ保持部103を構成するメモリのサイズを小さくすることができるため、システムの低コスト化、低消費電力化を実現できる。   The data size held in the time-series data holding unit 103 is changed by changing the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 based on the speed of the moving body on which the stereo camera 100 is mounted. Reduce. As a result, the size of the memory constituting the time-series data holding unit 103 can be reduced, so that the cost and power consumption of the system can be reduced.

図12は、保持する時系列データのフレームレートを変化させる場合の三次元データの保持に関するフローチャートの例を示す図である。すなわち、図12に示すフローチャートは、図5のステップS501の具体例に相当する。   FIG. 12 is a diagram illustrating an example of a flowchart relating to holding of three-dimensional data when the frame rate of the time-series data to be held is changed. That is, the flowchart shown in FIG. 12 corresponds to a specific example of step S501 in FIG.

図12のフローチャートによれば、フレームレートが低速時は、保持する時系列データのフレームレートは三次元データ生成部101が作成する三次元データのフレームレートの4分の1、中速時は3分の1、高速時は2分の1、とすることができる。   According to the flowchart of FIG. 12, when the frame rate is low, the frame rate of the time-series data to be held is ¼ of the frame rate of the three-dimensional data created by the three-dimensional data generation unit 101, and is three when the frame rate is medium. One half, and one half at high speed.

具体的には、フレームレートが低速時は(S1202、低速)、整数型変数nに初期値0を付与した後(S1200)、n=0では、nがn=1にインクリメントされ(S1206)、三次元データ生成部101が作成した三次元データを保持しない(S1207、S1208、S1210)。n=1〜2でも(S1203、No)、nがそれぞれインクリメントされ(S1206)、三次元データ生成部101が作成した三次元データを保持しない(S1207、S1208、S1210)。n=3になると(S1203、Yes)、強制的にn=0とされ(S1205)、三次元データ生成部101が作成した三次元データを保持する(S1207〜S1209)。   Specifically, when the frame rate is low (S1202, low speed), after assigning an initial value 0 to the integer variable n (S1200), when n = 0, n is incremented to n = 1 (S1206), The three-dimensional data created by the three-dimensional data generation unit 101 is not retained (S1207, S1208, S1210). Even when n = 1 to 2 (S1203, No), n is incremented (S1206), and the 3D data created by the 3D data generation unit 101 is not held (S1207, S1208, S1210). When n = 3 (S1203, Yes), n = 0 is forcibly set (S1205), and the three-dimensional data created by the three-dimensional data generation unit 101 is held (S1207 to S1209).

すなわち、フレームレートが低速時は、三次元データを保持するかどうかの判断の直前のnの値が0、1、2、3のうち0のときのみ(S1208、Yes)、三次元データを保持する(S1209)。したがって、保持する三次元データのフレームレートは三次元データ生成部101が作成する三次元データのフレームレートの4分の1とすることができる。   In other words, when the frame rate is low, the three-dimensional data is retained only when the value of n immediately before the determination of whether or not to retain the three-dimensional data is 0 among 0, 1, 2, and 3 (Yes in S1208). (S1209). Therefore, the frame rate of the three-dimensional data to be held can be set to a quarter of the frame rate of the three-dimensional data created by the three-dimensional data generation unit 101.

フレームレートが中速時は(S1202、中速)、nに初期値0を付与した後(S1200)、n=0では、nがn=1にインクリメントされ(S1206)、三次元データ生成部101が作成した三次元データを保持しない(S1207、S1208、S1210)。n=1でも(S1204、No)、nがn=2にインクリメントされ(S1206)、三次元データ生成部101が作成した三次元データを保持しない(S1207、S1208、S1210)。n=2になると(S1204、Yes)、強制的にn=0とされ(S1205)、三次元データ生成部101が作成した三次元データを保持する(S1207〜S1209)。   When the frame rate is medium speed (S1202, medium speed), after assigning an initial value 0 to n (S1200), when n = 0, n is incremented to n = 1 (S1206), and the three-dimensional data generation unit 101 Does not hold the created three-dimensional data (S1207, S1208, S1210). Even if n = 1 (S1204, No), n is incremented to n = 2 (S1206), and the 3D data created by the 3D data generation unit 101 is not held (S1207, S1208, S1210). When n = 2 (S1204, Yes), n = 0 is forcibly set (S1205), and the three-dimensional data created by the three-dimensional data generation unit 101 is held (S1207 to S1209).

すなわち、フレームレートが中速時は、三次元データを保持するかどうかの判断の直前のnの値が0、1、2のうち0のときのみ(S1208、Yes)、三次元データを保持する(S1209)。したがって、保持する三次元データのフレームレートは三次元データ生成部101が作成する三次元データのフレームレートの3分の1とすることができる。   That is, when the frame rate is medium, the three-dimensional data is retained only when the value of n immediately before the determination of whether or not to retain the three-dimensional data is 0 among 0, 1, and 2 (Yes in S1208). (S1209). Therefore, the frame rate of the three-dimensional data to be held can be set to one third of the frame rate of the three-dimensional data created by the three-dimensional data generation unit 101.

フレームレートが高速時は(S1202、高速)、nに初期値0を付与した後(S1200)、nがn=1にインクリメントされ(S1206)、三次元データ生成部101が作成した三次元データを保持しない(S1207、S1208、S1210)。n=1になると(S1215、Yes)、強制的にn=0とされ(S1205)、三次元データ生成部101が作成した三次元データを保持する(S1207〜S1209)。   When the frame rate is high (S1202, high speed), after assigning an initial value 0 to n (S1200), n is incremented to n = 1 (S1206), and the 3D data created by the 3D data generation unit 101 is displayed. Not held (S1207, S1208, S1210). When n = 1 (S1215, Yes), n = 0 is forcibly set (S1205), and the three-dimensional data created by the three-dimensional data generation unit 101 is held (S1207 to S1209).

すなわち、移動体が高速時は、三次元データを保持するかどうかの判断の直前のnの値が0、1のうち0のときのみ(S1208、Yes)、三次元データを保持する(S1209)。したがって、保持する三次元データのフレームレートは三次元データ生成部101が作成する三次元データのフレームレートの2分の1となる。   That is, when the moving body is at high speed, the three-dimensional data is held only when the value of n immediately before the determination of whether or not to hold the three-dimensional data is 0 of 0 and 1 (Yes in S1208) (S1209). . Therefore, the frame rate of the three-dimensional data to be held is one half of the frame rate of the three-dimensional data created by the three-dimensional data generation unit 101.

フレームレートに応じた三次元データの保持は当該フレームの全測定点が終了するまで継続し(S1211、S1212)、当該フレームの処理が終了したときは、システム停止要求がない限り(S1213)、後続するフレームの処理を継続して行なう(S1214)。   The holding of the three-dimensional data according to the frame rate continues until all measurement points of the frame are completed (S1211, S1212). When the processing of the frame is completed, unless there is a system stop request (S1213), the subsequent The processing of the frame to be performed is continued (S1214).

このように、本実施形態によれば、第一実施形態が奏する効果に加え、以下の効果を奏する。すなわち、本実施形態によれば、時系列データ保持部103に保持する時系列の三次元データのフレームレートを、ステレオカメラ100を実装した移動体の速度に基づいて変化させることで、時系列データ保持部103に保持するデータサイズを削減する。これにより、時系列データ保持部103を構成するメモリのサイズを小さくすることができるため、システムの低コスト化、低消費電力化を実現できる。   Thus, according to this embodiment, in addition to the effect which 1st embodiment has, there exist the following effects. That is, according to the present embodiment, the time-series data is changed by changing the frame rate of the time-series three-dimensional data held in the time-series data holding unit 103 based on the speed of the moving body on which the stereo camera 100 is mounted. The data size held in the holding unit 103 is reduced. As a result, the size of the memory constituting the time-series data holding unit 103 can be reduced, so that the cost and power consumption of the system can be reduced.

[第四実施形態]
本発明の第四実施形態に係る三次元画像作成システムおよび三次元画像作成方法について、詳細に説明する。
[Fourth embodiment]
A 3D image creation system and a 3D image creation method according to a fourth embodiment of the present invention will be described in detail.

本実施形態が第一実施形態と異なるのは次の点である。すなわち、本実施形態においては、ステレオカメラ100を複数有し、各ステレオカメラ100の三次元データを統合した広視野の三次元データに関し、現在の三次元データを過去の三次元データと、移動検出手段が検出した前記移動と、に基づいて補間して統合する。これにより、オクルージョンによるデータの欠落を削減し、視野範囲を拡大したアラウンドビューの三次元画像を得る。   This embodiment is different from the first embodiment in the following points. That is, in this embodiment, there are a plurality of stereo cameras 100, and the three-dimensional data of the wide field of view obtained by integrating the three-dimensional data of each stereo camera 100, the current three-dimensional data is replaced with past three-dimensional data and movement detection. Based on the movement detected by the means, interpolation is performed and integration is performed. As a result, missing data due to occlusion is reduced, and an around view three-dimensional image with an expanded field of view is obtained.

さらに、本実施形態は、オクルージョン領域を補間した三次元データに移動体の三次元画像(以下、「移動体モデル」と称する)を統合し、移動体外部の任意の位置から見た移動体の位置を把握できるようにする。   Furthermore, the present embodiment integrates a three-dimensional image of a moving object (hereinafter referred to as a “moving object model”) into the three-dimensional data obtained by interpolating the occlusion region, and the moving object viewed from an arbitrary position outside the moving object. Be able to grasp the position.

その他の点については、本実施形態は第一実施形態と同様であり、第一実施形態と重複する説明は省略する。   In other respects, the present embodiment is the same as the first embodiment, and a duplicate description of the first embodiment is omitted.

図13は、本実施形態に係る三次元画像作成システムの移動体とステレオカメラの相対位置関係を示す図である。   FIG. 13 is a diagram illustrating a relative positional relationship between the moving body and the stereo camera of the three-dimensional image creation system according to the present embodiment.

図13に示すように、本実施形態に係る三次元画像作成システムは、移動体1300に実装された複数のステレオカメラ100を有する。ステレオカメラ100は、各カメラ全体で、より広い視野(理想的には360度の視野)の三次元画像が得られるように移動体1300に実装される。   As illustrated in FIG. 13, the three-dimensional image creation system according to the present embodiment includes a plurality of stereo cameras 100 mounted on a moving body 1300. The stereo camera 100 is mounted on the moving body 1300 so that a three-dimensional image with a wider field of view (ideally a 360-degree field of view) can be obtained with each camera as a whole.

図13のAのように4つのステレオカメラ100を中心に対し互いに90度づつずらして実装することで、最小限のカメラ数でより広い視野の三次元画像が得られる。しかし、本実施形態はステレオカメラ100の数を限定するものではなく、例えば、図13のBのように、8つのステレオカメラ100を用いてもよい。移動体1300の適切な位置に実装されたステレオカメラ100の数を増やすことで、さらに広い視野の三次元画像が得られる。以下、本実施形態の説明においては、4つのステレオカメラ100を用いた場合について説明する。   As shown in FIG. 13A, when the four stereo cameras 100 are mounted so as to be shifted from each other by 90 degrees, a three-dimensional image with a wider field of view can be obtained with a minimum number of cameras. However, this embodiment does not limit the number of stereo cameras 100. For example, as shown in FIG. 13B, eight stereo cameras 100 may be used. By increasing the number of stereo cameras 100 mounted at appropriate positions on the moving body 1300, a three-dimensional image with a wider field of view can be obtained. Hereinafter, in the description of the present embodiment, a case where four stereo cameras 100 are used will be described.

図14は、本実施形態に係る三次元画像作成システムを示すブロック図である。本実施形態に係る三次元画像作成システム10は、第1実施形態と同様に、ステレオカメラ100a〜100d、三次元データ生成部101、移動量演算部102、時系列データ保持部103、出力部105、を有する。さらに、本実施形態は、領域設定部(領域設定手段)1400、移動体モデル保持部(移動体モデル画像保持手段)1401、表示部(表示手段)1402、を有する。   FIG. 14 is a block diagram showing a three-dimensional image creation system according to this embodiment. As in the first embodiment, the 3D image creation system 10 according to the present embodiment includes stereo cameras 100a to 100d, a 3D data generation unit 101, a movement amount calculation unit 102, a time-series data holding unit 103, and an output unit 105. Have. Furthermore, the present embodiment includes an area setting unit (area setting unit) 1400, a moving body model holding unit (moving body model image holding unit) 1401, and a display unit (display unit) 1402.

三次元データ生成部101は、三次元化計算部(個別三次元データ生成手段)1403a〜1403d、座標変換部(三次元座標変換手段)1404a〜1404d、三次元データ統合部(三次元データ統合手段)1405、を有する。   The three-dimensional data generation unit 101 includes a three-dimensional calculation unit (individual three-dimensional data generation unit) 1403a to 1403d, a coordinate conversion unit (three-dimensional coordinate conversion unit) 1404a to 1404d, and a three-dimensional data integration unit (three-dimensional data integration unit). 1405.

三次元化計算部1403a〜1403dは、ステレオカメラ100a〜100dからそれぞれ基準画像データと参照画像データとを受信し、これらの画像データに基づいて三次元データを算出する。三次元データは、基準画像データと参照画像データとから視差を演算し、該視差と、ステレオカメラ100a〜100dの基線長と、焦点距離と、から三角測量の原理により、ステレオカメラ100a〜100dから物体までの距離を演算することで得られる。すなわち、各三次元化計算部1403a〜1403dは、各ステレオカメラ100a〜100dが撮影した画像を、各ステレオカメラ100a〜100dの座標系(以下、「ステレオカメラ座標系」と称する)で表現された三次元データとして算出する。   Three-dimensional calculation units 1403a to 1403d receive standard image data and reference image data from stereo cameras 100a to 100d, respectively, and calculate three-dimensional data based on these image data. The three-dimensional data is calculated from the stereo cameras 100a to 100d based on the principle of triangulation from the parallax, the base line length of the stereo cameras 100a to 100d, and the focal length from the standard image data and the reference image data. Obtained by calculating the distance to the object. That is, each of the three-dimensional calculation units 1403a to 1403d represents the images taken by the stereo cameras 100a to 100d in the coordinate system of the stereo cameras 100a to 100d (hereinafter referred to as “stereo camera coordinate system”). Calculate as 3D data.

座標変換部1404a〜1404dは、各三次元化計算部1403a〜1403dが算出したステレオカメラ座標系の三次元データを、移動体1300の座標系(以下、「移動体座標系」と称する)の三次元データに変換する。該変換は、ステレオカメラ座標系の三次元データに、移動体座標系内での各ステレオカメラ100a〜100dの位置姿勢を表現する変換行列Mat1〜Mat4をそれぞれ適用することで行なう。変換行列Mat1〜Mat4は、あらかじめ三次元データ生成部101内のメモリに記憶させておき、各座標変換部1404a〜1404dは、これを参照してもよい。   The coordinate conversion units 1404a to 1404d use the three-dimensional data of the stereo camera coordinate system calculated by the respective three-dimensional calculation units 1403a to 1403d as the tertiary of the coordinate system of the moving body 1300 (hereinafter referred to as “moving body coordinate system”). Convert to original data. The conversion is performed by applying conversion matrices Mat1 to Mat4 representing the positions and orientations of the stereo cameras 100a to 100d in the moving body coordinate system to the three-dimensional data of the stereo camera coordinate system. The transformation matrices Mat1 to Mat4 may be stored in advance in the memory in the three-dimensional data generation unit 101, and the coordinate transformation units 1404a to 1404d may refer to them.

三次元データ統合部1405は、座標変換部1404a〜1404dが変換した4つの三次元データを統合し、測定空間の三次元シーンを生成する。   The three-dimensional data integration unit 1405 integrates the four three-dimensional data converted by the coordinate conversion units 1404a to 1404d, and generates a three-dimensional scene in the measurement space.

時系列データ保持部103は、三次元データ生成部101から受信した三次元データおよび信頼度と、移動量演算部から受信した物体の移動ベクトルおよび移動体の移動ベクトルと、を保持する。保持したデータは、所望の時間におけるデータとして読み出すことができる。   The time-series data holding unit 103 holds the three-dimensional data and reliability received from the three-dimensional data generation unit 101, and the object movement vector and the moving object movement vector received from the movement amount calculation unit. The retained data can be read as data at a desired time.

時系列データ統合部104は、三次元データ生成部101から三次元データおよび信頼度を、時系列データ保持部103から過去の三次元データおよび信頼度を受信する。データ統合部104は、現在の三次元データにオクルージョン領域のデータが含まれる場合は、該オクルージョン領域のデータを所定の条件を満たす過去の三次元データで補間して統合する。これにより、視野範囲を拡大した三次元画像を生成する。   The time-series data integration unit 104 receives the three-dimensional data and the reliability from the three-dimensional data generation unit 101, and the past three-dimensional data and the reliability from the time-series data holding unit 103. When the current three-dimensional data includes occlusion area data, the data integration unit 104 interpolates and integrates the occlusion area data with past three-dimensional data that satisfies a predetermined condition. Thereby, a three-dimensional image in which the visual field range is enlarged is generated.

領域設定部1400は、ユーザが入力する領域設定信号を受け、時系列データ統合部104が生成する三次元データの領域を設定する。すなわち、ユーザが視認したい三次元データの領域を設定する。   The region setting unit 1400 receives the region setting signal input by the user and sets the region of the three-dimensional data generated by the time series data integration unit 104. That is, a region of 3D data that the user wants to visually recognize is set.

移動量演算部102は、移動体1300の移動ベクトルを演算する。移動ベクトルは、例えば、加速度センサの測定結果から算出してもよい。また、移動量演算部102は、画像内の物体の移動ベクトルを演算する。   The movement amount calculation unit 102 calculates a movement vector of the moving body 1300. For example, the movement vector may be calculated from the measurement result of the acceleration sensor. Further, the movement amount calculation unit 102 calculates the movement vector of the object in the image.

移動体モデル保持部1401は、移動体1400を三次元データに重ね合わせて表示させるための移動体1400の外観に関するモデルデータ(移動体モデル)を保持する記憶装置である。   The moving body model holding unit 1401 is a storage device that holds model data (moving body model) related to the appearance of the moving body 1400 for displaying the moving body 1400 superimposed on three-dimensional data.

出力部105は、時系列データ統合部104が統合した三次元データに、移動体モデル保持部1401が保持している移動体モデルを重ね合わせて表示部1402に出力する。   The output unit 105 superimposes the moving body model held by the moving body model holding unit 1401 on the 3D data integrated by the time series data integration unit 104 and outputs the superimposed data to the display unit 1402.

出力部105は、時系列データ統合部104が三次元データを補間した領域について、点滅表示、影付き表示、グレー表示のいずれかで表示デバイスに表示させてもよい。これにより、ユーザは、三次元画像作成システム10が補間したデータを視覚的に認識することができる。   The output unit 105 may cause the display device to display the area in which the time-series data integration unit 104 interpolates the three-dimensional data in one of blinking display, shaded display, and gray display. Thereby, the user can visually recognize the data interpolated by the three-dimensional image creation system 10.

表示部1402は、時系列データ統合部104が作成した三次元画像を表示する。該三次元画像には移動体モデルを含むことができる。   The display unit 1402 displays the 3D image created by the time series data integration unit 104. The three-dimensional image can include a moving body model.

図15は、本実施形態に係る三次元画像作成方法のフローチャートを示す図である。   FIG. 15 is a diagram illustrating a flowchart of the three-dimensional image creation method according to the present embodiment.

以下、図15に示すフローチャートを参照して、本実施形態に係る三次元画像作成方法について詳細に説明する。本実施形態に係る三次元画像作成方法は、図14に示す三次元画像作成システムにより行なう。   Hereinafter, the three-dimensional image creation method according to the present embodiment will be described in detail with reference to the flowchart shown in FIG. The 3D image creation method according to the present embodiment is performed by the 3D image creation system shown in FIG.

各ステレオカメラ100a〜100dで取得した(S1500)画像に基づいて、三次元化計算部1403a〜1403dは、ステレオカメラ座標系で表現された三次元データを作成する(S1501)。   Based on the images acquired by the stereo cameras 100a to 100d (S1500), the three-dimensional calculation units 1403a to 1403d create three-dimensional data expressed in the stereo camera coordinate system (S1501).

三次元化計算部1403a〜1403dが作成した各ステレオカメラ100a〜100dの三次元データは、座標変換部1404a〜1404dにより移動体座標系の三次元データに変換された後、三次元データ統合部1405で統合される。   The three-dimensional data of the stereo cameras 100a to 100d created by the three-dimensional calculation units 1403a to 1403d are converted into three-dimensional data of the moving object coordinate system by the coordinate conversion units 1404a to 1404d, and then the three-dimensional data integration unit 1405. Integrated in.

時系列データ保持部103は、三次元データ統合部1405が統合した三次元データを保持する(S1503)。   The time-series data holding unit 103 holds the three-dimensional data integrated by the three-dimensional data integration unit 1405 (S1503).

領域設定部1400は、ユーザが入力する領域設定信号を受け、時系列データ統合部104が生成する三次元データの領域を設定する(S1505)。時系列データ統合部104は、データ統合部104は、現在の三次元データにオクルージョン領域のデータが含まれる場合は、該オクルージョン領域のデータを所定の条件を満たす過去の三次元データで補間して統合する(S1505)。この際、領域設定部1400が設定した領域の三次元データを作成する。すなわち、時系列データ統合部104は、三次元データの補間の前または後において、領域設定部1400が設定した領域の三次元データと整合させるために三次元データを座標変換する。   The region setting unit 1400 receives the region setting signal input by the user, and sets the region of the three-dimensional data generated by the time series data integration unit 104 (S1505). The time series data integration unit 104 interpolates the data of the occlusion area with the past three-dimensional data satisfying a predetermined condition when the data of the occlusion area is included in the current three-dimensional data. Integration is performed (S1505). At this time, three-dimensional data of the region set by the region setting unit 1400 is created. That is, the time-series data integration unit 104 performs coordinate conversion of the three-dimensional data in order to match the three-dimensional data of the region set by the region setting unit 1400 before or after the interpolation of the three-dimensional data.

出力部105は、時系列データ統合部104が作成した三次元データに、移動体モデル保持部1401が保持している移動体モデルを重ね合わせて表示部1402に出力する(S1506)。   The output unit 105 superimposes the moving body model held by the moving body model holding unit 1401 on the three-dimensional data created by the time series data integration unit 104 and outputs the superimposed data to the display unit 1402 (S1506).

表示部1402は、出力部105から受信した三次元データの画像を表示する(S1507)。   The display unit 1402 displays an image of the three-dimensional data received from the output unit 105 (S1507).

処理終了の制御信号を受けるまでステップS1500〜S1507を繰り返し行なう(S1508)。   Steps S1500 to S1507 are repeated until a control signal for processing end is received (S1508).

以上、本発明の第四実施形態に係る三次元画像作成システムおよび三次元画像作成方法について説明したが、本実施形態は以下の効果を奏する。   The 3D image creation system and the 3D image creation method according to the fourth embodiment of the present invention have been described above, but this embodiment has the following effects.

ステレオカメラを複数有し、各ステレオカメラの三次元データを統合した広視野の三次元データに関し、現在の三次元データを過去の三次元データと、移動検出手段が検出した前記移動と、に基づいて補間して統合する。これにより、オクルージョンによるデータの欠落を削減し、視野範囲を拡大したアラウンドビューの三次元画像を得ることができる。   A wide field of view 3D data that has a plurality of stereo cameras and integrates the 3D data of each stereo camera. Based on the past 3D data and the movement detected by the movement detection means. Interpolate and integrate. As a result, it is possible to reduce the data loss due to occlusion and to obtain an around-view three-dimensional image with an expanded visual field range.

さらに、本実施形態は、オクルージョン領域を補間した三次元データに移動体モデルを統合することで、移動体外部の任意の位置から見た移動体の位置を把握することができる。   Furthermore, this embodiment can grasp | ascertain the position of the moving body seen from the arbitrary positions outside a moving body by integrating a moving body model into the three-dimensional data which interpolated the occlusion area | region.

以上、本願発明を実施形態に基づき説明してきたが、本発明の範囲は実施形態に限定されるものではない。   As mentioned above, although this invention has been demonstrated based on embodiment, the scope of the present invention is not limited to embodiment.

例えば、上述の実施形態では、複眼画像システムとしてステレオカメラを用いているが、2つの単体のカメラで複眼画像システムを構成してもよい。   For example, in the above-described embodiment, a stereo camera is used as the compound eye image system, but the compound eye image system may be configured by two single cameras.

10 三次元画像作成システム、
100、100a、100b、100c、100d ステレオカメラ、
100a 基準カメラ、
100b 参照カメラ、
101 三次元データ生成部(三次元データ生成手段、静止物体判断手段)、
102 移動量演算部(移動検出手段、静止物体判断手段)、
103 時系列データ保持部(時系列データ保持手段)、
104 時系列データ統合部(時系列データ統合手段)、
105 出力部(出力手段)、
200a、200b 移動体、
210、210a、210b オクルージョン領域、
220 障害物、
400 物体、
1300 移動体、
1400 領域設定部(領域設定手段)、
1401 移動体モデル保持部(移動体モデル画像保持手段)、
1402 表示部(表示手段)、
1403a、1403b、1403c、1403d 三次元化計算部(個別三次元データ生成手段)、
1404a、1404b、1404c、1404d 座標変換部(三次元座標変換手段)、
1405 三次元データ統合部(三次元データ統合手段)。
10 3D image creation system,
100, 100a, 100b, 100c, 100d stereo camera,
100a reference camera,
100b reference camera,
101 3D data generation unit (3D data generation means, stationary object determination means),
102 movement amount calculation unit (movement detection means, stationary object determination means),
103 time series data holding unit (time series data holding means),
104 Time series data integration unit (time series data integration means),
105 output section (output means),
200a, 200b mobile body,
210, 210a, 210b occlusion area,
220 obstacles,
400 objects,
1300 mobile,
1400 area setting unit (area setting means),
1401 moving body model holding unit (moving body model image holding means),
1402 Display unit (display means),
1403a, 1403b, 1403c, 1403d three-dimensional calculation unit (individual three-dimensional data generation means),
1404a, 1404b, 1404c, 1404d coordinate converter (three-dimensional coordinate converter),
1405 Three-dimensional data integration unit (three-dimensional data integration means).

Claims (38)

移動体に取付けた1以上のステレオカメラと、
前記ステレオカメラが撮影した画像から時系列に三次元データを生成する三次元データ生成手段と、
前記移動体の移動を検出する移動検出手段と、
前記三次元データ生成手段が生成した前記三次元データを、過去の前記三次元データと、前記移動検出手段が検出した前記移動と、に基づいて補間して統合する時系列データ統合手段と、
を有することを特徴とする三次元画像作成システム。
One or more stereo cameras attached to the moving body;
Three-dimensional data generation means for generating three-dimensional data in time series from images taken by the stereo camera;
Movement detecting means for detecting movement of the moving body;
Time-series data integration means for interpolating and integrating the three-dimensional data generated by the three-dimensional data generation means based on the past three-dimensional data and the movement detected by the movement detection means;
A three-dimensional image creation system characterized by comprising:
前記時系列データ統合手段は、前記三次元データ生成手段が生成した前記三次元データのオクルージョン領域に相当するデータを、過去の前記三次元データで補間して統合することを特徴とする請求項1に記載の三次元画像作成システム。   2. The time-series data integration unit integrates data corresponding to an occlusion area of the three-dimensional data generated by the three-dimensional data generation unit by interpolating with the past three-dimensional data. 3D image creation system described in 1. 前記オクルージョン領域は、前記ステレオカメラを構成する2つのカメラでそれぞれ撮影した画像相互間の対応関係の信頼性が低い領域であることを特徴とする請求項2に記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 2, wherein the occlusion area is an area where the reliability of the correspondence between the images captured by the two cameras constituting the stereo camera is low. 前記移動検出手段が検出する前記移動は、前記移動体の移動ベクトルであることを特徴とする請求項1〜3のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 1, wherein the movement detected by the movement detection unit is a movement vector of the moving body. 前記移動検出手段は、加速度センサ、ジャイロセンサ、前記画像のフレーム間の相関演算、のいずれか一つまたは二つ以上の測定値に基づいて前記移動体の移動ベクトルを検出することを特徴とする請求項4に記載の三次元画像作成システム。   The movement detection means detects a movement vector of the moving body based on one or more measured values of an acceleration sensor, a gyro sensor, and a correlation calculation between frames of the image. The three-dimensional image creation system according to claim 4. 前記相関演算は、位相限定相関法、差分絶対値和、差分自乗和、正規化相互相関、のいずれかで行なうことを特徴とする請求項5に記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 5, wherein the correlation calculation is performed by any one of a phase-only correlation method, a sum of absolute differences, a sum of squares of differences, and a normalized cross correlation. 前記ステレオカメラの数は4つであり、
前記三次元データ生成手段は、各ステレオカメラが撮影した画像から時系列に三次元データを個別に生成する個別三次元データ生成手段と、
前記各ステレオカメラと移動体との既知の位置関係をもとに、前記個別三次元データ生成手段が生成した各スレテオカメラの前記三次元データを前記移動体の三次元座標系に変換する三次元座標変換手段と、
前記三次元座標変換手段が変換した各スレテオカメラの前記三次元データを統合し、三次元データを作成する三次元データ統合手段と、
を有することを特徴とする請求項1〜6のいずれかに記載の三次元画像作成システム。
The number of the stereo cameras is four,
The three-dimensional data generation means includes individual three-dimensional data generation means for individually generating three-dimensional data in time series from images taken by each stereo camera,
3D for converting the 3D data of each stereo camera generated by the individual 3D data generation means into the 3D coordinate system of the mobile body based on the known positional relationship between each stereo camera and the mobile body Coordinate transformation means;
3D data integration means for integrating the 3D data of each stereo camera converted by the 3D coordinate conversion means and creating 3D data;
The three-dimensional image creation system according to claim 1, wherein:
前記三次元データ生成手段が生成した三次元データと、前記移動検出手段が検出した前記移動体の前記移動と、を時系列に保持する時系列データ保持手段をさらに有し、
前記時系列データ統合手段は、前記時系列データ保持手段が保持した前記三次元データを、前記時系列データ保持手段が保持した過去の前記三次元データと、前記移動体の前記移動と、に基づいて補間して統合し、
前記時系列データ保持手段は、保持する時系列のデータのフレームレートを前記移動体の速度に基づいて変化させることを特徴とする請求項1〜7のいずれかに記載の三次元画像作成システム。
Further comprising time-series data holding means for holding the three-dimensional data generated by the three-dimensional data generation means and the movement of the moving body detected by the movement detection means in time series,
The time-series data integration unit is configured based on the three-dimensional data held by the time-series data holding unit, the past three-dimensional data held by the time-series data holding unit, and the movement of the moving body. Interpolate and integrate
The three-dimensional image creation system according to claim 1, wherein the time-series data holding unit changes a frame rate of the time-series data to be held based on the speed of the moving body.
前記時系列データ統合手段が統合した前記三次元データを表示手段に表示するために出力する出力手段と、
前記出力手段が出力した前記三次元データを表示する表示手段と、
をさらに有することを特徴とする請求項1〜8のいずれかに記載の三次元画像作成システム。
Output means for outputting the three-dimensional data integrated by the time-series data integration means for display on a display means;
Display means for displaying the three-dimensional data output by the output means;
The three-dimensional image creation system according to claim 1, further comprising:
前記移動体の画像である移動体モデル画像を保持する移動体モデル画像保持手段をさらに有し、
前記出力手段は、前記移動体モデル画像保持部が保持した前記移動体モデル画像を、前記三次元データとともに表示デバイスに表示するために出力することを特徴とする請求項9に記載の三次元画像作成システム。
A moving body model image holding means for holding a moving body model image that is an image of the moving body;
The three-dimensional image according to claim 9, wherein the output unit outputs the moving body model image held by the moving body model image holding unit for display on the display device together with the three-dimensional data. Creation system.
前記移動体モデル画像は三次元画像であることを特徴とする請求項10に記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 10, wherein the moving body model image is a three-dimensional image. 前記時系列データ統合手段が作成する前記三次元データの領域を設定する領域設定手段をさらに有することを特徴とする請求項1〜11のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 1, further comprising a region setting unit that sets a region of the three-dimensional data created by the time-series data integration unit. 前記ステレオカメラが撮影した画像に含まれた画像が静止物体の画像かどうかを、前記ステレオカメラが撮影した画像と、前記移動体の移動ベクトルと、に基づいて、前記移動体の移動前後における前記物体の位置ベクトルの変化を演算することで判断する静止物体判断手段をさらに有し、
前記時系列データ統合手段が補間する前記三次元データは、静止物体の画像の三次元データであることを特徴とする請求項1〜12のいずれかに記載の三次元画像作成システム。
Whether the image included in the image captured by the stereo camera is an image of a stationary object, based on the image captured by the stereo camera and the movement vector of the moving object, before and after the movement of the moving object It further has a stationary object judging means for judging by calculating a change in the position vector of the object,
The three-dimensional image creation system according to any one of claims 1 to 12, wherein the three-dimensional data interpolated by the time-series data integration unit is three-dimensional data of an image of a stationary object.
前記時系列データ統合手段が補間する前記三次元データは、信頼度が高いものであることを特徴とする請求項1〜13のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to any one of claims 1 to 13, wherein the three-dimensional data interpolated by the time-series data integration unit has high reliability. 前記時系列データ統合手段が補間する前記三次元データは、最も近くで撮影された画像であることを特徴とする請求項1〜14のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to any one of claims 1 to 14, wherein the three-dimensional data interpolated by the time-series data integration unit is an image photographed closest. 前記データ保持手段が保持する前記三次元データは、静止物体の画像の三次元データであることを特徴とする請求項8〜15のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 8, wherein the three-dimensional data held by the data holding unit is three-dimensional data of an image of a stationary object. 前記データ保持手段が保持する前記三次元データは、信頼度が高いものであることを特徴とする請求項8〜16のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to any one of claims 8 to 16, wherein the three-dimensional data held by the data holding unit has high reliability. 前記データ保持手段が保持する前記三次元データは、最も近くで撮影された画像であることを特徴とする請求項8〜17のいずれかに記載の三次元画像作成システム。   The three-dimensional image creation system according to claim 8, wherein the three-dimensional data held by the data holding unit is an image taken closest. 前記出力手段は、前記時系列データ統合手段が前記三次元データを補間した領域について、点滅表示、影付き表示、グレー表示のいずれかで前記表示デバイスに表示させることを特徴とする請求項9〜18のいずれかに記載の三次元画像作成システム。   The output means displays the area interpolated by the time-series data integration means on the display device in any one of blinking display, shaded display, and gray display. The three-dimensional image creation system according to any one of 18. 移動体に取付けた1以上のステレオカメラが撮影した画像から時系列に三次元データを生成する三次元データ生成段階と、
前記移動体の移動を検出する移動検出段階と、
前記三次元データ生成段階で生成した前記三次元データを、過去の前記三次元データと、前記移動検出段階で検出した前記移動と、に基づいて補間して統合する時系列データ統合段階と、
を有することを特徴とする三次元画像作成方法。
A three-dimensional data generation stage for generating three-dimensional data in time series from images taken by one or more stereo cameras attached to a moving body;
A movement detecting step for detecting movement of the moving body;
A time-series data integration step of interpolating and integrating the three-dimensional data generated in the three-dimensional data generation step based on the past three-dimensional data and the movement detected in the movement detection step;
A three-dimensional image creation method characterized by comprising:
前記時系列データ統合段階は、前記三次元データ生成段階で生成した前記三次元データのオクルージョン領域に相当するデータを、過去の前記三次元データで補間して統合することを特徴とする請求項20に記載の三次元画像作成方法。   21. The time-series data integration step includes integrating the data corresponding to the occlusion region of the three-dimensional data generated in the three-dimensional data generation step by interpolating with the past three-dimensional data. The three-dimensional image creation method as described in 2. 前記オクルージョン領域は、前記ステレオカメラを構成する2つのカメラでそれぞれ撮影した画像相互間の対応関係の信頼性が低い領域であることを特徴とする請求項21に記載の三次元画像作成方法。   The three-dimensional image creation method according to claim 21, wherein the occlusion region is a region having a low reliability of a correspondence relationship between images captured by two cameras constituting the stereo camera. 前記移動検出段階で検出する前記移動は、前記移動体の移動ベクトルであることを特徴とする請求項20〜22のいずれかに記載の三次元画像作成方法。   23. The three-dimensional image creation method according to claim 20, wherein the movement detected in the movement detection step is a movement vector of the moving body. 前記移動検出段階は、加速度センサ、ジャイロセンサ、前記画像のフレーム間の相関演算、のいずれか一つまたは二つ以上の測定値に基づいて前記移動体の移動ベクトルを検出することを特徴とする請求項23に記載の三次元画像作成方法。   In the movement detection step, a movement vector of the moving body is detected based on one or more measurement values of an acceleration sensor, a gyro sensor, and a correlation calculation between the frames of the image. The three-dimensional image creation method according to claim 23. 前記相関演算は、位相限定相関法、差分絶対値和、差分自乗和、正規化相互相関、のいずれかで行なうことを特徴とする請求項24に記載の三次元画像作成方法。   25. The three-dimensional image creation method according to claim 24, wherein the correlation calculation is performed by any one of a phase-only correlation method, a sum of absolute differences, a sum of squares of differences, and a normalized cross correlation. 前記ステレオカメラの数は4つであり、
前記三次元データ生成段階は、各ステレオカメラが撮影した画像から時系列に三次元データを個別に生成する個別三次元データ生成段階と、
前記各ステレオカメラと前記移動体との既知の位置関係をもとに、前記個別三次元データ生成段階で生成した各スレテオカメラの前記三次元データを前記移動体の三次元座標系に変換する三次元座標変換段階と、
前記三次元座標変換段階で変換した各スレテオカメラの前記三次元データを統合し、三次元データを作成する三次元データ統合段階と、
を有することを特徴とする請求項20〜25のいずれかに記載の三次元画像作成方法。
The number of the stereo cameras is four,
In the three-dimensional data generation step, an individual three-dimensional data generation step that individually generates three-dimensional data in time series from images taken by each stereo camera;
A tertiary that converts the three-dimensional data of each stereo camera generated in the individual three-dimensional data generation step into a three-dimensional coordinate system of the moving body based on a known positional relationship between each stereo camera and the moving body. An original coordinate transformation stage;
Integrating the three-dimensional data of each stereo camera converted in the three-dimensional coordinate conversion step, and creating a three-dimensional data, a three-dimensional data integration step;
The three-dimensional image creation method according to any one of claims 20 to 25, wherein:
前記三次元データ生成段階で生成した三次元データと、前記移動検出段階で検出した前記移動体の前記移動と、を時系列に保持する時系列データ保持段階をさらに有し、
前記時系列データ統合段階は、前記時系列データ保持段階で保持した前記三次元データを、前記時系列データ保持段階で保持した過去の前記三次元データと、前記移動体の前記移動と、に基づいて補間して統合し、
前記時系列データ保持段階は、保持する時系列のデータのフレームレートを前記移動体の速度に基づいて変化させることを特徴とする請求項20〜26のいずれかに記載の三次元画像作成方法。
A time-series data holding step for holding the three-dimensional data generated in the three-dimensional data generation step and the movement of the moving body detected in the movement detection step in time series;
The time series data integration step is based on the three-dimensional data held in the time series data holding step, the past three-dimensional data held in the time series data holding step, and the movement of the moving body. Interpolate and integrate
27. The three-dimensional image creation method according to claim 20, wherein the time-series data holding step changes a frame rate of the time-series data to be held based on a speed of the moving body.
前記時系列データ統合段階で統合した前記三次元データを表示手段に表示するために出力する出力段階と、
前記出力段階で出力した前記三次元データを表示する表示段階と、
をさらに有することを特徴とする請求項20〜27のいずれかに記載の三次元画像作成方法。
An output step for outputting the three-dimensional data integrated in the time series data integration step for display on a display means;
A display step for displaying the three-dimensional data output in the output step;
The three-dimensional image creation method according to claim 20, further comprising:
前記移動体の画像である移動体モデル画像を保持する移動体モデル画像保持段階をさらに有し、
前記出力段階は、前記移動体モデル画像保持段階で保持した前記移動体モデル画像を、前記三次元データとともに表示デバイスに表示するために出力することを特徴とする請求項28に記載の三次元画像作成方法。
A moving body model image holding step for holding a moving body model image that is an image of the moving body;
29. The three-dimensional image according to claim 28, wherein the outputting step outputs the moving body model image held in the moving body model image holding step for display on a display device together with the three-dimensional data. How to make.
前記移動体モデル画像は三次元画像であることを特徴とする請求項29に記載の三次元画像作成方法。   30. The three-dimensional image creation method according to claim 29, wherein the moving body model image is a three-dimensional image. 前記時系列データ統合段階で作成する前記三次元データの領域を設定する領域設定段階をさらに有することを特徴とする請求項20〜30のいずれかに記載の三次元画像作成方法。   31. The three-dimensional image creation method according to claim 20, further comprising a region setting step of setting a region of the three-dimensional data created in the time series data integration step. 前記ステレオカメラが撮影した画像に含まれた画像が静止物体の画像かどうかを、前記ステレオカメラが撮影した画像と、前記移動体の移動ベクトルと、に基づいて、前記移動体の移動前後における前記物体の位置ベクトルの変化を演算することで判断する静止物体判断段階をさらに有し、
前記時系列データ統合段階で補間する前記三次元データは、静止物体の画像の三次元データであることを特徴とする請求項20〜31のいずれかに記載の三次元画像作成方法。
Whether the image included in the image captured by the stereo camera is an image of a stationary object, based on the image captured by the stereo camera and the movement vector of the moving object, before and after the movement of the moving object A stationary object determination step of determining by calculating a change in the position vector of the object;
The three-dimensional image creation method according to any one of claims 20 to 31, wherein the three-dimensional data to be interpolated in the time series data integration step is three-dimensional data of an image of a stationary object.
前記時系列データ統合段階で補間する前記三次元データは、信頼度が高いものであることを特徴とする請求項20〜32のいずれかに記載の三次元画像作成方法。   The three-dimensional image creation method according to any one of claims 20 to 32, wherein the three-dimensional data to be interpolated in the time series data integration step has high reliability. 前記時系列データ統合段階で補間する前記三次元データは、最も近くで撮影された画像であることを特徴とする請求項20〜33のいずれかに記載の三次元画像作成方法。   The three-dimensional image creation method according to any one of claims 20 to 33, wherein the three-dimensional data to be interpolated in the time series data integration step is an image photographed closest. 前記データ保持段階で保持する前記三次元データは、静止物体の画像の三次元データであることを特徴とする請求項27〜34のいずれかに記載の三次元画像作成方法。   35. The three-dimensional image creation method according to claim 27, wherein the three-dimensional data held in the data holding step is three-dimensional data of a still object image. 前記データ保持段階で保持する前記三次元データは、信頼度が高いものであることを特徴とする請求項27〜35のいずれかに記載の三次元画像作成方法。   36. The three-dimensional image creation method according to any one of claims 27 to 35, wherein the three-dimensional data held in the data holding step has high reliability. 前記データ保持段階で保持する前記三次元データは、最も近くで撮影された画像であることを特徴とする請求項27〜36のいずれかに記載の三次元画像作成方法。   37. The three-dimensional image creation method according to any one of claims 27 to 36, wherein the three-dimensional data held in the data holding step is an image taken closest. 前記出力段階は、前記時系列データ統合段階で前記三次元データを補間した領域について、点滅表示、影付き表示、グレー表示のいずれかで前記表示デバイスに表示させることを特徴とする請求項28〜37のいずれかに記載の三次元画像作成方法。   29. The output stage displays the area interpolated with the three-dimensional data in the time series data integration stage on the display device in one of blinking display, shaded display, and gray display. 37. The three-dimensional image creation method according to any one of 37.
JP2010072379A 2010-03-26 2010-03-26 Three-dimensional image creation system and three-dimensional image creation method Pending JP2011204118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010072379A JP2011204118A (en) 2010-03-26 2010-03-26 Three-dimensional image creation system and three-dimensional image creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010072379A JP2011204118A (en) 2010-03-26 2010-03-26 Three-dimensional image creation system and three-dimensional image creation method

Publications (1)

Publication Number Publication Date
JP2011204118A true JP2011204118A (en) 2011-10-13

Family

ID=44880680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010072379A Pending JP2011204118A (en) 2010-03-26 2010-03-26 Three-dimensional image creation system and three-dimensional image creation method

Country Status (1)

Country Link
JP (1) JP2011204118A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013165006A1 (en) * 2012-05-01 2013-11-07 セントラルエンジニアリング株式会社 Stereo camera and stereo camera system
JP2016158186A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Imaging apparatus, imaging method, and imaging program
JP2018206365A (en) * 2017-06-08 2018-12-27 株式会社リコー Image processing method, apparatus, and electronic device
WO2020071414A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN112386282A (en) * 2020-11-13 2021-02-23 声泰特(成都)科技有限公司 Ultrasonic automatic volume scanning imaging method and system
WO2021048122A1 (en) * 2019-09-09 2021-03-18 Grandperspective GmbH System and method for monitoring an air space for an extensive site

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013165006A1 (en) * 2012-05-01 2015-12-24 セントラルエンジニアリング株式会社 Stereo camera and stereo camera system
WO2013165006A1 (en) * 2012-05-01 2013-11-07 セントラルエンジニアリング株式会社 Stereo camera and stereo camera system
JP2016158186A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Imaging apparatus, imaging method, and imaging program
US10204276B2 (en) 2015-02-26 2019-02-12 Casio Computer Co., Ltd. Imaging device, method and recording medium for capturing a three-dimensional field of view
JP2018206365A (en) * 2017-06-08 2018-12-27 株式会社リコー Image processing method, apparatus, and electronic device
US10674086B2 (en) 2017-06-08 2020-06-02 Ricoh Company, Ltd. Image processing method and device and non-transitory computer-readable medium
JP7358376B2 (en) 2018-10-02 2023-10-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
WO2020071414A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP7612798B2 (en) 2018-10-02 2025-01-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP2023175879A (en) * 2018-10-02 2023-12-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JPWO2020071414A1 (en) * 2018-10-02 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 3D data coding method, 3D data decoding method, 3D data coding device, and 3D data decoding device
KR20220053027A (en) * 2019-09-09 2022-04-28 그랜드퍼스펙티브 게엠베하 Systems and methods for monitoring airspace over a wide range of sites
JP2022537598A (en) * 2019-09-09 2022-08-26 グランドパースペクティブ ゲゼルシャフト ミット ベシュレンクテル ハフツング Systems and methods for monitoring airspace over a large area
KR102507828B1 (en) 2019-09-09 2023-03-07 그랜드퍼스펙티브 게엠베하 Systems and methods for monitoring airspace over a wide range of sites
JP7261358B2 (en) 2019-09-09 2023-04-19 グランドパースペクティブ ゲゼルシャフト ミット ベシュレンクテル ハフツング Systems and methods for monitoring airspace over a large area
US11674895B2 (en) 2019-09-09 2023-06-13 Grandperspective GmbH System and method for monitoring an air-space of an extended area
CN114424047A (en) * 2019-09-09 2022-04-29 格兰德远景有限公司 System and method for monitoring airspace of an enlarged plot
CN114424047B (en) * 2019-09-09 2023-10-17 格兰德远景有限公司 System and method for monitoring airspace of an enlarged plot
WO2021048122A1 (en) * 2019-09-09 2021-03-18 Grandperspective GmbH System and method for monitoring an air space for an extensive site
EP4254020A3 (en) * 2019-09-09 2023-12-27 GRANDPERSPECTIVE GmbH System and method for monitoring an air space for an extensive site
CN112386282A (en) * 2020-11-13 2021-02-23 声泰特(成都)科技有限公司 Ultrasonic automatic volume scanning imaging method and system

Similar Documents

Publication Publication Date Title
US11354891B2 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
JP3843119B2 (en) Moving body motion calculation method and apparatus, and navigation system
KR101295714B1 (en) Apparatus and Method for providing 3D Augmented Reality
US8768043B2 (en) Image display apparatus, image display method, and program
EP3427227B1 (en) Methods and computer program products for calibrating stereo imaging systems by using a planar mirror
CN102326396B (en) Image processing device and method
JP2011204118A (en) Three-dimensional image creation system and three-dimensional image creation method
CN102326397B (en) Device, method and program for image processing
JP3054681B2 (en) Image processing method
JPH11331874A (en) Image processing device, depth image measurement device, mixed reality presentation system, image processing method, depth image measurement method, mixed reality presentation method, and storage medium for program
US20100302234A1 (en) Method of establishing dof data of 3d image and system thereof
EP2372652B1 (en) Method for estimating a plane in a range image and range image camera
JPH05303629A (en) Shape synthesis method
JP4193342B2 (en) 3D data generator
JP2849313B2 (en) Image recording and playback device
JP4737763B2 (en) Free viewpoint image generation method, apparatus and program using multi-viewpoint images
JP2009282762A (en) Corresponding point retrieval device
JP6154759B2 (en) Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program
KR20220160865A (en) Depth estimation system and depth estimation method
Schönbein et al. Panoramic 3d reconstruction with three catadioptric cameras
JP4171282B2 (en) Terrain recognition device and terrain recognition method
US20190156456A1 (en) Method and Device for Determining a Transition Between Two Display Images, and Vehicle
CN118254777A (en) Vehicle radar warning method and system, storage medium, and electronic device
KR20120137122A (en) Method and apparatus for processing image
KR100795974B1 (en) A device that generates depth-map in real time by processing streaming stereo images