JP2009145061A - Position measuring device - Google Patents
Position measuring device Download PDFInfo
- Publication number
- JP2009145061A JP2009145061A JP2007319604A JP2007319604A JP2009145061A JP 2009145061 A JP2009145061 A JP 2009145061A JP 2007319604 A JP2007319604 A JP 2007319604A JP 2007319604 A JP2007319604 A JP 2007319604A JP 2009145061 A JP2009145061 A JP 2009145061A
- Authority
- JP
- Japan
- Prior art keywords
- image
- intersection
- plane
- view
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】物体が複数存在する多視点画像から、複数の物体について、各画像間で同一性を予め識別しなくても、各物体の位置を正しく決定できる。
【解決手段】3次元空間にある平面上の領域を異なる方向から撮影した背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用い、平面を真上から見た図形に相似な図形、カメラで撮影された各画像内の平面との間の平面射影変換、各画像の垂直消失点を決定し、物体を含む画像ごとに物体領域を抽出し、物体領域ごとに内部の点を決定し、その点と垂直消失点を通る直線を求め、求めた直線を上記相似な図形上に平面射影変換を用いて射影し、射影した直線同士の交点を求め、交点を図形上の位置に応じてグループ分けして交点グループごとに含まれる交点数を求め、交点数の多いグループから平面上の物体の正しい位置を求める。
【選択図】図1It is possible to correctly determine the position of each object from a multi-viewpoint image in which a plurality of objects exist without identifying the identity between the images in advance.
A figure similar to a figure obtained by directly looking at the plane from above using a multi-viewpoint image of a background image, a test image, and an image including a plurality of objects taken from different directions on a plane area in a three-dimensional space. , Plane projective transformation with each image plane taken by the camera, determine the vertical vanishing point of each image, extract the object area for each image including the object, and determine the internal points for each object area Then, a straight line passing through the point and the vertical vanishing point is obtained, and the obtained straight line is projected onto the above similar figure using plane projective transformation, the intersection of the projected straight lines is obtained, and the intersection is determined according to the position on the figure. By dividing into groups, the number of intersections included in each intersection group is obtained, and the correct position of the object on the plane is obtained from the group having a large number of intersections.
[Selection] Figure 1
Description
この発明は、物体を複数のカメラで撮影した多視点画像から物体の位置を決定する位置計測装置に関するものである。 The present invention relates to a position measurement apparatus that determines the position of an object from multi-viewpoint images obtained by photographing the object with a plurality of cameras.
物体を複数のカメラで撮影して得られる多視点画像から物体の位置を決定する技術としては、単一の物体に対してのあるカメラで撮影した画像と、それとは異なるカメラで撮影した画像について、それぞれの画像内の物体の領域を通過する垂直線をそれぞれ決定し、そのうちの一方の画像上の垂直線を、平面射影変換を利用してもう一方の画像上に変換し、その変換した直線と、その画像上の垂直線の交点を、上記物体の位置とする方法がある。(例えば非特許文献1参照)。
また、3つ以上のカメラで撮影した画像において、互いに同一と考えられる物体領域を通過する垂直線をそれぞれ決定し、ある1つのカメラで撮影した画像上の上記垂直線と、その画像上に、他のカメラで撮影した画像上の垂直線を平面射影変換で射影した直線とを求め、それら直線間の距離を算出してその直線間の距離が、半数以上で閾値を超える直線を棄却することで、正しい物体領域に由来する直線のみによる交点の位置を利用することで、正確な物体位置を決定する方法がある。(例えば非特許文献2参照)。
As a technique for determining the position of an object from multi-viewpoint images obtained by shooting an object with multiple cameras, an image shot with a camera for a single object and an image shot with a different camera are used. , Determine each vertical line passing through the area of the object in each image, convert the vertical line on one of the images to the other image using plane projective transformation, and convert the converted straight line There is a method in which the intersection of vertical lines on the image is set as the position of the object. (For example, refer nonpatent literature 1).
In addition, in the images taken by three or more cameras, the vertical lines passing through the object regions considered to be identical to each other are determined, and the vertical lines on the image photographed by one camera, and the image, Obtain a straight line obtained by projecting a vertical line on an image taken with another camera by plane projective transformation, calculate the distance between the straight lines, and reject the straight line whose distance between the straight lines exceeds half and exceeds the threshold. Thus, there is a method of determining an accurate object position by using the position of the intersection point only by a straight line derived from the correct object region. (For example, refer nonpatent literature 2).
従来の多視点画像による位置計測方法は以上のようになっているが、非特許文献1の場合、あるカメラで撮影した画像内の垂直線が通過する物体と、別のカメラで撮影した画像内の垂直線が通過する物体とが、同一であることが予め前提となっている。そのため、画像内に異なる物体が複数あってそれぞれに垂直線を引いた場合、それら複数の垂直線を他の画像に平面射影変換で射影してその画像上の複数の垂直線との交点を求めると、同一物体に由来する直線同士の交点と、異なる物体に由来する直線同士の交点とが生じてしまい、それぞれの物体の位置を正しく決定できない場合があった。この問題は異なるカメラで撮影された画像内の複数の物体に対し、同一の物体同士を識別することができれば解決するが、この識別はこれまで困難であった。
The conventional position measurement method using multi-viewpoint images is as described above. However, in the case of Non-Patent
この発明は、上記問題点を解決するためになされたもので、物体が複数存在する多視点画像から、複数の物体について、各画像間で同一性を予め識別しなくても、各物体の位置を正しく決定できる位置決定装置を得ることを目的とする。 The present invention has been made to solve the above-described problem. From a multi-viewpoint image in which a plurality of objects exist, the position of each object can be determined without previously identifying the identity of the plurality of objects between the images. An object of the present invention is to obtain a position determination device that can correctly determine the position.
この発明に係る位置決定装置は、3次元空間内の平面を囲むように設置された複数のカメラにより、平面上の所定領域を異なる方向から撮影して得られる背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用いて平面図上に複数物体の位置を算出する位置計測装置であって、平面上の図形を真上から見た図形に相似する相似平面図を作成する平面図作成部と、各テスト画像内の平面と相似平面図に基づいて、カメラで撮影した画像と相似平面図間の平面射影変換を決定する平面射影変換決定部と、各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する垂直消失点決定部と、各背景画像と前記各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する物体領域抽出部と、抽出された各物体領域の基準にする物体領域内点をそれぞれ決定する物体領域内点決定部と、画像ごとに各物体領域内点と垂直消失点を通過する直線を決定する物体通過垂直線決定部と、全ての画像の物体領域内点を通過する直線を、平面射影変換に基づいて相似平面図上に射影する平面図上直線決定部と、相似平面図上に射影された直線同士の交点を求める交点決定部と、複数の交点を相似平面図上の位置に基づいてグループ分けするグルーピング部と、グループ分けされた交点グループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて相似平面図上における各物体の正しい位置を算出する物体位置決定部を備えたものである。 The position determination device according to the present invention includes a background image, a test image, and a plurality of objects obtained by photographing a predetermined region on a plane from different directions by a plurality of cameras installed so as to surround the plane in the three-dimensional space. A position measurement device that calculates the positions of a plurality of objects on a plan view using multi-viewpoint images of each of the images to be included, and is a plan view for creating a similar plan view that resembles a figure on a plane viewed from directly above Based on the plane in each test image and the similar plan view, a plane projective transformation determination unit that determines the plane projective transformation between the image captured by the camera and the similar plan view, and the same angle based on each test image A vertical vanishing point determining unit that determines the vertical vanishing point of each image captured by the camera, an object region extracting unit that extracts each object region by taking a difference between each background image and the image including the plurality of objects, and extraction The An object area internal point determination unit that determines an object area internal point as a reference for each object area, and an object passing vertical line determination unit that determines a straight line passing through each object area internal point and a vertical vanishing point for each image; A straight line determining unit that projects straight lines passing through points in the object area of all images onto a similar plan view based on plane projective transformation, and obtains an intersection of the straight lines projected onto the similar plan view An intersection determination unit, a grouping unit for grouping a plurality of intersections based on positions on the similar plan view, and an intersection group effective as an object position based on the number of intersections included from among the grouped intersection groups And an object position determination unit that calculates a correct position of each object on the similar plan view based on the determined intersection point in the intersection group.
この発明によれば、ある3次元領域を複数のカメラによって、それぞれ別の方向から撮影した多視点画像において、3次元空間の平面上の物体が各画像に複数の物体が共通に撮影されている場合に、カメラ画像間で予め物体の同一性を識別していなくても、それら物体の位置を決定することができる。 According to the present invention, in a multi-viewpoint image in which a certain three-dimensional region is photographed by a plurality of cameras from different directions, an object on a plane in a three-dimensional space is photographed in common for each image. In this case, the positions of the objects can be determined even if the identity of the objects is not previously identified between the camera images.
実施の形態1.
図1は、この発明の実施の形態1による位置計測装置の機能構成を示すブロック図である。
図1において、この実施の形態1の位置計測装置は、複数のカメラ11 〜1N (N≧3)、画像データ一時保存部2、床面平面図作成部(相似平面図作成部)3、背景画像保存部4、テスト画像保存部5、垂直消失点決定部6、床面対応平面射影変換決定部(画像・図形間平面射影変換決定部)7、物体領域抽出部8、物体領域内点決定部9、物体通過垂直線決定部10、床面平面図上直線決定部(平面図上直線決定部)11、交点決定部12、グルーピング部13および物体位置決定部14を備えている。
複数のカメラ11 〜1N (N≧3)は、3次元空間内の平面を囲むように設置され、それぞれ同期しており、平面上の所定領域をそれぞれ異なる方向から撮影して多視点画像を取得する。この発明では、各カメラは、設置した後、移動させない同じ視点で、背景画像、テスト画像、それ以降に平面上に存在する複数の物体を含む画像をそれぞれ撮影するものとする。8台のカメラを使用した例として、背景画像の撮影方法を図2に、テスト画像の撮影方法を図3に、物体を含む画像の撮影方法を図4に示して説明する。図2〜図4において、水平な平面で構成される床面を考え、その周囲を取り囲むようにほぼ同じ大きさの三脚に取り付けた8台のカメラ11 〜18 を床面上に設置しており、いずれの撮影においても、カメラ11 〜18 はその位置や向きを変化させない。また、カメラの設置において、どのカメラからも「全カメラの視野に入る床面領域」を撮影できるようにしておく。
FIG. 1 is a block diagram showing a functional configuration of a position measuring apparatus according to
1, the position measuring apparatus according to the first embodiment includes a plurality of
The plurality of
図2の背景画像の撮影例では、何も置かれていない床面を撮影対象の背景としている。他の例として、床面上に図4で示す撮影対象の物体以外の物を置いた状態を撮影対象の背景としてもよいが、その物の位置や向きなどが図4に示す物体を含む画像の撮影の際に変化していないことが条件となる。図3のテスト画像の撮影例では、床面上にマーキングされた正方形とその正方形の床面に垂直に設置された2本の棒を撮影対象としている。これらの正方形と2本の棒は、全てのカメラ11 〜18 で撮影可能であるものとする。図4の物体を含む画像の撮影例では、床面上に置かれたぬいぐるみと花瓶を撮影対象の物体としている。
カメラ11 〜18 により図2〜図4の撮影で取得された各画像はいったん画像データ一時保存部2に保存された後、位置決定装置の処理に際し、各背景画像は背景画像保存部4に移されて保存され、各テスト画像は、テスト画像保存部5に移されて保存される。また、各物体を含む画像は、物体領域抽出部8に与えられる。
なお、以下図5〜図8においては、4台のカメラ11,13,15,17 を例にした画像について説明することにする。
In the background image capturing example of FIG. 2, the floor surface on which nothing is placed is used as the background of the capturing target. As another example, a state in which an object other than the object to be imaged shown in FIG. 4 is placed on the floor may be used as the background of the object to be imaged, but the position and orientation of the object includes the object shown in FIG. It is a condition that there is no change at the time of shooting. In the test image shooting example of FIG. 3, a square marked on the floor surface and two bars installed perpendicularly to the floor surface of the square are taken as a shooting target. It is assumed that these squares and two bars can be photographed by all the cameras 11 to 18 . In the example of photographing an image including the object in FIG. 4, a stuffed animal and a vase placed on the floor are taken as objects to be photographed.
After the images obtained by photographing the Figures 2-4 which is temporarily stored in the image data
In the following, in FIGS. 5 to 8, images taking four
垂直消失点決定部6では、テスト画像保存部5で保存された各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する。図3に示すカメラ11,13,15,17 で撮影されたテスト画像から垂直消失点を算出する例を図5に示す。各テスト画像において、床面にマーキングされた正方形と床面に垂直に設置された2本の棒が撮影されている。なお、図中の破線は垂直消失点の求め方を示す補助線である。テスト画像ごとに画像内の床面に垂直な2本の棒を含む直線を延長し、その交点を垂直消失点として決定する。なお、この発明では、3次元空間における垂直な方向の直線の無限遠点を画像に投影した点である消失点を垂直消失点と呼ぶものとする。無限遠点や消失点についての詳細は、例えば文献「佐藤淳“コンピュータビジョン 視覚の幾何学”,コロナ社,1999」に開示されている。また、この例では2本の垂直線を利用して垂直消失点決定しているが、それ以外の方法で決定してもよいものとする。また、垂直消失点を利用して水平な床面に対する垂直な直線の方向を決定するが、それ以外の方法で垂直方向を決定してもよく、カメラの設置位置によっては画像の縦軸方向を垂直方向と近似してもよい。
The vertical vanishing
物体領域抽出部8では、背景画像保存部4で保存された各背景画像と画像データ一時保存部2で保存された各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する。図4に示す撮影カメラ11,13,15,17で撮影された物体を含む画像を図6に示す。なお、この図6では、各画像においてぬいぐるみと花瓶が表されている。なお、実際にはこれらの背後に背景となる床や壁、それ以外の物体なども写っている筈であるが、ここでは説明を容易にするために省略して示している。図6のような2個の物体が撮影されている画像と背景画像保存部4で保存されている背景画像との間で、画素値ごとの差分を取って、その差分値が一定の閾値以上である画素を含む領域を物体領域として抽出する。この物体領域抽出部8で抽出された物体領域を表す画像の例を図7に示す。この例では背景差分法により、物体領域を抽出しているので、図2で背景画像の撮影時点では存在しなかったぬいぐるみと花瓶の領域が表されている。画素値の変化があった部分を物体領域として抽出しているため、図7の時点では各画像内の2つの領域のうち、どちらがぬいぐるみで、どちらが花瓶かは判別できない状態にある。なお、この例では、背景差分法によって物体領域を抽出しているが、物体の動きや色などで抽出してもよく、カメラで撮影した画像内において、位置を決定したい物体の領域が抽出できればよく、例えば、その一部が遮蔽物やその他の要因によって、欠けていてもよい。
The object
物体領域内点決定部9では、物体領域抽出部8で抽出された各物体領域の基準となる物体領域内点を決定する。図7に示す物体領域抽出部8で抽出された物体領域の画像において、例えばその物体領域の面積の重心位置を算出し、その位置を、各物体領域の基準となる物体領域内点として決定する。
次に、物体通過垂直線決定部10では、画像ごとに物体領域内点決定部9で決定された各物体領域内点と前記垂直消失点を通過する直線を決定する。すなわち、図5で示すカメラごとの垂直消失点と物体領域内点を結んで、図8に示すような、各画像内の物体領域内点を通過する垂直線を作成する。これは、3次元空間において平面に垂直な直線を画像に投影したものである。
The object area inner
Next, the object passing vertical
次に、床面平面図上直線決定部11の処理説明に先立ち、床面平面図作成部3と床面対応平面射影変換決定部7による処理について説明する。
床面平面図作成部3では、テスト画像の撮影における床面(平面)を真上から見た図形に相似する相似平面図を作成する。この床面平面図作成部3で作成された相似平面図を図9に示す。図9には、図3で示されている床面にマーキングされたものとサイズの違う正方形が書き込まれている。なお、ここで言う相似平面図は、画像上で描かれた図形であるが、ここでは単に「相似平面図」として扱うことにする。
床面対応平面射影変換決定部7では、テスト画像保存部5に保存されている各テスト画像内の平面と床面平面図作成部3で作成された相似平面図に基づいて、カメラで撮影した画像と相似平面図間の平面射影変換(画像・図形間平面射影変換)を決定する。各カメラで撮影したテスト画像(図5)内の床面にマーキングされた正方形の4つの頂点の座標と、図9に示した相似平面図(正方形)の4つの頂点の座標とから、各カメラで撮影した画像の床面から相似平面図への平面射影変換を決定する。この平面射影変換の算出方法については、例えば、出口光一郎“ロボットビジョンの基礎”,コロナ社,2000に開示されている。なお、ここでは床面上にマーキングされている正方形の4つの頂点と、それに対応する平面図の4つの頂点を使用したが、正方形でなくてもよい。また4つ以上の点で、カメラ画像内のある1つの平面上の点と、それに対応する平面図上の点であればよい。
Next, prior to the description of the processing of the straight
The floor plan
In the floor surface corresponding plane projection
次に、床面平面図上直線決定部11では、全ての画像における物体通過垂直線決定部10で決定された物体領域内点を通過する直線を、床面対応平面射影変換決定部7で決定された画像・図形間平面射影変換に基づいて、相似平面図上に射影する。図8に示すような各カメラ画像上の物体領域を通過する垂直線を全て相似平面図上に射影した状態を図10に示す。図10において、L1〜L16は、床面平面図上直線決定部11で決定された平面図上の直線を示す。8台のカメラ11 〜18 で取得した画像のそれぞれにおいて、物体が2つずつ抽出され、それら物体を通過する直線の本数も1画像2本ずつとなるため、カメラ8台分の画像から直線を変換すると合計16本の直線となる。
交点決定部12では、床面平面図上直線決定部11で相似平面図上に射影された直線同士の交点を決定する。すなわち図10の場合、直線L1〜L16同士が作る交点を全て求める。次に、グルーピング部13では、交点決定部12で求めた相似平面図上の複数の交点を相似平面図上の位置に基づいてグループ分けする。この場合、交点間の距離が一定の閾値以内である交点同士を同じグループとしてまとめる。こうすることで、グルーピングを簡便に行うことができる。図10の相似平面図上おいては、○で囲んだ6つ交点グループA,B,C,D,E,Fに分けられたことを表している。
Next, the straight
The
次に、物体位置決定部14では、グルーピング部13でグループ分けされた交点グループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて相似平面図上における各物体の正しい位置を算出する。図10に示す交点グループの中から、例えばグループ内に含まれる交点数が多い上位M個(Mは予め定めた数であり、この例ではM=2とする)の交点グループを物体の位置として有効な交点グループと決定する。そして、当該各上位グループに含まれる交点の座標の平均値をそれぞれ取り、各平均値を対応するグループの物体の正しい位置として算出する。なお、この場合、有効な交点グループ内の全ての交点ではなく、それらの一部を使用してもよい。交点グループのうち、交点数が多いものの中から、何番目までを物体位置として有効な交点グループとするかは、人が予め物体数を指定しておけばよい。そうすれば、物体数が複数であって事前に各画像ごとに抽出される物体を識別できなくても物体位置の決定を行うことができる。一方、物体位置として有効な交点グループは、物体領域抽出部8で抽出された物体領域数を用いてもよく、そうすることで、上記のように予め物体数を決定しなくても、実態に即したより高い精度で物体の位置を算出することができる。
また、この抽出された物体領域数がカメラごとに違った場合は、平均の数を整数化した数値を用いてもよいし、各カメラで抽出した物体数の中から、最も頻度が多く抽出された物体数を用いてもよい。また、グループに含まれる交点数が多い順にグループを並べ、あるグループを境に交点数が大きく減っている場合、そのグループまでを物体位置としてもよい。またその交点数は撮影カメラ数によって変化させてもよい。またグループ内の交点数のより細かい部分領域における密度や分散を用いて判定してもよい。また、各カメラで撮影した画像ごとに抽出された物体の数を求め、それらの物体数のうち、最も多かった物体数を予め定めた物体数Mとして、グループ内に含む交点数が多い上位M個のグループを物体の位置としてもよい。
Next, the object
If the number of extracted object regions differs for each camera, a numerical value obtained by converting the average number into an integer may be used, or the frequency extracted most frequently from the number of objects extracted by each camera. You may use the number of objects. In addition, when groups are arranged in descending order of the number of intersections included in the group and the number of intersections is greatly reduced with a certain group as a boundary, the position up to that group may be set as the object position. The number of intersections may be changed depending on the number of photographing cameras. Alternatively, the determination may be made by using the density or dispersion in a partial area with a smaller number of intersections in the group. Further, the number of objects extracted for each image photographed by each camera is obtained, and among the number of objects, the highest number of objects is set as a predetermined number of objects M. It is good also considering the group of an object as the position of an object.
また、物体位置決定を図11のフローチャートに示す方法を用いて行なうようにしてもよい。この場合、図1に破線で示す再グルーピング部131を設けることになる。
図10のグループを例に説明すると、物体位置決定部14は、最初にグルーピング部13でまとめた6つのグループA,B,C,D,E,Fの中から、最も交点数が多いグループを、物体の位置として有効な第1の交点グループとして決定する。もし、最も交点数が多いグループが複数ある場合は、その中の任意のグループを第1の交点グループとしてもよいし、交点座標の分散が最も小さいグループを第1の交点グループとしてもよい。今、グループEを第1の交点グループと決定したとする。次に、再グルーピング部131において、第1の交点グループEの交点を作った直線を取り除いて、残りの直線の交点をグループ分けして物体位置決定部14に再入力する。この例では直線L9〜L16が取り除かれる。すると、残る直線L1〜L8で作られる交点のグループはBのみとなる。したがって、物体位置決定部14では、グループBを次の物体の位置として有効な第2の交点グループとして、その交点から物体の正しい位置を算出する。
Further, the object position may be determined using the method shown in the flowchart of FIG. In this case, a
Referring to the group of FIG. 10 as an example, the object
ここで、上記例では第1の交点グループの交点に関連した直線L9〜L16を取り除いた後に残ったグループはBだけであったが、2つ以上のグループが残る場合も考えられる。この場合、残ったグループの中で最も交点数が多いグループを次の物体の位置として有効な第2の交点グループとする。次に、再グルーピング部131で第2の交点グループの交点に関連した直線を取り除いた上で、さらに残っている直線の交点のグループを再編し、その中から3番目の物体の位置として有効な第3の交点グループを決定する。以後、残っているグループがある場合には、物体位置決定部14と再グルーピング部131の間でこの処理を繰り返す。やがて、予め決めた物体数の交点グループから物体の位置を算出した場合、またはグループに含まれる交点数やその座標の分散値があるしきい値より小さくなった場合には、これ以上の物体は存在しないか、または位置を決定することが不可能として、物体位置の決定を終了する。なお、図11では物体の位置を予め定めた数だけ見つけるようにしているが、それ以外の方法で物体の位置の数を決定してもよい。
図11で説明した方法によれば、特に物体数が増えた場合でも、より高い精度で物体の位置を決定することができる。
Here, in the above example, only B remains after removing the straight lines L9 to L16 related to the intersections of the first intersection group, but there may be cases where two or more groups remain. In this case, the group having the largest number of intersections among the remaining groups is set as the second intersection group effective as the position of the next object. Next, after the straight line related to the intersection of the second intersection group is removed by the regrouping
According to the method described with reference to FIG. 11, the position of an object can be determined with higher accuracy even when the number of objects increases.
以上のように実施の形態1によれば、複数台のカメラを使って、3次元空間にある平面上の領域をそれぞれ異なる方向から撮影した背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用い、上記平面を真上から見た図形に相似な図形と、カメラで撮影された各画像内の平面との間の平面射影変換と、各画像の垂直消失点を決定しておき、複数物体を含む画像ごとに物体領域を抽出し、その物体領域ごとに内部の点を決定し、それらの点と垂直消失点を通る直線を物体ごとに求め、求めた直線を、上記平面を真上から見た図形に相似な図形上に平面射影変換を用いて射影し、それら射影した直線同士の交点を求め、交点を図形上の位置に応じてグループ分けし、グループ分けした交点のグループごとに含まれる交点数を求め、交点数の多いグループからいくつかを選んで平面上の物体の正しい位置とするようにしている。したがって、平面図上で直線の交点を決定してそれら交点のグループ分けを行い、物体の位置を決定するので、物体数が複数であって事前に各画像ごとに抽出された物体を識別できなくても物体の位置の決定を行うことができる。 As described above, according to the first embodiment, a plurality of background images, test images, and images including a plurality of objects, each of which is obtained by photographing a region on a plane in a three-dimensional space from different directions using a plurality of cameras. Using a viewpoint image, determine the plane projective transformation between the figure similar to the figure seen from directly above the plane and the plane in each image taken by the camera, and determine the vertical vanishing point of each image. The object region is extracted for each image including a plurality of objects, internal points are determined for each object region, a straight line passing through these points and the vertical vanishing point is determined for each object, and the obtained straight line Projecting onto a figure similar to the figure seen from directly above using plane projective transformation, obtaining the intersection of the projected straight lines, grouping the intersection according to the position on the figure, and grouping the grouped intersection Find the number of intersections included in each , So that the correct position of the object on the plane to choose several from the group with many number of intersections. Therefore, the intersections of the straight lines are determined on the plan view, the intersection points are grouped, and the positions of the objects are determined. Therefore, it is not possible to identify the objects extracted in advance for each image with multiple objects. Even the position of the object can be determined.
実施の形態2.
図12は、この発明の実施の形態2による位置計測装置の機能構成を示すブロック図である。この図において、図1に相当する部分には同一符号を付し、原則としてその説明は省略する。
この実施の形態2では、床面対応平面射影変換決定部7のほかに画像間平面射影変換決定部17を備えており、この画像間平面射影変換決定部17では、各テスト画像内の平面上の図形に基づいてカメラで撮影した各画像間の平面射影変換(画像間平面射影変換)を決定する。すなわち、テスト画像(図5)内の床面にマーキングされた正方形の4つの頂点の座標で表される各カメラ画像の床面(平面領域)間で射影を行なうための平面射影変換を決定する。実施の形態1で述べたように物体通過垂直線決定部10において画像ごとの物体領域内点を通過する直線が生成されるが、撮影画像上変換直線決定部21では、これらの画像ごとに決定された物体領域内点を通過する直線を、画像間平面射影変換決定部17で決定された画像間平面射影変換を用いて、各カメラで撮影された画像上にそれぞれ射影してまとめる。例えばカメラ11 で撮影された画像上に射影された直線の例を図13に示す。この図にはカメラ11 自身の画像に関する直線と射影された他のカメラ12 〜18 の画像の直線が表されている。このように、カメラ12 〜18 のそれぞれの画像上にも他のカメラの画像の変換された直線がまとめられたものを作成する。
FIG. 12 is a block diagram showing a functional configuration of a position measuring apparatus according to
In the second embodiment, an inter-image plane projection
次に、画像内交点決定部22では、実施の形態1の交点決定部12と同様にして、各画像上にまとめられた直線同士の交点をそれぞれの画像上で求める。1次グルーピング部23では、画像内交点決定部22で求めた各画像上の複数の交点について、実施の形態1のグルーピング部13と同様にして、画像内の交点間の距離が一定の閾値以内である交点同士を同じグループとしてまとめる。1次物体位置決定部24では、実施の形態1の物体位置決定部14と同様にして、各画像上において、グループ分けされた交点のグループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて各画像上における物体の位置を算出する。図13で説明すると、例えばカメラ11 (カメラ12 〜18 のそれぞれでも同様)の画像上において1次グルーピング部23でグループ分けされた交点のグループを○で囲んで示す。1次物体位置決定部24は、これらグループの中から、各グループに含まれる交点数の多い上位M個(M=2)のグループを物体の位置を表す交点グループとし、そのグループに含まれる交点座標の平均を物体位置の座標として決定する。この場合、全ての交点の座標の平均を求める代わりに、そのグループの一部の交点の座標を利用してもよい。
Next, the intra-image
次に、床面平面図位置決定部(平面図位置決定部)25では、1次物体位置決定部24で決定された各画像上における物体の位置を、床面対応平面射影変換決定部7で決定された床面対応の画像・図形間平面射影変換を用いて相似平面図上に射影して当該相似平面図上における物体の位置候補としてまとめる。2次グルーピング部33では、床面平面図位置決定部25で相似平面図上にまとめられた各物体の位置候補をグループ分けする。この状態を図14に示す。
Next, in the floor plan view position determination unit (plan view position determination unit) 25, the position of the object on each image determined by the primary object
次に、2次物体位置決定部34では、2次グルーピング部33でグループ分けされた物体の位置候補のグループの中から、含まれる位置候補の数に基づいて正しい物体の位置として有効なグループを決定し、決定したグループ内の物体の位置候補に基づいて相似平面図上における各物体の正しい位置を算出する。この場合、図14に示された物体の位置候補のグループの中から、例えばグループ内に含まれる物体位置候補数が多い上位m個(mは予め定めた数であり、この例ではm=2とする)のグループを正しい物体の位置として有効なグループと決定する。そして当該各上位グループに含まれる物体位置候補の座標の平均値をそれぞれ取り、各平均値を対応するグループの物体の正しい位置として算出する。なお、この場合、有効なグループ内の全ての物体位置候補ではなく、それらの一部を使用してもよい。
Next, the secondary object
以上のように、この実施の形態2によれば、グルーピングや物体の位置決定の一部を画像上で行なうようにしたので、より簡単な手順でグルーピングや物体の位置の決定を行うことができ、またグルーピングを2度行うことで高い精度で物体の位置を決定することができる。
なお、この例では床面平面図位置決定部25と2次グルーピング部33、2次物体位置決定部34で、図14に示すように、平面図上の物体の正しい位置を決定したが、代わって図13に示すような、ある画像上においてこれらの動作を行って物体の位置を決定してもよい。
As described above, according to the second embodiment, since grouping and part of object position determination are performed on the image, grouping and object position determination can be performed with a simpler procedure. In addition, by performing the grouping twice, the position of the object can be determined with high accuracy.
In this example, the floor plan view
11〜1N カメラ、2 画像データ一時保存部、3 床面平面図作成部、4 背景画像保存部、5 テスト画像保存部、6 垂直消失点決定部、7 床面対応平面射影変換決定部、8 物体領域抽出部、9 物体領域内点決定部、10物体通過垂直線決定部、11 面平面図上直線決定部、12 交点決定部、13 グルーピング部、131 再グルーピング部、14 物体位置決定部、17 画像間平面射影変換決定部、21 撮影画像上変換直線決定部、22 1次交点決定部、23 1次グルーピング部、24 1次物体位置決定部、25 床面平面図決定部、33 2次グルーピング部、34 2次物体位置決定部。 1 1 to 1 N camera, 2 image data temporary storage unit, 3 floor plan creation unit, 4 background image storage unit, 5 test image storage unit, 6 vertical vanishing point determination unit, 7 floor plane corresponding plane projection conversion determination unit , 8 Object region extraction unit, 9 Object region internal point determination unit, 10 Object passing vertical line determination unit, 11 Plane line straight line determination unit, 12 Intersection point determination unit, 13 Grouping unit, 131 Re-grouping unit, 14 Object position determination , 17 Inter-image plane projection conversion determination unit, 21 On-photographed image conversion line determination unit, 22 Primary intersection determination unit, 23 Primary grouping unit, 24 Primary object position determination unit, 25 Floor plan view determination unit, 33 Secondary grouping unit, 34 Secondary object position determination unit.
Claims (7)
前記平面上の図形を真上から見た図形に相似する相似平面図を作成する相似平面図作成部と、
前記各テスト画像内の平面と前記相似平面図に基づいて、カメラで撮影した画像と前記相似平面図間の画像・図形間平面射影変換を決定する画像・図形間平面射影変換決定部と、
前記各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する垂直消失点決定部と、
前記各背景画像と前記各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する物体領域抽出部と、
前記抽出された各物体領域の基準にする物体領域内点をそれぞれ決定する物体領域内点決定部と、
画像ごとに前記各物体領域内点と前記垂直消失点を通過する直線を決定する物体通過垂直線決定部と、
全ての画像の前記物体領域内点を通過する直線を、前記平面射影変換に基づいて前記相似平面図上に射影する平面図上直線決定部と、
前記相似平面図上に射影された直線同士の交点を求める交点決定部と、
前記複数の交点を前記相似平面図上の位置に基づいてグループ分けするグルーピング部と、
前記グループ分けされた交点グループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて前記相似平面図上における各物体の正しい位置を算出する物体位置決定部を備えたことを特徴とする位置計測装置。 Using a multi-viewpoint image, each of a background image, a test image, and an image including a plurality of objects, obtained by photographing a predetermined area on the plane from different directions by a plurality of cameras installed so as to surround a plane in a three-dimensional space A position measuring device for calculating the positions of a plurality of objects on a plan view,
A similar plan view creating unit for creating a similar plan view similar to the figure seen from directly above the figure on the plane;
Based on the plane in each test image and the similar plan view, an image / graphic plane projection conversion determining unit for determining an image / figure plane projection conversion between the image taken by the camera and the similar plan view;
A vertical vanishing point determining unit that determines a vertical vanishing point of an image captured by a camera at the same angle based on each test image;
An object region extraction unit that extracts the object region by taking the difference between the background image and the image including the plurality of objects,
An object area inner point determination unit for determining an object area inner point as a reference for each of the extracted object areas;
An object passing vertical line determining unit that determines a straight line passing through each object area internal point and the vertical vanishing point for each image;
A straight line determination unit on a plan view that projects straight lines passing through the points in the object area of all images onto the similar plan view based on the plane projective transformation;
An intersection determination unit for obtaining an intersection of straight lines projected on the similar plan view;
A grouping unit that groups the plurality of intersections based on positions on the similar plan view;
From the grouped intersection groups, an effective intersection group is determined as the position of the object based on the number of intersection points included, and the correctness of each object on the similarity plan is determined based on the intersection in the determined intersection group. A position measurement apparatus comprising an object position determination unit for calculating a position.
前記物体位置決定部は、最初はグルーピング部から、以降は前記再グルーピング部から入力されるグループ分けされた交点のグループの中から交点数が最も多いグループを物体の位置として有効な交点グループと決定して、当該有効な交点グループに含まれる交点数に基づいて対応する物体の正しい位置を算出することを特徴とする請求項1記載の位置決定装置。 A regrouping unit for grouping the intersections of the remaining straight lines, except for the straight line related to the intersection of the intersection group, in which the object position determination unit sequentially calculates the correct position of the object in units of 1;
The object position determination unit determines a group having the largest number of intersection points as an effective intersection group from among the grouped intersection groups input from the grouping unit at first and then from the re-grouping unit. The position determination device according to claim 1, wherein the correct position of the corresponding object is calculated based on the number of intersections included in the effective intersection group.
前記平面上の図形を真上から見た図形に相似する相似平面図を作成する平面図作成部と、
前記各テスト画像内の平面と前記相似平面図に基づいて、カメラで撮影した画像と前記相似平面図間の画像・図形間平面射影変換を決定する画像・図形間平面射影変換決定部と、
前記各テスト画像内の平面上の図形に基づいてカメラで撮影した各画像間の画像間平面射影変換を決定する画像間平面射影変換決定部と、
前記各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する垂直消失点決定部と、
前記各背景画像と前記各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する物体領域抽出部と、
前記抽出された各物体領域の基準にする物体領域内点をそれぞれ決定する物体領域内点決定部と、
画像ごとに前記各物体領域内点と前記垂直消失点を通過する直線を決定する物体通過垂直線決定部と、
画像ごとの物体領域内点を通過する直線を、前記画像間平面射影変換に基づいて各画像上にそれぞれ射影する撮影画像上変換直線決定部と、
前記各画像上に変換された直線同士の交点を、それぞれの画像上で求める画像内交点決定部と、
前記各画像上で求めた交点を画像上の位置に基づいてグループ分けする1次グルーピング部と、
前記グループ分けされた交点のグループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて各画像上における物体の位置を算出する1次物体位置決定部と、
前記各画像上の物体の位置を、前記画像・図形間平面射影変換を用いて前記相似平面図上に射影して物体の位置候補とする平面図位置決定部と、
前記相似平面図上にまとめられた各物体の位置候補を当該相似平面図上の位置に基づいてグループ分けする2次グルーピング部と、
前記グループ分けされた物体の位置候補のグループの中から、含まれる位置候補の数に基づいて正しい物体の位置として有効なグループを決定し、決定したグループ内の物体の位置候補に基づいて前記相似平面図上における各物体の正しい位置を算出する2次物体位置決定部を備えたことを特徴とする位置計測装置。 Using a multi-viewpoint image, each of a background image, a test image, and an image including a plurality of objects, obtained by photographing a predetermined area on the plane from different directions by a plurality of cameras installed so as to surround a plane in a three-dimensional space A position measuring device for calculating the positions of a plurality of objects on a plan view,
A plan view creation unit for creating a similar plan view similar to the figure seen from directly above the figure on the plane;
Based on the plane in each test image and the similar plan view, an image / graphic plane projection conversion determining unit for determining an image / figure plane projection conversion between the image taken by the camera and the similar plan view;
An inter-image plane projective transformation determining unit that determines an inter-image plane projective transformation between each image captured by a camera based on a figure on a plane in each test image;
A vertical vanishing point determining unit that determines a vertical vanishing point of an image captured by a camera at the same angle based on each test image;
An object region extraction unit that extracts the object region by taking the difference between the background image and the image including the plurality of objects,
An object area inner point determination unit for determining an object area inner point as a reference for each of the extracted object areas;
An object passing vertical line determining unit that determines a straight line passing through each object area internal point and the vertical vanishing point for each image;
A straight line passing through a point in the object area for each image, and a projected image conversion straight line determination unit that projects each line on each image based on the inter-plane planar projection conversion;
An in-image intersection determination unit for obtaining an intersection between the straight lines converted on each image on each image;
A primary grouping unit for grouping intersections obtained on each image based on positions on the image;
An effective intersection group is determined as the position of the object based on the number of intersection points included from the group of intersection points, and the position of the object on each image is calculated based on the intersection point in the determined intersection group. A primary object position determination unit that
A plan view position determining unit that projects the position of the object on each image onto the similar plan view using the image-figure plane projective transformation,
A secondary grouping unit that groups the position candidates of the objects collected on the similar plan view based on the positions on the similar plan view;
An effective group is determined as a correct object position based on the number of position candidates included from among the grouped object position candidate groups, and the similarity is determined based on the object position candidates in the determined group. A position measurement apparatus comprising a secondary object position determination unit that calculates a correct position of each object on a plan view.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007319604A JP2009145061A (en) | 2007-12-11 | 2007-12-11 | Position measuring device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007319604A JP2009145061A (en) | 2007-12-11 | 2007-12-11 | Position measuring device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009145061A true JP2009145061A (en) | 2009-07-02 |
Family
ID=40915836
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007319604A Pending JP2009145061A (en) | 2007-12-11 | 2007-12-11 | Position measuring device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009145061A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20130194428A1 (en) * | 2012-01-27 | 2013-08-01 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
| JP2016038320A (en) * | 2014-08-08 | 2016-03-22 | 株式会社日本自動車部品総合研究所 | Position estimation device |
| KR101796889B1 (en) | 2017-01-02 | 2017-11-13 | 인하대학교 산학협력단 | Method and system for detecting disaster area |
| US10733774B2 (en) | 2014-12-05 | 2020-08-04 | Hanwha Techwin Co., Ltd. | Device and method of displaying heat map on perspective drawing |
| CN114339179A (en) * | 2021-12-23 | 2022-04-12 | 深圳市火乐科技发展有限公司 | Projection correction method, projection correction device, storage medium and projection equipment |
-
2007
- 2007-12-11 JP JP2007319604A patent/JP2009145061A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20130194428A1 (en) * | 2012-01-27 | 2013-08-01 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
| US9986208B2 (en) * | 2012-01-27 | 2018-05-29 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
| JP2016038320A (en) * | 2014-08-08 | 2016-03-22 | 株式会社日本自動車部品総合研究所 | Position estimation device |
| US10733774B2 (en) | 2014-12-05 | 2020-08-04 | Hanwha Techwin Co., Ltd. | Device and method of displaying heat map on perspective drawing |
| KR101796889B1 (en) | 2017-01-02 | 2017-11-13 | 인하대학교 산학협력단 | Method and system for detecting disaster area |
| CN114339179A (en) * | 2021-12-23 | 2022-04-12 | 深圳市火乐科技发展有限公司 | Projection correction method, projection correction device, storage medium and projection equipment |
| CN114339179B (en) * | 2021-12-23 | 2024-05-28 | 深圳市火乐科技发展有限公司 | Projection correction method, apparatus, storage medium and projection device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN103052968B (en) | Article detection device and object detecting method | |
| CN111815707B (en) | Point cloud determining method, point cloud screening method, point cloud determining device, point cloud screening device and computer equipment | |
| KR101121034B1 (en) | System and method for obtaining camera parameters from multiple images and computer program products thereof | |
| KR101759798B1 (en) | Method, device and system for generating an indoor two dimensional plan view image | |
| Rashidi et al. | Generating absolute-scale point cloud data of built infrastructure scenes using a monocular camera setting | |
| TWI491849B (en) | Video object localization method using multiple cameras | |
| JP6503906B2 (en) | Image processing apparatus, image processing method and image processing program | |
| JP4906683B2 (en) | Camera parameter estimation apparatus and camera parameter estimation program | |
| CN109035327B (en) | Panoramic camera pose estimation method based on deep learning | |
| JP2011198330A (en) | Method and program for collation in three-dimensional registration | |
| JP5439277B2 (en) | Position / orientation measuring apparatus and position / orientation measuring program | |
| CN108537214A (en) | An automatic construction method of indoor semantic map | |
| JP2009145061A (en) | Position measuring device | |
| CN111489384A (en) | Occlusion assessment method, device, equipment, system and medium based on mutual view | |
| CN109255809A (en) | A kind of light field image depth estimation method and device | |
| US8164633B2 (en) | Calibration apparatus and method for imaging devices and computer program | |
| JP2018195070A (en) | Information processing apparatus, information processing method, and program | |
| CN111091594B (en) | Multi-point cloud plane fusion method and device | |
| JP4886661B2 (en) | Camera parameter estimation apparatus and camera parameter estimation program | |
| KR101673144B1 (en) | Stereoscopic image registration method based on a partial linear method | |
| JP4283816B2 (en) | Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method | |
| JP4675368B2 (en) | Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program | |
| JP2006350465A (en) | Image matching device, image matching method, and program for image matching | |
| KR101980899B1 (en) | Apparatus for detecting of inside wall frame in single image using orthogonal vanishing points and method thereof | |
| CN118154728A (en) | Real-time generation method of bird's-eye view of sports events with dynamic perspective |