[go: up one dir, main page]

JP2009145061A - Position measuring device - Google Patents

Position measuring device Download PDF

Info

Publication number
JP2009145061A
JP2009145061A JP2007319604A JP2007319604A JP2009145061A JP 2009145061 A JP2009145061 A JP 2009145061A JP 2007319604 A JP2007319604 A JP 2007319604A JP 2007319604 A JP2007319604 A JP 2007319604A JP 2009145061 A JP2009145061 A JP 2009145061A
Authority
JP
Japan
Prior art keywords
image
intersection
plane
view
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007319604A
Other languages
Japanese (ja)
Inventor
Minoru Wada
稔 和田
Hiroshi Ito
浩 伊藤
Kazuo Sugimoto
和夫 杉本
Shuichi Yamagishi
秀一 山岸
Etsuhisa Yamada
悦久 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007319604A priority Critical patent/JP2009145061A/en
Publication of JP2009145061A publication Critical patent/JP2009145061A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体が複数存在する多視点画像から、複数の物体について、各画像間で同一性を予め識別しなくても、各物体の位置を正しく決定できる。
【解決手段】3次元空間にある平面上の領域を異なる方向から撮影した背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用い、平面を真上から見た図形に相似な図形、カメラで撮影された各画像内の平面との間の平面射影変換、各画像の垂直消失点を決定し、物体を含む画像ごとに物体領域を抽出し、物体領域ごとに内部の点を決定し、その点と垂直消失点を通る直線を求め、求めた直線を上記相似な図形上に平面射影変換を用いて射影し、射影した直線同士の交点を求め、交点を図形上の位置に応じてグループ分けして交点グループごとに含まれる交点数を求め、交点数の多いグループから平面上の物体の正しい位置を求める。
【選択図】図1
It is possible to correctly determine the position of each object from a multi-viewpoint image in which a plurality of objects exist without identifying the identity between the images in advance.
A figure similar to a figure obtained by directly looking at the plane from above using a multi-viewpoint image of a background image, a test image, and an image including a plurality of objects taken from different directions on a plane area in a three-dimensional space. , Plane projective transformation with each image plane taken by the camera, determine the vertical vanishing point of each image, extract the object area for each image including the object, and determine the internal points for each object area Then, a straight line passing through the point and the vertical vanishing point is obtained, and the obtained straight line is projected onto the above similar figure using plane projective transformation, the intersection of the projected straight lines is obtained, and the intersection is determined according to the position on the figure. By dividing into groups, the number of intersections included in each intersection group is obtained, and the correct position of the object on the plane is obtained from the group having a large number of intersections.
[Selection] Figure 1

Description

この発明は、物体を複数のカメラで撮影した多視点画像から物体の位置を決定する位置計測装置に関するものである。   The present invention relates to a position measurement apparatus that determines the position of an object from multi-viewpoint images obtained by photographing the object with a plurality of cameras.

物体を複数のカメラで撮影して得られる多視点画像から物体の位置を決定する技術としては、単一の物体に対してのあるカメラで撮影した画像と、それとは異なるカメラで撮影した画像について、それぞれの画像内の物体の領域を通過する垂直線をそれぞれ決定し、そのうちの一方の画像上の垂直線を、平面射影変換を利用してもう一方の画像上に変換し、その変換した直線と、その画像上の垂直線の交点を、上記物体の位置とする方法がある。(例えば非特許文献1参照)。
また、3つ以上のカメラで撮影した画像において、互いに同一と考えられる物体領域を通過する垂直線をそれぞれ決定し、ある1つのカメラで撮影した画像上の上記垂直線と、その画像上に、他のカメラで撮影した画像上の垂直線を平面射影変換で射影した直線とを求め、それら直線間の距離を算出してその直線間の距離が、半数以上で閾値を超える直線を棄却することで、正しい物体領域に由来する直線のみによる交点の位置を利用することで、正確な物体位置を決定する方法がある。(例えば非特許文献2参照)。
As a technique for determining the position of an object from multi-viewpoint images obtained by shooting an object with multiple cameras, an image shot with a camera for a single object and an image shot with a different camera are used. , Determine each vertical line passing through the area of the object in each image, convert the vertical line on one of the images to the other image using plane projective transformation, and convert the converted straight line There is a method in which the intersection of vertical lines on the image is set as the position of the object. (For example, refer nonpatent literature 1).
In addition, in the images taken by three or more cameras, the vertical lines passing through the object regions considered to be identical to each other are determined, and the vertical lines on the image photographed by one camera, and the image, Obtain a straight line obtained by projecting a vertical line on an image taken with another camera by plane projective transformation, calculate the distance between the straight lines, and reject the straight line whose distance between the straight lines exceeds half and exceeds the threshold. Thus, there is a method of determining an accurate object position by using the position of the intersection point only by a straight line derived from the correct object region. (For example, refer nonpatent literature 2).

木村健二,斎藤英雄“多視点テニス画像からのプレーヤ視点画像の生成”,映情メ誌,Vol.58,No.10,pp.1503−1510 (2004)Kenji Kimura, Hideo Saito “Generation of Player Perspective Image from Multi-viewpoint Tennis Image”, Emotion Magazine, Vol. 58, no. 10, pp. 1503-1510 (2004) 長瀬琢也,小沢慎治,“多視点映像を用いたサッカーにおける選手のプレー判定”,映情メ誌,Vol.60,No.10,pp.1664−1671 (2006)Shinya Nagase and Shinji Ozawa, “Judgment of player's play in soccer using multi-view video”, Eiji Magazine, Vol. 60, no. 10, pp. 1664-1671 (2006)

従来の多視点画像による位置計測方法は以上のようになっているが、非特許文献1の場合、あるカメラで撮影した画像内の垂直線が通過する物体と、別のカメラで撮影した画像内の垂直線が通過する物体とが、同一であることが予め前提となっている。そのため、画像内に異なる物体が複数あってそれぞれに垂直線を引いた場合、それら複数の垂直線を他の画像に平面射影変換で射影してその画像上の複数の垂直線との交点を求めると、同一物体に由来する直線同士の交点と、異なる物体に由来する直線同士の交点とが生じてしまい、それぞれの物体の位置を正しく決定できない場合があった。この問題は異なるカメラで撮影された画像内の複数の物体に対し、同一の物体同士を識別することができれば解決するが、この識別はこれまで困難であった。   The conventional position measurement method using multi-viewpoint images is as described above. However, in the case of Non-Patent Document 1, an object through which a vertical line in an image photographed by a camera passes and an image photographed by another camera are used. It is presupposed that the object through which the vertical line passes is the same. Therefore, if there are multiple different objects in the image and each draws a vertical line, the multiple vertical lines are projected onto another image by plane projective transformation to obtain the intersections with the multiple vertical lines on the image. In other words, the intersection of straight lines derived from the same object and the intersection of straight lines derived from different objects are generated, and the position of each object may not be determined correctly. This problem can be solved if the same objects can be identified for a plurality of objects in images taken by different cameras, but this identification has been difficult so far.

この発明は、上記問題点を解決するためになされたもので、物体が複数存在する多視点画像から、複数の物体について、各画像間で同一性を予め識別しなくても、各物体の位置を正しく決定できる位置決定装置を得ることを目的とする。   The present invention has been made to solve the above-described problem. From a multi-viewpoint image in which a plurality of objects exist, the position of each object can be determined without previously identifying the identity of the plurality of objects between the images. An object of the present invention is to obtain a position determination device that can correctly determine the position.

この発明に係る位置決定装置は、3次元空間内の平面を囲むように設置された複数のカメラにより、平面上の所定領域を異なる方向から撮影して得られる背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用いて平面図上に複数物体の位置を算出する位置計測装置であって、平面上の図形を真上から見た図形に相似する相似平面図を作成する平面図作成部と、各テスト画像内の平面と相似平面図に基づいて、カメラで撮影した画像と相似平面図間の平面射影変換を決定する平面射影変換決定部と、各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する垂直消失点決定部と、各背景画像と前記各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する物体領域抽出部と、抽出された各物体領域の基準にする物体領域内点をそれぞれ決定する物体領域内点決定部と、画像ごとに各物体領域内点と垂直消失点を通過する直線を決定する物体通過垂直線決定部と、全ての画像の物体領域内点を通過する直線を、平面射影変換に基づいて相似平面図上に射影する平面図上直線決定部と、相似平面図上に射影された直線同士の交点を求める交点決定部と、複数の交点を相似平面図上の位置に基づいてグループ分けするグルーピング部と、グループ分けされた交点グループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて相似平面図上における各物体の正しい位置を算出する物体位置決定部を備えたものである。   The position determination device according to the present invention includes a background image, a test image, and a plurality of objects obtained by photographing a predetermined region on a plane from different directions by a plurality of cameras installed so as to surround the plane in the three-dimensional space. A position measurement device that calculates the positions of a plurality of objects on a plan view using multi-viewpoint images of each of the images to be included, and is a plan view for creating a similar plan view that resembles a figure on a plane viewed from directly above Based on the plane in each test image and the similar plan view, a plane projective transformation determination unit that determines the plane projective transformation between the image captured by the camera and the similar plan view, and the same angle based on each test image A vertical vanishing point determining unit that determines the vertical vanishing point of each image captured by the camera, an object region extracting unit that extracts each object region by taking a difference between each background image and the image including the plurality of objects, and extraction The An object area internal point determination unit that determines an object area internal point as a reference for each object area, and an object passing vertical line determination unit that determines a straight line passing through each object area internal point and a vertical vanishing point for each image; A straight line determining unit that projects straight lines passing through points in the object area of all images onto a similar plan view based on plane projective transformation, and obtains an intersection of the straight lines projected onto the similar plan view An intersection determination unit, a grouping unit for grouping a plurality of intersections based on positions on the similar plan view, and an intersection group effective as an object position based on the number of intersections included from among the grouped intersection groups And an object position determination unit that calculates a correct position of each object on the similar plan view based on the determined intersection point in the intersection group.

この発明によれば、ある3次元領域を複数のカメラによって、それぞれ別の方向から撮影した多視点画像において、3次元空間の平面上の物体が各画像に複数の物体が共通に撮影されている場合に、カメラ画像間で予め物体の同一性を識別していなくても、それら物体の位置を決定することができる。   According to the present invention, in a multi-viewpoint image in which a certain three-dimensional region is photographed by a plurality of cameras from different directions, an object on a plane in a three-dimensional space is photographed in common for each image. In this case, the positions of the objects can be determined even if the identity of the objects is not previously identified between the camera images.

実施の形態1.
図1は、この発明の実施の形態1による位置計測装置の機能構成を示すブロック図である。
図1において、この実施の形態1の位置計測装置は、複数のカメラ11 〜1N (N≧3)、画像データ一時保存部2、床面平面図作成部(相似平面図作成部)3、背景画像保存部4、テスト画像保存部5、垂直消失点決定部6、床面対応平面射影変換決定部(画像・図形間平面射影変換決定部)7、物体領域抽出部8、物体領域内点決定部9、物体通過垂直線決定部10、床面平面図上直線決定部(平面図上直線決定部)11、交点決定部12、グルーピング部13および物体位置決定部14を備えている。
複数のカメラ11 〜1N (N≧3)は、3次元空間内の平面を囲むように設置され、それぞれ同期しており、平面上の所定領域をそれぞれ異なる方向から撮影して多視点画像を取得する。この発明では、各カメラは、設置した後、移動させない同じ視点で、背景画像、テスト画像、それ以降に平面上に存在する複数の物体を含む画像をそれぞれ撮影するものとする。8台のカメラを使用した例として、背景画像の撮影方法を図2に、テスト画像の撮影方法を図3に、物体を含む画像の撮影方法を図4に示して説明する。図2〜図4において、水平な平面で構成される床面を考え、その周囲を取り囲むようにほぼ同じ大きさの三脚に取り付けた8台のカメラ11 〜18 を床面上に設置しており、いずれの撮影においても、カメラ11 〜18 はその位置や向きを変化させない。また、カメラの設置において、どのカメラからも「全カメラの視野に入る床面領域」を撮影できるようにしておく。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a functional configuration of a position measuring apparatus according to Embodiment 1 of the present invention.
1, the position measuring apparatus according to the first embodiment includes a plurality of cameras 1 1 to 1 N (N ≧ 3), an image data temporary storage unit 2, a floor plan view creation unit (similar plan view creation unit) 3. , Background image storage unit 4, test image storage unit 5, vertical vanishing point determination unit 6, floor surface corresponding plane projection conversion determination unit (image / graphic plane projection conversion determination unit) 7, object region extraction unit 8, in object region A point determining unit 9, an object passing vertical line determining unit 10, a straight line determining unit on the floor plan view (straight line determining unit on the plan view) 11, an intersection determining unit 12, a grouping unit 13, and an object position determining unit 14 are provided.
The plurality of cameras 1 1 to 1 N (N ≧ 3) are installed so as to surround a plane in the three-dimensional space, are synchronized with each other, and are photographed from different directions on the plane, respectively, to obtain a multi-viewpoint image. To get. In the present invention, each camera captures a background image, a test image, and an image including a plurality of objects existing on a plane thereafter from the same viewpoint that is not moved after installation. As an example using eight cameras, a background image capturing method will be described with reference to FIG. 2, a test image capturing method with reference to FIG. 3, and an image including an object with reference to FIG. 2 to 4, considering a floor composed of horizontal planes, eight cameras 11 to 18 mounted on a tripod of approximately the same size are placed on the floor so as to surround the floor. In any shooting, the cameras 11 to 18 do not change their positions and orientations. In addition, when installing the camera, it is possible to capture the “floor area within the field of view of all cameras” from any camera.

図2の背景画像の撮影例では、何も置かれていない床面を撮影対象の背景としている。他の例として、床面上に図4で示す撮影対象の物体以外の物を置いた状態を撮影対象の背景としてもよいが、その物の位置や向きなどが図4に示す物体を含む画像の撮影の際に変化していないことが条件となる。図3のテスト画像の撮影例では、床面上にマーキングされた正方形とその正方形の床面に垂直に設置された2本の棒を撮影対象としている。これらの正方形と2本の棒は、全てのカメラ11 〜18 で撮影可能であるものとする。図4の物体を含む画像の撮影例では、床面上に置かれたぬいぐるみと花瓶を撮影対象の物体としている。
カメラ11 〜18 により図2〜図4の撮影で取得された各画像はいったん画像データ一時保存部2に保存された後、位置決定装置の処理に際し、各背景画像は背景画像保存部4に移されて保存され、各テスト画像は、テスト画像保存部5に移されて保存される。また、各物体を含む画像は、物体領域抽出部8に与えられる。
なお、以下図5〜図8においては、4台のカメラ11,13,15,17 を例にした画像について説明することにする。
In the background image capturing example of FIG. 2, the floor surface on which nothing is placed is used as the background of the capturing target. As another example, a state in which an object other than the object to be imaged shown in FIG. 4 is placed on the floor may be used as the background of the object to be imaged, but the position and orientation of the object includes the object shown in FIG. It is a condition that there is no change at the time of shooting. In the test image shooting example of FIG. 3, a square marked on the floor surface and two bars installed perpendicularly to the floor surface of the square are taken as a shooting target. It is assumed that these squares and two bars can be photographed by all the cameras 11 to 18 . In the example of photographing an image including the object in FIG. 4, a stuffed animal and a vase placed on the floor are taken as objects to be photographed.
After the images obtained by photographing the Figures 2-4 which is temporarily stored in the image data temporary storing section 2 by the camera 1 1 to 1 8, when the processing of the positioning device, the background image is a background image storage unit 4 The test images are transferred to and stored in the test image storage unit 5. Further, the image including each object is given to the object region extraction unit 8.
In the following, in FIGS. 5 to 8, images taking four cameras 1 1 , 1 3 , 1 5 , and 17 as examples will be described.

垂直消失点決定部6では、テスト画像保存部5で保存された各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する。図3に示すカメラ11,13,15,17 で撮影されたテスト画像から垂直消失点を算出する例を図5に示す。各テスト画像において、床面にマーキングされた正方形と床面に垂直に設置された2本の棒が撮影されている。なお、図中の破線は垂直消失点の求め方を示す補助線である。テスト画像ごとに画像内の床面に垂直な2本の棒を含む直線を延長し、その交点を垂直消失点として決定する。なお、この発明では、3次元空間における垂直な方向の直線の無限遠点を画像に投影した点である消失点を垂直消失点と呼ぶものとする。無限遠点や消失点についての詳細は、例えば文献「佐藤淳“コンピュータビジョン 視覚の幾何学”,コロナ社,1999」に開示されている。また、この例では2本の垂直線を利用して垂直消失点決定しているが、それ以外の方法で決定してもよいものとする。また、垂直消失点を利用して水平な床面に対する垂直な直線の方向を決定するが、それ以外の方法で垂直方向を決定してもよく、カメラの設置位置によっては画像の縦軸方向を垂直方向と近似してもよい。 The vertical vanishing point determination unit 6 determines the vertical vanishing point of the image taken by the camera at the same angle based on each test image stored in the test image storage unit 5. FIG. 5 shows an example in which the vertical vanishing point is calculated from the test images photographed by the cameras 1 1 , 1 3 , 1 5 , and 17 shown in FIG. In each test image, a square marked on the floor and two bars installed perpendicular to the floor are photographed. In addition, the broken line in a figure is an auxiliary line which shows how to obtain | require a vertical vanishing point. For each test image, a straight line including two bars perpendicular to the floor in the image is extended, and the intersection is determined as a vertical vanishing point. In the present invention, a vanishing point that is a point obtained by projecting an infinite point of a straight line in a three-dimensional space onto an image is called a vertical vanishing point. Details of the infinite point and vanishing point are disclosed in, for example, the document “Satoshi Sato“ Geometry of Computer Vision ”, Corona, 1999”. In this example, the vertical vanishing point is determined using two vertical lines, but it may be determined by other methods. The vertical vanishing point is used to determine the direction of the vertical straight line with respect to the horizontal floor surface, but the vertical direction may be determined by other methods, and the vertical axis direction of the image may be changed depending on the installation position of the camera. You may approximate the vertical direction.

物体領域抽出部8では、背景画像保存部4で保存された各背景画像と画像データ一時保存部2で保存された各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する。図4に示す撮影カメラ11,13,15,17で撮影された物体を含む画像を図6に示す。なお、この図6では、各画像においてぬいぐるみと花瓶が表されている。なお、実際にはこれらの背後に背景となる床や壁、それ以外の物体なども写っている筈であるが、ここでは説明を容易にするために省略して示している。図6のような2個の物体が撮影されている画像と背景画像保存部4で保存されている背景画像との間で、画素値ごとの差分を取って、その差分値が一定の閾値以上である画素を含む領域を物体領域として抽出する。この物体領域抽出部8で抽出された物体領域を表す画像の例を図7に示す。この例では背景差分法により、物体領域を抽出しているので、図2で背景画像の撮影時点では存在しなかったぬいぐるみと花瓶の領域が表されている。画素値の変化があった部分を物体領域として抽出しているため、図7の時点では各画像内の2つの領域のうち、どちらがぬいぐるみで、どちらが花瓶かは判別できない状態にある。なお、この例では、背景差分法によって物体領域を抽出しているが、物体の動きや色などで抽出してもよく、カメラで撮影した画像内において、位置を決定したい物体の領域が抽出できればよく、例えば、その一部が遮蔽物やその他の要因によって、欠けていてもよい。 The object region extraction unit 8 extracts the object region by taking the difference between each background image stored in the background image storage unit 4 and the image including each of the plurality of objects stored in the image data temporary storage unit 2. FIG. 6 shows images including objects photographed by the photographing cameras 1 1 , 1 3 , 1 5 , and 17 shown in FIG. In FIG. 6, a stuffed animal and a vase are represented in each image. It should be noted that the floor, wall, and other objects in the background are actually shown behind them, but are omitted here for the sake of simplicity. A difference for each pixel value is taken between an image in which two objects are photographed as shown in FIG. 6 and a background image stored in the background image storage unit 4, and the difference value is equal to or greater than a certain threshold value. An area including a pixel is extracted as an object area. An example of an image representing the object region extracted by the object region extraction unit 8 is shown in FIG. In this example, since the object region is extracted by the background subtraction method, the stuffed animal and vase regions that did not exist at the time of photographing the background image are shown in FIG. Since the portion where the pixel value has changed is extracted as the object region, at the time of FIG. 7, it is not possible to determine which of the two regions in each image is a stuffed animal and which is a vase. In this example, the object region is extracted by the background subtraction method. However, the object region may be extracted by the movement or color of the object, and if the region of the object whose position is to be determined can be extracted from the image captured by the camera. Well, for example, some of it may be missing due to shielding or other factors.

物体領域内点決定部9では、物体領域抽出部8で抽出された各物体領域の基準となる物体領域内点を決定する。図7に示す物体領域抽出部8で抽出された物体領域の画像において、例えばその物体領域の面積の重心位置を算出し、その位置を、各物体領域の基準となる物体領域内点として決定する。
次に、物体通過垂直線決定部10では、画像ごとに物体領域内点決定部9で決定された各物体領域内点と前記垂直消失点を通過する直線を決定する。すなわち、図5で示すカメラごとの垂直消失点と物体領域内点を結んで、図8に示すような、各画像内の物体領域内点を通過する垂直線を作成する。これは、3次元空間において平面に垂直な直線を画像に投影したものである。
The object area inner point determination unit 9 determines an object area inner point serving as a reference for each object area extracted by the object area extraction unit 8. In the image of the object region extracted by the object region extraction unit 8 shown in FIG. 7, for example, the position of the center of gravity of the area of the object region is calculated, and the position is determined as an object region inner point serving as a reference for each object region. .
Next, the object passing vertical line determination unit 10 determines a straight line passing through each object region inner point determined by the object region inner point determination unit 9 and the vertical vanishing point for each image. That is, by connecting the vertical vanishing point and the object area inner point for each camera shown in FIG. 5, a vertical line passing through the object area inner point in each image as shown in FIG. 8 is created. This is a projection of a straight line perpendicular to a plane in a three-dimensional space.

次に、床面平面図上直線決定部11の処理説明に先立ち、床面平面図作成部3と床面対応平面射影変換決定部7による処理について説明する。
床面平面図作成部3では、テスト画像の撮影における床面(平面)を真上から見た図形に相似する相似平面図を作成する。この床面平面図作成部3で作成された相似平面図を図9に示す。図9には、図3で示されている床面にマーキングされたものとサイズの違う正方形が書き込まれている。なお、ここで言う相似平面図は、画像上で描かれた図形であるが、ここでは単に「相似平面図」として扱うことにする。
床面対応平面射影変換決定部7では、テスト画像保存部5に保存されている各テスト画像内の平面と床面平面図作成部3で作成された相似平面図に基づいて、カメラで撮影した画像と相似平面図間の平面射影変換(画像・図形間平面射影変換)を決定する。各カメラで撮影したテスト画像(図5)内の床面にマーキングされた正方形の4つの頂点の座標と、図9に示した相似平面図(正方形)の4つの頂点の座標とから、各カメラで撮影した画像の床面から相似平面図への平面射影変換を決定する。この平面射影変換の算出方法については、例えば、出口光一郎“ロボットビジョンの基礎”,コロナ社,2000に開示されている。なお、ここでは床面上にマーキングされている正方形の4つの頂点と、それに対応する平面図の4つの頂点を使用したが、正方形でなくてもよい。また4つ以上の点で、カメラ画像内のある1つの平面上の点と、それに対応する平面図上の点であればよい。
Next, prior to the description of the processing of the straight line determination unit 11 on the floor plan view, the processing by the floor plan creation unit 3 and the floor corresponding plane projection conversion determination unit 7 will be described.
The floor plan view creation unit 3 creates a similar plan view that resembles a figure as seen from directly above the floor surface (plane) in shooting a test image. A similar plan view created by the floor plan view creation unit 3 is shown in FIG. In FIG. 9, squares having different sizes from those marked on the floor surface shown in FIG. 3 are written. Note that the similar plan view here is a figure drawn on an image, but here it is simply treated as a “similar plan view”.
In the floor surface corresponding plane projection conversion determining unit 7, a photograph is taken with a camera based on the plane in each test image stored in the test image storage unit 5 and the similar plan view created in the floor plan view creation unit 3. Planar projective transformation between an image and a similar plan view (planar projective transformation between image and figure) is determined. From the coordinates of the four vertices of the square marked on the floor in the test image (FIG. 5) photographed by each camera and the coordinates of the four vertices of the similar plan view (square) shown in FIG. The plane projective transformation from the floor surface of the image taken in step 1 to the similar plan view is determined. The calculation method of the planar projective transformation is disclosed in Koichiro Deguchi “Basics of Robot Vision”, Corona, 2000, for example. Here, the four vertices of the square marked on the floor surface and the four vertices of the plan view corresponding thereto are used, but the shape may not be a square. Further, it is sufficient that the point is a point on a certain plane in the camera image and a point on the plan view corresponding to the four or more points.

次に、床面平面図上直線決定部11では、全ての画像における物体通過垂直線決定部10で決定された物体領域内点を通過する直線を、床面対応平面射影変換決定部7で決定された画像・図形間平面射影変換に基づいて、相似平面図上に射影する。図8に示すような各カメラ画像上の物体領域を通過する垂直線を全て相似平面図上に射影した状態を図10に示す。図10において、L1〜L16は、床面平面図上直線決定部11で決定された平面図上の直線を示す。8台のカメラ11 〜18 で取得した画像のそれぞれにおいて、物体が2つずつ抽出され、それら物体を通過する直線の本数も1画像2本ずつとなるため、カメラ8台分の画像から直線を変換すると合計16本の直線となる。
交点決定部12では、床面平面図上直線決定部11で相似平面図上に射影された直線同士の交点を決定する。すなわち図10の場合、直線L1〜L16同士が作る交点を全て求める。次に、グルーピング部13では、交点決定部12で求めた相似平面図上の複数の交点を相似平面図上の位置に基づいてグループ分けする。この場合、交点間の距離が一定の閾値以内である交点同士を同じグループとしてまとめる。こうすることで、グルーピングを簡便に行うことができる。図10の相似平面図上おいては、○で囲んだ6つ交点グループA,B,C,D,E,Fに分けられたことを表している。
Next, the straight line determining unit 11 on the floor plan view determines the straight line passing through the object area inner point determined by the object passing vertical line determining unit 10 in all images by the floor corresponding plane projective transformation determining unit 7. Projection is performed on the similar plan view based on the projected image / graphic plane projection transformation. FIG. 10 shows a state in which all the vertical lines passing through the object region on each camera image as shown in FIG. 8 are projected onto a similar plan view. In FIG. 10, L <b> 1 to L <b> 16 indicate straight lines on the plan view determined by the straight line determining unit 11 on the floor plan view. In each of the images acquired by the eight cameras 1 1 to 1 8 , two objects are extracted and the number of straight lines passing through the objects is also two one image. When straight lines are converted, a total of 16 straight lines are obtained.
The intersection determining unit 12 determines the intersection of the straight lines projected on the similar plan view by the straight line determining unit 11 on the floor plan view. That is, in the case of FIG. 10, all intersections formed by the straight lines L1 to L16 are obtained. Next, the grouping unit 13 groups a plurality of intersections on the similarity plan obtained by the intersection determination unit 12 based on the positions on the similarity plan. In this case, the intersections where the distance between the intersections is within a certain threshold are grouped together as the same group. By doing so, grouping can be performed easily. In the similar plan view of FIG. 10, it is shown that it is divided into six intersection groups A, B, C, D, E, and F surrounded by ○.

次に、物体位置決定部14では、グルーピング部13でグループ分けされた交点グループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて相似平面図上における各物体の正しい位置を算出する。図10に示す交点グループの中から、例えばグループ内に含まれる交点数が多い上位M個(Mは予め定めた数であり、この例ではM=2とする)の交点グループを物体の位置として有効な交点グループと決定する。そして、当該各上位グループに含まれる交点の座標の平均値をそれぞれ取り、各平均値を対応するグループの物体の正しい位置として算出する。なお、この場合、有効な交点グループ内の全ての交点ではなく、それらの一部を使用してもよい。交点グループのうち、交点数が多いものの中から、何番目までを物体位置として有効な交点グループとするかは、人が予め物体数を指定しておけばよい。そうすれば、物体数が複数であって事前に各画像ごとに抽出される物体を識別できなくても物体位置の決定を行うことができる。一方、物体位置として有効な交点グループは、物体領域抽出部8で抽出された物体領域数を用いてもよく、そうすることで、上記のように予め物体数を決定しなくても、実態に即したより高い精度で物体の位置を算出することができる。
また、この抽出された物体領域数がカメラごとに違った場合は、平均の数を整数化した数値を用いてもよいし、各カメラで抽出した物体数の中から、最も頻度が多く抽出された物体数を用いてもよい。また、グループに含まれる交点数が多い順にグループを並べ、あるグループを境に交点数が大きく減っている場合、そのグループまでを物体位置としてもよい。またその交点数は撮影カメラ数によって変化させてもよい。またグループ内の交点数のより細かい部分領域における密度や分散を用いて判定してもよい。また、各カメラで撮影した画像ごとに抽出された物体の数を求め、それらの物体数のうち、最も多かった物体数を予め定めた物体数Mとして、グループ内に含む交点数が多い上位M個のグループを物体の位置としてもよい。
Next, the object position determination unit 14 determines an intersection group effective as the position of the object from the intersection groups grouped by the grouping unit 13 based on the number of intersections included, and the intersections in the determined intersection group Based on the above, the correct position of each object on the similar plan view is calculated. Among the intersection groups shown in FIG. 10, for example, the top M intersection groups (M is a predetermined number and M = 2 in this example) having the largest number of intersections included in the group are used as object positions. Determine a valid intersection group. And the average value of the coordinate of the intersection point contained in each said upper group is each taken, and each average value is calculated as a correct position of the object of a corresponding group. In this case, instead of all the intersections in the effective intersection group, some of them may be used. It is only necessary for a person to specify the number of objects in advance to determine the number of intersection groups from which the number of intersections is large as the effective intersection group. By doing so, it is possible to determine the object position even if there are a plurality of objects and the objects extracted for each image in advance cannot be identified. On the other hand, the intersection group effective as the object position may use the number of object regions extracted by the object region extraction unit 8, so that the actual number of objects can be obtained without determining the number of objects in advance as described above. Accordingly, the position of the object can be calculated with higher accuracy.
If the number of extracted object regions differs for each camera, a numerical value obtained by converting the average number into an integer may be used, or the frequency extracted most frequently from the number of objects extracted by each camera. You may use the number of objects. In addition, when groups are arranged in descending order of the number of intersections included in the group and the number of intersections is greatly reduced with a certain group as a boundary, the position up to that group may be set as the object position. The number of intersections may be changed depending on the number of photographing cameras. Alternatively, the determination may be made by using the density or dispersion in a partial area with a smaller number of intersections in the group. Further, the number of objects extracted for each image photographed by each camera is obtained, and among the number of objects, the highest number of objects is set as a predetermined number of objects M. It is good also considering the group of an object as the position of an object.

また、物体位置決定を図11のフローチャートに示す方法を用いて行なうようにしてもよい。この場合、図1に破線で示す再グルーピング部131を設けることになる。
図10のグループを例に説明すると、物体位置決定部14は、最初にグルーピング部13でまとめた6つのグループA,B,C,D,E,Fの中から、最も交点数が多いグループを、物体の位置として有効な第1の交点グループとして決定する。もし、最も交点数が多いグループが複数ある場合は、その中の任意のグループを第1の交点グループとしてもよいし、交点座標の分散が最も小さいグループを第1の交点グループとしてもよい。今、グループEを第1の交点グループと決定したとする。次に、再グルーピング部131において、第1の交点グループEの交点を作った直線を取り除いて、残りの直線の交点をグループ分けして物体位置決定部14に再入力する。この例では直線L9〜L16が取り除かれる。すると、残る直線L1〜L8で作られる交点のグループはBのみとなる。したがって、物体位置決定部14では、グループBを次の物体の位置として有効な第2の交点グループとして、その交点から物体の正しい位置を算出する。
Further, the object position may be determined using the method shown in the flowchart of FIG. In this case, a re-grouping unit 131 indicated by a broken line in FIG. 1 is provided.
Referring to the group of FIG. 10 as an example, the object position determination unit 14 selects the group with the largest number of intersections from among the six groups A, B, C, D, E, and F that are first grouped by the grouping unit 13. The first intersection group effective as the position of the object is determined. If there are a plurality of groups having the largest number of intersections, an arbitrary group among them may be the first intersection group, and a group having the smallest variance of the intersection coordinates may be the first intersection group. Now, assume that group E is determined as the first intersection group. Next, the re-grouping unit 131 removes the straight line that formed the intersection of the first intersection group E, groups the remaining straight line intersections, and re-inputs them to the object position determination unit 14. In this example, the straight lines L9 to L16 are removed. Then, the group of intersections formed by the remaining straight lines L1 to L8 is only B. Therefore, the object position determination unit 14 calculates the correct position of the object from the intersection point with the group B as the second intersection point group that is effective as the position of the next object.

ここで、上記例では第1の交点グループの交点に関連した直線L9〜L16を取り除いた後に残ったグループはBだけであったが、2つ以上のグループが残る場合も考えられる。この場合、残ったグループの中で最も交点数が多いグループを次の物体の位置として有効な第2の交点グループとする。次に、再グルーピング部131で第2の交点グループの交点に関連した直線を取り除いた上で、さらに残っている直線の交点のグループを再編し、その中から3番目の物体の位置として有効な第3の交点グループを決定する。以後、残っているグループがある場合には、物体位置決定部14と再グルーピング部131の間でこの処理を繰り返す。やがて、予め決めた物体数の交点グループから物体の位置を算出した場合、またはグループに含まれる交点数やその座標の分散値があるしきい値より小さくなった場合には、これ以上の物体は存在しないか、または位置を決定することが不可能として、物体位置の決定を終了する。なお、図11では物体の位置を予め定めた数だけ見つけるようにしているが、それ以外の方法で物体の位置の数を決定してもよい。
図11で説明した方法によれば、特に物体数が増えた場合でも、より高い精度で物体の位置を決定することができる。
Here, in the above example, only B remains after removing the straight lines L9 to L16 related to the intersections of the first intersection group, but there may be cases where two or more groups remain. In this case, the group having the largest number of intersections among the remaining groups is set as the second intersection group effective as the position of the next object. Next, after the straight line related to the intersection of the second intersection group is removed by the regrouping unit 131, the group of intersections of the remaining straight lines is reorganized and effective as the position of the third object among them. A third intersection group is determined. Thereafter, when there are remaining groups, this process is repeated between the object position determination unit 14 and the regrouping unit 131. Eventually, if the position of an object is calculated from a group of intersections with a predetermined number of objects, or if the number of intersections included in the group and the variance value of its coordinates become smaller than a certain threshold, no more objects will be The object position determination is terminated as it does not exist or the position cannot be determined. In FIG. 11, only a predetermined number of object positions are found, but the number of object positions may be determined by other methods.
According to the method described with reference to FIG. 11, the position of an object can be determined with higher accuracy even when the number of objects increases.

以上のように実施の形態1によれば、複数台のカメラを使って、3次元空間にある平面上の領域をそれぞれ異なる方向から撮影した背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用い、上記平面を真上から見た図形に相似な図形と、カメラで撮影された各画像内の平面との間の平面射影変換と、各画像の垂直消失点を決定しておき、複数物体を含む画像ごとに物体領域を抽出し、その物体領域ごとに内部の点を決定し、それらの点と垂直消失点を通る直線を物体ごとに求め、求めた直線を、上記平面を真上から見た図形に相似な図形上に平面射影変換を用いて射影し、それら射影した直線同士の交点を求め、交点を図形上の位置に応じてグループ分けし、グループ分けした交点のグループごとに含まれる交点数を求め、交点数の多いグループからいくつかを選んで平面上の物体の正しい位置とするようにしている。したがって、平面図上で直線の交点を決定してそれら交点のグループ分けを行い、物体の位置を決定するので、物体数が複数であって事前に各画像ごとに抽出された物体を識別できなくても物体の位置の決定を行うことができる。   As described above, according to the first embodiment, a plurality of background images, test images, and images including a plurality of objects, each of which is obtained by photographing a region on a plane in a three-dimensional space from different directions using a plurality of cameras. Using a viewpoint image, determine the plane projective transformation between the figure similar to the figure seen from directly above the plane and the plane in each image taken by the camera, and determine the vertical vanishing point of each image. The object region is extracted for each image including a plurality of objects, internal points are determined for each object region, a straight line passing through these points and the vertical vanishing point is determined for each object, and the obtained straight line Projecting onto a figure similar to the figure seen from directly above using plane projective transformation, obtaining the intersection of the projected straight lines, grouping the intersection according to the position on the figure, and grouping the grouped intersection Find the number of intersections included in each , So that the correct position of the object on the plane to choose several from the group with many number of intersections. Therefore, the intersections of the straight lines are determined on the plan view, the intersection points are grouped, and the positions of the objects are determined. Therefore, it is not possible to identify the objects extracted in advance for each image with multiple objects. Even the position of the object can be determined.

実施の形態2.
図12は、この発明の実施の形態2による位置計測装置の機能構成を示すブロック図である。この図において、図1に相当する部分には同一符号を付し、原則としてその説明は省略する。
この実施の形態2では、床面対応平面射影変換決定部7のほかに画像間平面射影変換決定部17を備えており、この画像間平面射影変換決定部17では、各テスト画像内の平面上の図形に基づいてカメラで撮影した各画像間の平面射影変換(画像間平面射影変換)を決定する。すなわち、テスト画像(図5)内の床面にマーキングされた正方形の4つの頂点の座標で表される各カメラ画像の床面(平面領域)間で射影を行なうための平面射影変換を決定する。実施の形態1で述べたように物体通過垂直線決定部10において画像ごとの物体領域内点を通過する直線が生成されるが、撮影画像上変換直線決定部21では、これらの画像ごとに決定された物体領域内点を通過する直線を、画像間平面射影変換決定部17で決定された画像間平面射影変換を用いて、各カメラで撮影された画像上にそれぞれ射影してまとめる。例えばカメラ11 で撮影された画像上に射影された直線の例を図13に示す。この図にはカメラ11 自身の画像に関する直線と射影された他のカメラ12 〜18 の画像の直線が表されている。このように、カメラ12 〜18 のそれぞれの画像上にも他のカメラの画像の変換された直線がまとめられたものを作成する。
Embodiment 2. FIG.
FIG. 12 is a block diagram showing a functional configuration of a position measuring apparatus according to Embodiment 2 of the present invention. In this figure, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted in principle.
In the second embodiment, an inter-image plane projection conversion determining unit 17 is provided in addition to the floor-surface corresponding plane projection conversion determining unit 7, and the inter-image plane projective conversion determining unit 17 is arranged on a plane in each test image. The plane projection conversion (inter-image plane projection conversion) between the images photographed by the camera is determined based on the figure. That is, the plane projective transformation for performing projection between the floor surfaces (planar regions) of the camera images represented by the coordinates of the four vertices of the square marked on the floor surface in the test image (FIG. 5) is determined. . As described in the first embodiment, the object passing vertical line determination unit 10 generates a straight line that passes through the point in the object region for each image. The captured image conversion straight line determination unit 21 determines for each of these images. The straight lines passing through the object point in the object area are projected onto the images photographed by the cameras using the inter-image plane projective transformation determined by the inter-image plane projective transformation determining unit 17. For example shows an example of the projected straight line in the photographed image of the camera 1 1 in Figure 13. Linear camera 1 1 itself other cameras that have been projected as linearly related to the image of 1 2-1 8 images are represented in this FIG. In this way, the images in which the converted straight lines of the images of the other cameras are collected together on the images of the cameras 12 to 18 are created.

次に、画像内交点決定部22では、実施の形態1の交点決定部12と同様にして、各画像上にまとめられた直線同士の交点をそれぞれの画像上で求める。1次グルーピング部23では、画像内交点決定部22で求めた各画像上の複数の交点について、実施の形態1のグルーピング部13と同様にして、画像内の交点間の距離が一定の閾値以内である交点同士を同じグループとしてまとめる。1次物体位置決定部24では、実施の形態1の物体位置決定部14と同様にして、各画像上において、グループ分けされた交点のグループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて各画像上における物体の位置を算出する。図13で説明すると、例えばカメラ11 (カメラ12 〜18 のそれぞれでも同様)の画像上において1次グルーピング部23でグループ分けされた交点のグループを○で囲んで示す。1次物体位置決定部24は、これらグループの中から、各グループに含まれる交点数の多い上位M個(M=2)のグループを物体の位置を表す交点グループとし、そのグループに含まれる交点座標の平均を物体位置の座標として決定する。この場合、全ての交点の座標の平均を求める代わりに、そのグループの一部の交点の座標を利用してもよい。 Next, the intra-image intersection determination unit 22 obtains the intersections of the straight lines collected on each image on each image in the same manner as the intersection determination unit 12 of the first embodiment. In the primary grouping unit 23, the distance between the intersections in the image is within a certain threshold for a plurality of intersections on each image obtained by the in-image intersection determination unit 22, as in the grouping unit 13 of the first embodiment. Collect the intersections that are in the same group. In the primary object position determination unit 24, in the same manner as the object position determination unit 14 of the first embodiment, the position of the object is determined on the basis of the number of intersection points included in the group of intersection points on each image. The effective intersection group is determined, and the position of the object on each image is calculated based on the intersection in the determined intersection group. Referring to FIG. 13, for example, the intersection groups grouped by the primary grouping unit 23 on the image of the camera 1 1 (the same applies to each of the cameras 1 2 to 18 ) are surrounded by circles. The primary object position determination unit 24 sets, from among these groups, the top M groups (M = 2) having the largest number of intersections included in each group as intersection groups representing the positions of the objects, and the intersections included in the groups. The average of the coordinates is determined as the coordinates of the object position. In this case, instead of obtaining the average of the coordinates of all the intersections, the coordinates of some intersections of the group may be used.

次に、床面平面図位置決定部(平面図位置決定部)25では、1次物体位置決定部24で決定された各画像上における物体の位置を、床面対応平面射影変換決定部7で決定された床面対応の画像・図形間平面射影変換を用いて相似平面図上に射影して当該相似平面図上における物体の位置候補としてまとめる。2次グルーピング部33では、床面平面図位置決定部25で相似平面図上にまとめられた各物体の位置候補をグループ分けする。この状態を図14に示す。   Next, in the floor plan view position determination unit (plan view position determination unit) 25, the position of the object on each image determined by the primary object position determination unit 24 is converted by the floor surface corresponding plane projection conversion determination unit 7. The image is projected onto the similar plan view using the determined plane / surface projection transformation corresponding to the floor surface, and the object position candidates on the similar plan view are collected. In the secondary grouping unit 33, the position candidates of the objects grouped on the similar plan view by the floor plan view position determination unit 25 are grouped. This state is shown in FIG.

次に、2次物体位置決定部34では、2次グルーピング部33でグループ分けされた物体の位置候補のグループの中から、含まれる位置候補の数に基づいて正しい物体の位置として有効なグループを決定し、決定したグループ内の物体の位置候補に基づいて相似平面図上における各物体の正しい位置を算出する。この場合、図14に示された物体の位置候補のグループの中から、例えばグループ内に含まれる物体位置候補数が多い上位m個(mは予め定めた数であり、この例ではm=2とする)のグループを正しい物体の位置として有効なグループと決定する。そして当該各上位グループに含まれる物体位置候補の座標の平均値をそれぞれ取り、各平均値を対応するグループの物体の正しい位置として算出する。なお、この場合、有効なグループ内の全ての物体位置候補ではなく、それらの一部を使用してもよい。   Next, the secondary object position determination unit 34 selects a group effective as the correct object position from the group of object position candidates grouped by the secondary grouping unit 33 based on the number of position candidates included. The correct position of each object on the similar plan view is calculated based on the determined position candidate of the object in the group. In this case, among the group of object position candidates shown in FIG. 14, for example, the top m objects having a large number of object position candidates included in the group (m is a predetermined number. In this example, m = 2 ) Is determined as a valid group as the correct object position. And the average value of the coordinate of the object position candidate contained in each said upper group is each taken, and each average value is calculated as a correct position of the object of a corresponding group. In this case, not all the object position candidates in the effective group but some of them may be used.

以上のように、この実施の形態2によれば、グルーピングや物体の位置決定の一部を画像上で行なうようにしたので、より簡単な手順でグルーピングや物体の位置の決定を行うことができ、またグルーピングを2度行うことで高い精度で物体の位置を決定することができる。
なお、この例では床面平面図位置決定部25と2次グルーピング部33、2次物体位置決定部34で、図14に示すように、平面図上の物体の正しい位置を決定したが、代わって図13に示すような、ある画像上においてこれらの動作を行って物体の位置を決定してもよい。
As described above, according to the second embodiment, since grouping and part of object position determination are performed on the image, grouping and object position determination can be performed with a simpler procedure. In addition, by performing the grouping twice, the position of the object can be determined with high accuracy.
In this example, the floor plan view position determination unit 25, the secondary grouping unit 33, and the secondary object position determination unit 34 determine the correct position of the object on the plan view as shown in FIG. The position of the object may be determined by performing these operations on a certain image as shown in FIG.

この発明の実施の形態1に係る位置計測装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the position measuring device which concerns on Embodiment 1 of this invention. この発明の各実施の形態に係る背景画像の撮影方法を示す説明図である。It is explanatory drawing which shows the imaging | photography method of the background image which concerns on each embodiment of this invention. この発明の各実施の形態に係る垂直方向を決定するためのテスト画像の撮影方法を示す説明図である。It is explanatory drawing which shows the imaging | photography method of the test image for determining the perpendicular direction which concerns on each embodiment of this invention. この発明の各実施の形態に係る撮影対象の物体を含む画像の撮影方法を示す図である。It is a figure which shows the imaging | photography method of the image containing the object of the imaging | photography object which concerns on each embodiment of this invention. この発明の各実施の形態に係るテスト画像を用いた垂直消失点の決定方法を示す説明図である。It is explanatory drawing which shows the determination method of the vertical vanishing point using the test image which concerns on each embodiment of this invention. 図4に示した状況をカメラで撮影した物体を含む画像の例を示す説明図である。It is explanatory drawing which shows the example of the image containing the object which image | photographed the situation shown in FIG. 4 with the camera. この発明の各実施の形態に係る物体領域抽出部で抽出された物体領域を表す画像例を示す説明図である。It is explanatory drawing which shows the example of an image showing the object area | region extracted by the object area | region extraction part which concerns on each embodiment of this invention. この発明の各実施の形態に係る物体通過垂直線決定部で決定した物体領域内点を通過する直線を示す説明図である。It is explanatory drawing which shows the straight line which passes the point in an object area | region determined by the object passage perpendicular | vertical line determination part which concerns on each embodiment of this invention. この発明の各実施の形態に係る床面平面図作成部で作成された床面の図形と相似する相似平面図を示す平面図である。It is a top view which shows the similar plan view similar to the figure of the floor created by the floor plan creation part concerning each embodiment of this invention. この発明の実施の形態1に係る床面平面図上直線決定部で変換された相似平面図上の直線とそのグループ分けされた交点を示す説明図である。It is explanatory drawing which shows the straight line on the similar plane view converted by the straight line determination part on the floor plan view concerning Embodiment 1 of this invention, and the grouped intersection. この発明の実施の形態1に係る位置決定方法の他の処理手順を示すフローチャートである。It is a flowchart which shows the other process sequence of the position determination method which concerns on Embodiment 1 of this invention. この発明の実施の形態2による位置計測装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the position measuring device by Embodiment 2 of this invention. この発明の実施の形態2に係る一つの画像上に変換された直線とそのグループ分けされた交点の例を示す説明図である。It is explanatory drawing which shows the example of the straight line converted on one image which concerns on Embodiment 2 of this invention, and its grouped intersection. この発明の実施の形態2に係る相似平面図上にグループ分けされた物体の位置候補を示す説明図である。It is explanatory drawing which shows the position candidate of the object grouped on the similar top view which concerns on Embodiment 2 of this invention.

符号の説明Explanation of symbols

1〜1N カメラ、2 画像データ一時保存部、3 床面平面図作成部、4 背景画像保存部、5 テスト画像保存部、6 垂直消失点決定部、7 床面対応平面射影変換決定部、8 物体領域抽出部、9 物体領域内点決定部、10物体通過垂直線決定部、11 面平面図上直線決定部、12 交点決定部、13 グルーピング部、131 再グルーピング部、14 物体位置決定部、17 画像間平面射影変換決定部、21 撮影画像上変換直線決定部、22 1次交点決定部、23 1次グルーピング部、24 1次物体位置決定部、25 床面平面図決定部、33 2次グルーピング部、34 2次物体位置決定部。 1 1 to 1 N camera, 2 image data temporary storage unit, 3 floor plan creation unit, 4 background image storage unit, 5 test image storage unit, 6 vertical vanishing point determination unit, 7 floor plane corresponding plane projection conversion determination unit , 8 Object region extraction unit, 9 Object region internal point determination unit, 10 Object passing vertical line determination unit, 11 Plane line straight line determination unit, 12 Intersection point determination unit, 13 Grouping unit, 131 Re-grouping unit, 14 Object position determination , 17 Inter-image plane projection conversion determination unit, 21 On-photographed image conversion line determination unit, 22 Primary intersection determination unit, 23 Primary grouping unit, 24 Primary object position determination unit, 25 Floor plan view determination unit, 33 Secondary grouping unit, 34 Secondary object position determination unit.

Claims (7)

3次元空間内の平面を囲むように設置された複数のカメラにより、平面上の所定領域を異なる方向から撮影して得られる背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用いて平面図上に複数物体の位置を算出する位置計測装置であって、
前記平面上の図形を真上から見た図形に相似する相似平面図を作成する相似平面図作成部と、
前記各テスト画像内の平面と前記相似平面図に基づいて、カメラで撮影した画像と前記相似平面図間の画像・図形間平面射影変換を決定する画像・図形間平面射影変換決定部と、
前記各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する垂直消失点決定部と、
前記各背景画像と前記各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する物体領域抽出部と、
前記抽出された各物体領域の基準にする物体領域内点をそれぞれ決定する物体領域内点決定部と、
画像ごとに前記各物体領域内点と前記垂直消失点を通過する直線を決定する物体通過垂直線決定部と、
全ての画像の前記物体領域内点を通過する直線を、前記平面射影変換に基づいて前記相似平面図上に射影する平面図上直線決定部と、
前記相似平面図上に射影された直線同士の交点を求める交点決定部と、
前記複数の交点を前記相似平面図上の位置に基づいてグループ分けするグルーピング部と、
前記グループ分けされた交点グループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて前記相似平面図上における各物体の正しい位置を算出する物体位置決定部を備えたことを特徴とする位置計測装置。
Using a multi-viewpoint image, each of a background image, a test image, and an image including a plurality of objects, obtained by photographing a predetermined area on the plane from different directions by a plurality of cameras installed so as to surround a plane in a three-dimensional space A position measuring device for calculating the positions of a plurality of objects on a plan view,
A similar plan view creating unit for creating a similar plan view similar to the figure seen from directly above the figure on the plane;
Based on the plane in each test image and the similar plan view, an image / graphic plane projection conversion determining unit for determining an image / figure plane projection conversion between the image taken by the camera and the similar plan view;
A vertical vanishing point determining unit that determines a vertical vanishing point of an image captured by a camera at the same angle based on each test image;
An object region extraction unit that extracts the object region by taking the difference between the background image and the image including the plurality of objects,
An object area inner point determination unit for determining an object area inner point as a reference for each of the extracted object areas;
An object passing vertical line determining unit that determines a straight line passing through each object area internal point and the vertical vanishing point for each image;
A straight line determination unit on a plan view that projects straight lines passing through the points in the object area of all images onto the similar plan view based on the plane projective transformation;
An intersection determination unit for obtaining an intersection of straight lines projected on the similar plan view;
A grouping unit that groups the plurality of intersections based on positions on the similar plan view;
From the grouped intersection groups, an effective intersection group is determined as the position of the object based on the number of intersection points included, and the correctness of each object on the similarity plan is determined based on the intersection in the determined intersection group. A position measurement apparatus comprising an object position determination unit for calculating a position.
グルーピング部は、交点決定部で求めた交点を、隣接する交点間の距離が閾値以下であることを条件としてグループ分けすることを特徴とする請求項1記載の位置計測装置。   The position measuring device according to claim 1, wherein the grouping unit groups the intersections obtained by the intersection determination unit on the condition that a distance between adjacent intersections is equal to or less than a threshold value. 物体位置決定部は、グループ分けされた交点のグループの中から、交点数が多い予め決めた数の上位グループを物体の位置として有効な交点グループと決定し、当該各上位グループに含まれる交点数に基づいてそれぞれの対応する物体の正しい位置を算出することを特徴とする請求項1の位置計測装置。   The object position determination unit determines a predetermined number of upper groups having a large number of intersections from the group of intersection points divided into groups as effective intersection groups as object positions, and the number of intersections included in each of the upper groups. The position measuring device according to claim 1, wherein the correct position of each corresponding object is calculated based on. 物体位置決定部は、カメラで抽出された物体数のうち、最も頻度が多かった物体数を、上位グループの予め決めた数とすることを特徴とする請求項3の位置計測装置。   4. The position measuring apparatus according to claim 3, wherein the object position determination unit sets the number of objects having the highest frequency among the number of objects extracted by the camera as a predetermined number of the upper group. 物体位置決定部で逐次1個単位で物体の正しい位置を算出した交点グループの交点に関係した直線を除き、残りの直線の交点をグループ分けする再グルーピング部を備え、
前記物体位置決定部は、最初はグルーピング部から、以降は前記再グルーピング部から入力されるグループ分けされた交点のグループの中から交点数が最も多いグループを物体の位置として有効な交点グループと決定して、当該有効な交点グループに含まれる交点数に基づいて対応する物体の正しい位置を算出することを特徴とする請求項1記載の位置決定装置。
A regrouping unit for grouping the intersections of the remaining straight lines, except for the straight line related to the intersection of the intersection group, in which the object position determination unit sequentially calculates the correct position of the object in units of 1;
The object position determination unit determines a group having the largest number of intersection points as an effective intersection group from among the grouped intersection groups input from the grouping unit at first and then from the re-grouping unit. The position determination device according to claim 1, wherein the correct position of the corresponding object is calculated based on the number of intersections included in the effective intersection group.
3次元空間内の平面を囲むように設置された複数のカメラにより、平面上の所定領域を異なる方向から撮影して得られる背景画像、テスト画像および複数物体を含む画像のそれぞれ多視点画像を用いて平面図上に複数物体の位置を算出する位置計測装置であって、
前記平面上の図形を真上から見た図形に相似する相似平面図を作成する平面図作成部と、
前記各テスト画像内の平面と前記相似平面図に基づいて、カメラで撮影した画像と前記相似平面図間の画像・図形間平面射影変換を決定する画像・図形間平面射影変換決定部と、
前記各テスト画像内の平面上の図形に基づいてカメラで撮影した各画像間の画像間平面射影変換を決定する画像間平面射影変換決定部と、
前記各テスト画像に基づいて同角度のカメラで撮影した画像の垂直消失点をそれぞれ決定する垂直消失点決定部と、
前記各背景画像と前記各複数物体を含む画像の差分を取って物体領域をそれぞれ抽出する物体領域抽出部と、
前記抽出された各物体領域の基準にする物体領域内点をそれぞれ決定する物体領域内点決定部と、
画像ごとに前記各物体領域内点と前記垂直消失点を通過する直線を決定する物体通過垂直線決定部と、
画像ごとの物体領域内点を通過する直線を、前記画像間平面射影変換に基づいて各画像上にそれぞれ射影する撮影画像上変換直線決定部と、
前記各画像上に変換された直線同士の交点を、それぞれの画像上で求める画像内交点決定部と、
前記各画像上で求めた交点を画像上の位置に基づいてグループ分けする1次グルーピング部と、
前記グループ分けされた交点のグループの中から、含まれる交点数に基づいて物体の位置として有効な交点グループを決定し、決定した交点グループ内の交点に基づいて各画像上における物体の位置を算出する1次物体位置決定部と、
前記各画像上の物体の位置を、前記画像・図形間平面射影変換を用いて前記相似平面図上に射影して物体の位置候補とする平面図位置決定部と、
前記相似平面図上にまとめられた各物体の位置候補を当該相似平面図上の位置に基づいてグループ分けする2次グルーピング部と、
前記グループ分けされた物体の位置候補のグループの中から、含まれる位置候補の数に基づいて正しい物体の位置として有効なグループを決定し、決定したグループ内の物体の位置候補に基づいて前記相似平面図上における各物体の正しい位置を算出する2次物体位置決定部を備えたことを特徴とする位置計測装置。
Using a multi-viewpoint image, each of a background image, a test image, and an image including a plurality of objects, obtained by photographing a predetermined area on the plane from different directions by a plurality of cameras installed so as to surround a plane in a three-dimensional space A position measuring device for calculating the positions of a plurality of objects on a plan view,
A plan view creation unit for creating a similar plan view similar to the figure seen from directly above the figure on the plane;
Based on the plane in each test image and the similar plan view, an image / graphic plane projection conversion determining unit for determining an image / figure plane projection conversion between the image taken by the camera and the similar plan view;
An inter-image plane projective transformation determining unit that determines an inter-image plane projective transformation between each image captured by a camera based on a figure on a plane in each test image;
A vertical vanishing point determining unit that determines a vertical vanishing point of an image captured by a camera at the same angle based on each test image;
An object region extraction unit that extracts the object region by taking the difference between the background image and the image including the plurality of objects,
An object area inner point determination unit for determining an object area inner point as a reference for each of the extracted object areas;
An object passing vertical line determining unit that determines a straight line passing through each object area internal point and the vertical vanishing point for each image;
A straight line passing through a point in the object area for each image, and a projected image conversion straight line determination unit that projects each line on each image based on the inter-plane planar projection conversion;
An in-image intersection determination unit for obtaining an intersection between the straight lines converted on each image on each image;
A primary grouping unit for grouping intersections obtained on each image based on positions on the image;
An effective intersection group is determined as the position of the object based on the number of intersection points included from the group of intersection points, and the position of the object on each image is calculated based on the intersection point in the determined intersection group. A primary object position determination unit that
A plan view position determining unit that projects the position of the object on each image onto the similar plan view using the image-figure plane projective transformation,
A secondary grouping unit that groups the position candidates of the objects collected on the similar plan view based on the positions on the similar plan view;
An effective group is determined as a correct object position based on the number of position candidates included from among the grouped object position candidate groups, and the similarity is determined based on the object position candidates in the determined group. A position measurement apparatus comprising a secondary object position determination unit that calculates a correct position of each object on a plan view.
1次グルーピング部は、画像内交点決定部で求めた交点を、隣接する交点間の距離が閾値以下であることを条件としてグループ分けすることを特徴とする請求項6記載の位置計測装置。   The position measuring device according to claim 6, wherein the primary grouping unit groups the intersections obtained by the intra-image intersection determination unit on condition that a distance between adjacent intersections is equal to or less than a threshold value.
JP2007319604A 2007-12-11 2007-12-11 Position measuring device Pending JP2009145061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007319604A JP2009145061A (en) 2007-12-11 2007-12-11 Position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007319604A JP2009145061A (en) 2007-12-11 2007-12-11 Position measuring device

Publications (1)

Publication Number Publication Date
JP2009145061A true JP2009145061A (en) 2009-07-02

Family

ID=40915836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007319604A Pending JP2009145061A (en) 2007-12-11 2007-12-11 Position measuring device

Country Status (1)

Country Link
JP (1) JP2009145061A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130194428A1 (en) * 2012-01-27 2013-08-01 Qualcomm Incorporated System and method for determining location of a device using opposing cameras
JP2016038320A (en) * 2014-08-08 2016-03-22 株式会社日本自動車部品総合研究所 Position estimation device
KR101796889B1 (en) 2017-01-02 2017-11-13 인하대학교 산학협력단 Method and system for detecting disaster area
US10733774B2 (en) 2014-12-05 2020-08-04 Hanwha Techwin Co., Ltd. Device and method of displaying heat map on perspective drawing
CN114339179A (en) * 2021-12-23 2022-04-12 深圳市火乐科技发展有限公司 Projection correction method, projection correction device, storage medium and projection equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130194428A1 (en) * 2012-01-27 2013-08-01 Qualcomm Incorporated System and method for determining location of a device using opposing cameras
US9986208B2 (en) * 2012-01-27 2018-05-29 Qualcomm Incorporated System and method for determining location of a device using opposing cameras
JP2016038320A (en) * 2014-08-08 2016-03-22 株式会社日本自動車部品総合研究所 Position estimation device
US10733774B2 (en) 2014-12-05 2020-08-04 Hanwha Techwin Co., Ltd. Device and method of displaying heat map on perspective drawing
KR101796889B1 (en) 2017-01-02 2017-11-13 인하대학교 산학협력단 Method and system for detecting disaster area
CN114339179A (en) * 2021-12-23 2022-04-12 深圳市火乐科技发展有限公司 Projection correction method, projection correction device, storage medium and projection equipment
CN114339179B (en) * 2021-12-23 2024-05-28 深圳市火乐科技发展有限公司 Projection correction method, apparatus, storage medium and projection device

Similar Documents

Publication Publication Date Title
CN103052968B (en) Article detection device and object detecting method
CN111815707B (en) Point cloud determining method, point cloud screening method, point cloud determining device, point cloud screening device and computer equipment
KR101121034B1 (en) System and method for obtaining camera parameters from multiple images and computer program products thereof
KR101759798B1 (en) Method, device and system for generating an indoor two dimensional plan view image
Rashidi et al. Generating absolute-scale point cloud data of built infrastructure scenes using a monocular camera setting
TWI491849B (en) Video object localization method using multiple cameras
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP4906683B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
CN109035327B (en) Panoramic camera pose estimation method based on deep learning
JP2011198330A (en) Method and program for collation in three-dimensional registration
JP5439277B2 (en) Position / orientation measuring apparatus and position / orientation measuring program
CN108537214A (en) An automatic construction method of indoor semantic map
JP2009145061A (en) Position measuring device
CN111489384A (en) Occlusion assessment method, device, equipment, system and medium based on mutual view
CN109255809A (en) A kind of light field image depth estimation method and device
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
JP2018195070A (en) Information processing apparatus, information processing method, and program
CN111091594B (en) Multi-point cloud plane fusion method and device
JP4886661B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
JP4283816B2 (en) Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method
JP4675368B2 (en) Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program
JP2006350465A (en) Image matching device, image matching method, and program for image matching
KR101980899B1 (en) Apparatus for detecting of inside wall frame in single image using orthogonal vanishing points and method thereof
CN118154728A (en) Real-time generation method of bird&#39;s-eye view of sports events with dynamic perspective