[go: up one dir, main page]

JP2016091391A - Corresponding point search device, corresponding point search program, and corresponding point search method - Google Patents

Corresponding point search device, corresponding point search program, and corresponding point search method Download PDF

Info

Publication number
JP2016091391A
JP2016091391A JP2014226566A JP2014226566A JP2016091391A JP 2016091391 A JP2016091391 A JP 2016091391A JP 2014226566 A JP2014226566 A JP 2014226566A JP 2014226566 A JP2014226566 A JP 2014226566A JP 2016091391 A JP2016091391 A JP 2016091391A
Authority
JP
Japan
Prior art keywords
point
dimensional model
sampling
feature amount
sampling points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014226566A
Other languages
Japanese (ja)
Other versions
JP6441032B2 (en
Inventor
祐介 吉安
Yusuke Yoshiyasu
祐介 吉安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2014226566A priority Critical patent/JP6441032B2/en
Publication of JP2016091391A publication Critical patent/JP2016091391A/en
Application granted granted Critical
Publication of JP6441032B2 publication Critical patent/JP6441032B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the search accuracy of a correspondence point search device.SOLUTION: The correspondence point search device includes: a storage unit for storing the position information and connection information of each point of three-dimensional models comprising a point group; a sampling point determination unit for determining a plurality of sampling points in the point group about each of the three-dimensional models; a feature amount calculation unit for using the position information and connection information of each sampling point to calculate the feature amount of each sampling point; a similarity calculation unit for calculating the similarity between sampling points with each other of two three-dimensional models on the basis of the feature amount; and a correspondence point determination unit for determining a point corresponding to each sampling point of a first three-dimensional model among sampling points of a second three-dimensional model on the basis of the similarity. The feature amount calculation unit constructs a local depth image in a coordinate system of a virtual camera with a normal direction on a curve surface of a three-dimensional model as a Z direction, and with a gradient direction of an average diffusion length on the curve surface as a Y direction in each sampling point, and calculates a feature amount by using the depth of each pixel included in the local depth image.SELECTED DRAWING: Figure 1

Description

本発明は、3次元モデル同士での対応点の探索処理に関するものである。   The present invention relates to search processing for corresponding points between three-dimensional models.

従来、3次元の位置情報を持つ点群からなる3次元モデル同士での各点のマッチング処理、つまり、2つの3次元モデル間での対応点の探索処理が行われている。   Conventionally, matching processing of points between three-dimensional models composed of point groups having three-dimensional position information, that is, search processing of corresponding points between two three-dimensional models has been performed.

3次元モデルの対応点の探索処理においては、3次元モデルを構成する点群の各点の局所特徴量を算出し、各点同士の特徴量の類似度に基づいて対応点の探索が行われる。ここで、局所特徴量の例としては、例えば、Spin ImageやLocal Depth SIFTが提案されている(例えば「非特許文献1」参照)。   In the corresponding point search process of the three-dimensional model, the local feature amount of each point of the point group constituting the three-dimensional model is calculated, and the corresponding point is searched based on the similarity of the feature amount between the points. . Here, as examples of the local feature amount, for example, Spin Image and Local Depth SIFT have been proposed (see, for example, “Non-Patent Document 1”).

しかし、従来から提案されている局所特徴量は、特徴量の方向も3次元モデルの局所的な領域の点群の長軸方向など、局所的な領域の形状の特徴を用いて算出されるため、3次元モデルを構成する点群の各点の位置情報などの欠損や、3次元モデルの局所的な変形がある(例えば、人間の全身の3次元モデルの場合、対比する3次元モデル同士で腕の向きが異なっている)と、探索精度(マッチング精度)が低下してしまう。   However, the conventionally proposed local feature amount is calculated by using the feature of the shape of the local region, such as the long axis direction of the point group of the local region of the three-dimensional model. There are defects such as position information of each point of the point group constituting the 3D model and local deformation of the 3D model (for example, in the case of a 3D model of a whole human body, If the directions of the arms are different), the search accuracy (matching accuracy) is lowered.

Tal Darom and Yosi Keller, “Scale Invariant Features for 3D Mesh Models”. IEEE Transactions on Image Processing, vol.21, no.5, pp.2758-2769, May 2012.Tal Darom and Yosi Keller, “Scale Invariant Features for 3D Mesh Models”. IEEE Transactions on Image Processing, vol.21, no.5, pp.2758-2769, May 2012.

本発明は、以上のような従来技術の問題点を解消するためになされたもので、対応点の探索精度を向上させることができる、対応点探索装置と対応点探索プログラム並びに対応点探索方法を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and provides a corresponding point search device, a corresponding point search program, and a corresponding point search method capable of improving the corresponding point search accuracy. The purpose is to provide.

本発明は、点群から構成される第1の3次元モデルと第2の3次元モデルとの各点の位置情報と接続情報とが記憶される記憶部と、3次元モデルのそれぞれについて、点群の中から複数のサンプリング点を決定するサンプリング点決定部と、記憶部に記憶されているサンプリング点ごとの位置情報と接続情報とを用いて、サンプリング点ごとの特徴量を算出する特徴量算出部と、特徴量に基づいて、第1の3次元モデルのサンプリング点と第2の3次元モデルのサンプリング点同士の類似度を算出する類似度算出部と、類似度に基づいて、第1の3次元モデルの各サンプリング点に対応する点を第2の3次元モデルのサンプリング点の中から決定する対応点決定部と、を有してなり、特徴量算出部は、サンプリング点ごとに、3次元モデルの曲面上での法線方向をZ方向、曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、局所深度画像に含まれる各画素の深度を用いて特徴量を算出する、ことを特徴とする。   The present invention relates to a storage unit in which position information and connection information of each point of the first three-dimensional model and the second three-dimensional model composed of point groups are stored, and a point for each of the three-dimensional models. A feature value calculator that calculates a feature value for each sampling point using a sampling point determination unit that determines a plurality of sampling points from the group, and position information and connection information for each sampling point stored in the storage unit A similarity calculation unit that calculates the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount, and the first based on the similarity A corresponding point determination unit that determines points corresponding to the respective sampling points of the three-dimensional model from the sampling points of the second three-dimensional model. Dimensional model A local depth image is constructed in the virtual camera coordinate system in which the normal direction on the surface is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction, and the depth of each pixel included in the local depth image is determined. The feature amount is calculated using the feature.

本発明によれば、対応点の探索精度を向上させることができる。   According to the present invention, it is possible to improve the search accuracy for corresponding points.

本発明にかかる対応点探索装置の実施の形態を示す機能ブロック図である。It is a functional block diagram which shows embodiment of the corresponding point search apparatus concerning this invention. 同装置に記憶されるサンプリング点と接続情報の例を示す模式図である。It is a schematic diagram which shows the example of the sampling point and connection information which are memorize | stored in the same apparatus. 対比される2つの3次元モデルの例を示す模式図である。It is a schematic diagram which shows the example of two three-dimensional models compared. 本発明にかかる対応点探索方法の実施の形態を示すフローチャートである。It is a flowchart which shows embodiment of the corresponding point search method concerning this invention. 上記対応点探索方法における各サンプリング点の特徴量の算出処理の例を示すフローチャートである。It is a flowchart which shows the example of the calculation process of the feature-value of each sampling point in the said corresponding point search method. 平均拡散距離(ADD)の例を示す模式図である。It is a schematic diagram which shows the example of average diffusion distance (ADD). 上記特徴量の算出処理において算出されるADDの勾配方向の例を示す模式図である。It is a schematic diagram which shows the example of the gradient direction of ADD calculated in the calculation process of the said feature-value. 上記特徴量の算出処理において構築される局所深度画像が透視投影される投影面と、透視投影に用いられる仮想カメラのカメラ中心と、3次元モデルと、の位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of the projection surface on which the local depth image constructed | assembled in the said feature-value calculation process is perspectively projected, the camera center of the virtual camera used for perspective projection, and a three-dimensional model.

以下、本発明にかかる対応点探索装置(以下「本装置」という。)と対応点探索プログラム(以下「本プログラム」という。)並びに対応点探索方法(以下「本方法」という。)の実施の形態について、図面を参照しながら説明する。   Hereinafter, a corresponding point search apparatus (hereinafter referred to as “this apparatus”), a corresponding point search program (hereinafter referred to as “this program”), and a corresponding point search method (hereinafter referred to as “this method”) according to the present invention are implemented. The form will be described with reference to the drawings.

●本装置
図1は、本装置の実施の形態を示す機能ブロック図である。本装置10は、サンプリング点決定部11、特徴量算出部12、類似度算出部13、対応点決定部14、記憶部15、を有してなる。
FIG. 1 is a functional block diagram showing an embodiment of the present apparatus. The apparatus 10 includes a sampling point determination unit 11, a feature amount calculation unit 12, a similarity calculation unit 13, a corresponding point determination unit 14, and a storage unit 15.

ここで、本装置10は、パーソナルコンピュータなどの情報処理装置により実現される。後述する本方法は、本装置10で動作する本プログラムが本装置10を構成するハードウェア資源と協働することで、本装置10により実行される。   Here, the apparatus 10 is realized by an information processing apparatus such as a personal computer. This method, which will be described later, is executed by the apparatus 10 when the program operating on the apparatus 10 cooperates with the hardware resources constituting the apparatus 10.

なお、本装置10とは別の情報処理装置で本プログラムを動作させることで、同情報処理装置を本装置10と同様に機能させて、本方法を実行させることができる。   In addition, by operating the program on an information processing apparatus different from the apparatus 10, the information processing apparatus can function in the same manner as the apparatus 10 to execute the method.

記憶部15は、位置情報、接続情報、その他後述する本装置1が本方法を実現するために必要な情報が記憶される手段である。   The storage unit 15 is a means for storing position information, connection information, and other information necessary for the apparatus 1 to be described later to implement the method.

位置情報とは、3次元モデルを構成する点群の各点の3次元座標の情報である。   The position information is information on the three-dimensional coordinates of each point of the point group constituting the three-dimensional model.

接続情報とは、3次元モデルを構成する点群の各点同士の接続状態(後述する三角形のメッシュの切り方)を示す情報である。   The connection information is information indicating a connection state (how to cut a triangular mesh to be described later) between points of a point group constituting the three-dimensional model.

記憶部15には、3次元モデルを構成する点群の点ごとの位置情報と接続情報とが記憶されている。   The storage unit 15 stores position information and connection information for each point of the point group constituting the three-dimensional model.

サンプリング点決定部11は、3次元モデルを構成する点群の中からサンプリング点を決定する(抽出する)手段である。サンプリング点の決定方法としては、例えば、farthest point samplingなどの手法を用いる。   The sampling point determination unit 11 is means for determining (extracting) sampling points from the point group constituting the three-dimensional model. As a sampling point determination method, for example, a method such as farthest point sampling is used.

サンプリング点とは、3次元モデルを構成する点群のうち、対応点の探索の対象とする点である。   Sampling points are points to be searched for corresponding points in a point group constituting a three-dimensional model.

図2は、人間の全身の3次元モデルを例とした、サンプリング点と接続情報(メッシュ)の例を示す模式図であり、同図(b)は同図(a)の矩形で囲まれた部分を抜き出したものである。同図は、3次元モデルを構成する点群の各点のうち、隣接する点同士を線で繋いで描画してある。すなわち、三角形のメッシュの各辺は、隣接する頂点同士を結ぶ線である。また、同図において、三角形のメッシュの頂点、つまり、3次元モデルを構成する点群の各点のうち丸印が付してある点は、サンプリング点として決定された点である。   FIG. 2 is a schematic diagram showing an example of sampling points and connection information (mesh) taking a three-dimensional model of a human whole body as an example, and FIG. 2B is surrounded by a rectangle in FIG. The part is extracted. In the figure, among the points of the point group constituting the three-dimensional model, adjacent points are connected by lines. That is, each side of the triangular mesh is a line connecting adjacent vertices. Also, in the same figure, the vertices of the triangular mesh, that is, the points marked with a circle among the points of the point group constituting the three-dimensional model are points determined as sampling points.

図3は、対比される2つの3次元モデルの例を示す模式図である。同図には、人間の全身の3次元モデルが示されていて、同図(a)の3次元モデルではサンプリング点1,2,3,4,5,6の6点が決定され、同図(b)の3次元モデルではサンプリング点a,b,c,d,e,fの6点が決定されていることを示している。   FIG. 3 is a schematic diagram illustrating an example of two three-dimensional models to be compared. In the figure, a three-dimensional model of the whole human body is shown. In the three-dimensional model in FIG. 6A, six sampling points 1, 2, 3, 4, 5, 6 are determined. In the three-dimensional model (b), six points of sampling points a, b, c, d, e, and f are determined.

なお、各3次元モデルを構成する点群の中から決定されるサンプリング点の数(図3に示した例では「6」)を示す情報は、あらかじめ、本装置10に設定(記憶部15に記憶)されている。   Information indicating the number of sampling points (“6” in the example shown in FIG. 3) determined from the point group constituting each three-dimensional model is set in the apparatus 10 in advance (in the storage unit 15). Remembered).

特徴量算出部12は、頂点ごとの位置情報と接続情報とを用いて、サンプリング点の特徴量を算出する手段である。特徴量とその算出方法については、後述する。   The feature amount calculation unit 12 is a means for calculating the feature amount of the sampling point using the position information and connection information for each vertex. The feature amount and its calculation method will be described later.

類似度算出部13は、サンプリング点同士の類似度を算出する手段である。類似度とその算出方法については、後述する。   The similarity calculation unit 13 is a means for calculating the similarity between sampling points. The similarity and its calculation method will be described later.

対応点決定部14は、対応点を決定する手段である。   The corresponding point determination unit 14 is a means for determining a corresponding point.

対応点とは、対比する2つの3次元モデルのうち、一方の3次元モデルのサンプリング点に対応する、他方の3次元モデルのサンプリング点のことである。すなわち、図3に示した例において、同図(a)のサンプリング点ごとに、同図(b)のサンプリング点のいずれかが対応点として決定される。つまり、例えば、同図(a)のサンプリング点1の対応点は、同図(b)のサンプリング点a,b,c,d,e,fのいずれかである。   The corresponding point is a sampling point of the other three-dimensional model corresponding to a sampling point of one of the two three-dimensional models to be compared. That is, in the example shown in FIG. 3, for each sampling point in FIG. 3A, one of the sampling points in FIG. 3B is determined as a corresponding point. That is, for example, the corresponding point of the sampling point 1 in FIG. 5A is one of the sampling points a, b, c, d, e, and f in FIG.

なお、一方の3次元モデルのサンプリング点に対応する対応点が他方の3次元モデルに存在しない、という解(場合)もあり得る。   Note that there may be a solution (case) in which a corresponding point corresponding to a sampling point of one three-dimensional model does not exist in the other three-dimensional model.

対応点の決定方法については、後述する。   A method for determining the corresponding points will be described later.

●本方法
図4は、本方法の実施の形態を示すフローチャートである。
先ず、本装置10は、対比する2つの3次元モデルごとに、それぞれを構成する点群の位置情報と接続情報とを記憶部15から読み出して、点群の中からサンプリング点を決定する(S1)。
[Method] FIG. 4 is a flowchart showing an embodiment of the method.
First, for each of the two three-dimensional models to be compared, the apparatus 10 reads the position information and connection information of the point groups constituting each of them from the storage unit 15, and determines sampling points from the point groups (S1). ).

次いで、本装置10は、決定されたサンプリング点ごとの特徴量を算出する(S2)。   Next, the apparatus 10 calculates a feature amount for each determined sampling point (S2).

図5は、サンプリング点ごとの特徴量の算出処理の例を示すフローチャートである。
先ず、本装置10は、対比する2つの3次元モデルごとに、構成する点群の位置情報と接続情報とを記憶部15から読み出す(S21)。
FIG. 5 is a flowchart illustrating an example of a feature amount calculation process for each sampling point.
First, the present apparatus 10 reads position information and connection information of the constituent point groups from the storage unit 15 for each of the two three-dimensional models to be compared (S21).

なお、読み出し処理(S21)では、前述のサンプリング点の決定処理(S1)で記憶部15から読み出された位置情報と接続情報とを利用するように代えてもよい。この場合、これらの情報を処理(S1)とは別に改めて記憶部15から読み出さなくて済む。   In the reading process (S21), the position information and the connection information read from the storage unit 15 in the above-described sampling point determination process (S1) may be used. In this case, it is not necessary to read these information from the storage unit 15 separately from the processing (S1).

次いで、本装置10は、3次元モデルごとに、各サンプリング点の法線方向を、その3次元モデルのすべての頂点の位置情報と接続情報とを用いて決定する(S22)。   Next, the apparatus 10 determines, for each 3D model, the normal direction of each sampling point using the position information and connection information of all the vertices of the 3D model (S22).

次いで、本装置10は、3次元モデルごとに、各サンプリング点の平均拡散距離(ADD:Average Diffusion Distance)の勾配方向を決定する(S23)。   Next, the apparatus 10 determines the gradient direction of the average diffusion distance (ADD) of each sampling point for each three-dimensional model (S23).

ADDの勾配方向を決定するにあたり、本装置10は、先ず、頂点ごとに、同じ3次元モデルの他のすべてのサンプリング点との拡散距離(Diffusion Distance)を算出した上で、算出された各サンプリング点との拡散距離の平均値をADDとして算出する。   In determining the ADD gradient direction, the apparatus 10 first calculates a diffusion distance from all other sampling points of the same three-dimensional model for each vertex, and then calculates each sampling. The average value of the diffusion distance with the point is calculated as ADD.

拡散距離(Diffusion Distance)とは、グラフ構造の接続の強さを表す距離である。拡散距離は、接続が強いと距離が小さく(近く)なり、接続が弱いと距離が大きく(遠く)なる。拡散距離は、測地線距離とほぼ同じように、曲面の表面上の最短距離を測るが、測地線よりもノイズやデータ欠損に頑健である。2点x,y間の拡散距離dは、以下の式により算出することができる。 The diffusion distance is a distance representing the connection strength of the graph structure. When the connection is strong, the diffusion distance is small (near), and when the connection is weak, the distance is large (far). The diffusion distance measures the shortest distance on the surface of the curved surface, almost the same as the geodesic distance, but is more robust to noise and data loss than the geodesic line. The diffusion distance d D between the two points x and y can be calculated by the following equation.

Figure 2016091391
Figure 2016091391

なお、グラフラプラシアン行列は、頂点ごとの位置座標と接続関係とから求めることができる。   The graph Laplacian matrix can be obtained from the position coordinates for each vertex and the connection relationship.

ADDは、3次元モデルの中心領域が低く、3次元モデルの末端領域が高い、スカラー場である。   ADD is a scalar field where the central area of the 3D model is low and the end area of the 3D model is high.

図6は、人間の全身の3次元モデルの場合のADDの例を示す模式図である。同図は、全身の中心に位置するへそ辺りのADDが低く、全身の末端に位置する手足の指先や頭頂部辺りのADDが高いことを示している。   FIG. 6 is a schematic diagram illustrating an example of ADD in the case of a three-dimensional model of a human whole body. The figure shows that the ADD around the navel located at the center of the whole body is low, and the ADD around the fingertips and the top of the head located at the end of the whole body is high.

図7は、ADDの勾配方向の例を示す模式図である。同図は、ADDの勾配方向の算出の対象となるサンプリング点を図の中央に表示し、このサンプリング点と接続している他の頂点が6点存在することを示している。   FIG. 7 is a schematic diagram illustrating an example of the ADD gradient direction. The figure shows the sampling point that is the object of calculation of the ADD gradient direction in the center of the figure, and shows that there are six other vertices connected to this sampling point.

本装置1は、サンプリング点ごとに、サンプリング点と接続している他の頂点のADDの勾配方向を下記の式で算出する。

ADDの勾配方向=(V1+V2+・・・+Vn)/n
The apparatus 1 calculates the ADD gradient direction of the other vertex connected to the sampling point for each sampling point by the following equation.

ADD gradient direction = (V1 + V2 +... + Vn) / n

ここで、nは、ADDの勾配方向の算出対象のサンプリング点と接続している他の頂点の数であり、図7に示した例ではn=6である。
また、V1,V2,・・・,Vnは、ADDの勾配方向の算出対象のサンプリング点と、このサンプリング点に接続する他の頂点それぞれを結ぶ辺の勾配ベクトルであり、下記の式で算出される。

V1=(a1−a0)e1
V2=(a2−a0)e2
・・・
Vn=(an−a0)en
Here, n is the number of other vertices connected to the sampling point to be calculated in the gradient direction of ADD, and n = 6 in the example shown in FIG.
Further, V1, V2,..., Vn are gradient vectors of sides connecting the sampling points for calculation of the ADD gradient direction and other vertices connected to the sampling points, and are calculated by the following equations. The

V1 = (a1-a0) e1
V2 = (a2-a0) e2
...
Vn = (an−a0) en

なお、a0,・・・,anは、各点のADDの値である。
また、e0,・・・,enは、ADDの勾配方向の算出対象のサンプリング点と他の頂点とを結ぶ各辺の単位方向(ベクトル)の値であり、x0,・・・,xnを各点の3次元座標(3次元位置)とすると、下記の式で算出される。

e1=(x1−x0)/|x1−x0|
e2=(x2−x0)/|x2−x0|
・・・
en=(xn−x0)/|xn−x0|
Note that a0,..., An are ADD values of the respective points.
E0,..., En are values in the unit direction (vector) of each side connecting the sampling point to be calculated in the ADD gradient direction and other vertices, and x0,. Assuming the three-dimensional coordinates (three-dimensional position) of the point, the following formula is used.

e1 = (x1-x0) / | x1-x0 |
e2 = (x2-x0) / | x2-x0 |
...
en = (xn-x0) / | xn-x0 |

図5に戻る。
本装置10は、サンプリング点ごとに、局所深度画像を構築する(S24)。
図8は、3次元モデルと、局所深度画像が透視投影される投影面と、仮想カメラの座標系のカメラ中心、との位置関係を示す模式図である。
Returning to FIG.
The apparatus 10 constructs a local depth image for each sampling point (S24).
FIG. 8 is a schematic diagram showing the positional relationship between the three-dimensional model, the projection plane on which the local depth image is perspectively projected, and the camera center of the virtual camera coordinate system.

ここで、仮想カメラの座標系は、サンプリング点ごとに、前述の法線方向をZ方向、前述のADDの勾配方向をY方向として設定する。サンプリング点から仮想カメラのカメラ中心までの距離は、局所深度画像に入る3次元モデルの局所領域の大きさを決める(距離が大きければ範囲が広く、距離が小さければ範囲が狭い)。サンプリング点ごとの局所深度画像の解像度(例えば、50×50ピクセル)は、サンプリング点ごとに一定である。サンプリング点からカメラ中心までの距離と局所深度画像の解像度を示す情報は、あらかじめ、本装置10に設定されている(記憶部15に記憶されている)。   Here, the coordinate system of the virtual camera sets, for each sampling point, the aforementioned normal direction as the Z direction and the aforementioned ADD gradient direction as the Y direction. The distance from the sampling point to the camera center of the virtual camera determines the size of the local area of the three-dimensional model that enters the local depth image (the range is wide if the distance is large, and the range is narrow if the distance is small). The resolution (for example, 50 × 50 pixels) of the local depth image for each sampling point is constant for each sampling point. Information indicating the distance from the sampling point to the center of the camera and the resolution of the local depth image is set in the apparatus 10 in advance (stored in the storage unit 15).

局所深度画像は、カメラ中心から3次元モデルの各頂点(同図中、P,Q,R)を結ぶ線が、カメラ中心と3次元モデルとの間に設定される投射面と交差する点(同図中、P’,Q’,R’)を用いて構築される。   In the local depth image, a line connecting the vertexes of the three-dimensional model (P, Q, R in the figure) from the camera center intersects with a projection plane set between the camera center and the three-dimensional model ( In the figure, it is constructed using P ′, Q ′, R ′).

局所深度画像の各ピクセルでの値は、そこでのZ方向の大きさ、つまり、カメラ中心から各頂点までのZ方向の距離(同図中、dP,dQ,dR)である。   The value at each pixel of the local depth image is the size in the Z direction, that is, the distance in the Z direction from the camera center to each vertex (dP, dQ, dR in the figure).

図5に戻る。
本装置10は、サンプリング点ごとに、特徴量を算出する(S25)。サンプリング点ごとの特徴量は、サンプリング点ごとに構築された局所深度画像に含まれる各ピクセルの値の集合(50×50の画像行列をベクトルとして表す)である。
Returning to FIG.
The apparatus 10 calculates a feature amount for each sampling point (S25). The feature amount for each sampling point is a set of values of each pixel included in the local depth image constructed for each sampling point (a 50 × 50 image matrix is represented as a vector).

図4に戻る。
本装置10は、対比する2つの3次元モデルのそれぞれのサンプリング点のすべての組み合わせごとに、サンプリング点間の類似度(ユークリッドノルム)を算出する(S3)。すなわち、図3に示した例においては、同図(a)のサンプリング点1と同図(b)の各サンプリング点a,b,c,d,e,fとの類似度、同図(a)のサンプリング点2と同図(b)の各サンプリング点a,b,c,d,e,fとの類似度、・・・、同図(a)のサンプリング点と同図(b)の各サンプリング点a,b,c,d,e,fとの類似度を算出する。
Returning to FIG.
The apparatus 10 calculates the similarity (Euclidean norm) between the sampling points for every combination of the respective sampling points of the two three-dimensional models to be compared (S3). That is, in the example shown in FIG. 3, the similarity between the sampling point 1 in FIG. 3A and the sampling points a, b, c, d, e, and f in FIG. ) Of the sampling point 2 and the sampling points a, b, c, d, e, and f of FIG. 6B,...,... And the sampling point of FIG. The similarity to each sampling point a, b, c, d, e, f is calculated.

次いで、本装置10は、対比する2つの3次元モデルのサンプリング点間のマッチング、つまり、一方の3次元モデルのサンプリング点(例えば、図3(a)に示したサンプリング点1,2,3,4,5,6)と、他方の3次元モデルのサンプリング点(例えば、図3(b)に示したサンプリング点a,b,c,d,e,f)との対応付けを行う(S4)。この対応付けは、例えば、ハンガリアン法を用いて行い、対比する2つの3次元モデルのサンプリング点同士の1対1の対応のマッチング結果を得る。   Next, the apparatus 10 matches the sampling points of the two three-dimensional models to be compared, that is, the sampling points of one three-dimensional model (for example, the sampling points 1, 2, 3, and 3 shown in FIG. 3A). 4, 5, 6) and the other three-dimensional model sampling points (for example, sampling points a, b, c, d, e, f shown in FIG. 3B) are associated (S4). . This association is performed using, for example, the Hungarian method, and a one-to-one correspondence matching result between the sampling points of the two three-dimensional models to be compared is obtained.

●まとめ
以上説明した実施の形態によれば、3次元モデルの大域的な情報から算出されるADDの勾配方向を用いた座標系において局所深度画像を構築し、この局所深度画像から算出された特徴量を用いて対応点を探索するため、3次元モデルの局所的な情報のみを用いて行う従来の探索に比べて、局所的な変形に頑健な探索が可能となり、探索精度を向上させることができる。
● Summary According to the embodiment described above, the local depth image is constructed in the coordinate system using the gradient direction of the ADD calculated from the global information of the three-dimensional model, and the feature calculated from the local depth image Since the corresponding points are searched using the quantity, the search can be robust against local deformation and the search accuracy can be improved as compared with the conventional search performed using only the local information of the three-dimensional model. it can.

ここで、これまで説明した本装置の特徴について、以下にまとめて記載しておく。   Here, the features of the present apparatus described so far are collectively described below.

(特徴1)
点群から構成される第1の3次元モデルと第2の3次元モデルとの各点の位置情報と接続情報とが記憶される記憶部と、
前記3次元モデルのそれぞれについて、前記点群の中から複数のサンプリング点を決定するサンプリング点決定部と、
前記記憶部に記憶されている前記サンプリング点ごとの位置情報と接続情報とを用いて、前記サンプリング点ごとの特徴量を算出する特徴量算出部と、
前記特徴量に基づいて、前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度を算出する類似度算出部と、
前記類似度に基づいて、前記第1の3次元モデルの各サンプリング点に対応する点を前記第2の3次元モデルのサンプリング点の中から決定する対応点決定部と、
を有してなり、
前記特徴量算出部は、サンプリング点ごとに、
3次元モデルの曲面上での法線方向をZ方向、前記曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、
前記局所深度画像に含まれる各画素の深度を用いて特徴量を算出する、
ことを特徴とする対応点探索装置。
(Feature 1)
A storage unit for storing position information and connection information of each point of the first three-dimensional model and the second three-dimensional model configured by point groups;
For each of the three-dimensional models, a sampling point determination unit that determines a plurality of sampling points from the point group;
A feature amount calculation unit that calculates a feature amount for each sampling point using the position information and connection information for each sampling point stored in the storage unit;
A similarity calculation unit that calculates the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount;
A corresponding point determination unit that determines a point corresponding to each sampling point of the first three-dimensional model from sampling points of the second three-dimensional model based on the similarity;
Having
The feature amount calculation unit, for each sampling point,
Constructing a local depth image in the coordinate system of the virtual camera in which the normal direction on the curved surface of the three-dimensional model is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction,
A feature amount is calculated using the depth of each pixel included in the local depth image.
Corresponding point search device characterized by the above.

(特徴2)
前記特徴量算出部は、前記3次元モデルごとに、
サンプリング点ごとの他のサンプリング点までの拡散距離を算出し、
前記サンプリグ点ごとの前記拡散距離の平均値を前記サンプリング点の前記平均拡散距離として算出する、
特徴1記載の対応点探索装置。
(Feature 2)
The feature amount calculation unit is configured for each of the three-dimensional models.
Calculate the diffusion distance to other sampling points for each sampling point,
An average value of the diffusion distance for each sampling point is calculated as the average diffusion distance of the sampling points.
Corresponding point search device according to feature 1.

(特徴3)
前記特徴量算出部は、前記サンプリング点ごとに、前記平均拡散距離を用いて、前記平均拡散距離の勾配方向を算出する、
特徴2記載の対応点探索装置。
(Feature 3)
The feature amount calculation unit calculates a gradient direction of the average diffusion distance using the average diffusion distance for each sampling point.
Corresponding point search device according to feature 2.

(特徴4)
前記特徴量算出部は、前記仮想カメラの座標系のカメラ中心と前記3次元モデルの曲面上との間の投影面に透視投影された画像を、前記局所深度画像として構築する、
特徴1乃至3のいずれかに記載の対応点探索装置。
(Feature 4)
The feature amount calculation unit constructs, as the local depth image, an image that is perspective-projected on a projection plane between the camera center of the coordinate system of the virtual camera and the curved surface of the three-dimensional model;
The corresponding point search device according to any one of features 1 to 3.

(特徴5)
前記類似度算出部は、
前記第1の3次元モデルのサンプリング点の特徴量と前記第2の3次元モデルのサンプリング点同士のユークリッド距離を、
前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度として算出する、
特徴1乃至4のいずれかに記載の対応点探索装置。
(Feature 5)
The similarity calculation unit includes:
The feature amount of the sampling point of the first three-dimensional model and the Euclidean distance between the sampling points of the second three-dimensional model,
Calculating the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model;
The corresponding point search device according to any one of features 1 to 4.

10 対応点探索装置
11 サンプリング点決定部
12 特徴量算出部
13 類似度算出部
14 対応点決定部
15 記憶部

DESCRIPTION OF SYMBOLS 10 Corresponding point search apparatus 11 Sampling point determination part 12 Feature-value calculation part 13 Similarity calculation part 14 Corresponding point determination part 15 Memory | storage part

Claims (7)

点群から構成される第1の3次元モデルと第2の3次元モデルとの各点の位置情報と接続情報とが記憶される記憶部と、
前記3次元モデルのそれぞれについて、前記点群の中から複数のサンプリング点を決定するサンプリング点決定部と、
前記記憶部に記憶されている前記サンプリング点ごとの位置情報と接続情報とを用いて、前記サンプリング点ごとの特徴量を算出する特徴量算出部と、
前記特徴量に基づいて、前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度を算出する類似度算出部と、
前記類似度に基づいて、前記第1の3次元モデルの各サンプリング点に対応する点を前記第2の3次元モデルのサンプリング点の中から決定する対応点決定部と、
を有してなり、
前記特徴量算出部は、サンプリング点ごとに、
3次元モデルの曲面上での法線方向をZ方向、前記曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、
前記局所深度画像に含まれる各画素の深度を用いて特徴量を算出する、
ことを特徴とする対応点探索装置。
A storage unit for storing position information and connection information of each point of the first three-dimensional model and the second three-dimensional model configured by point groups;
For each of the three-dimensional models, a sampling point determination unit that determines a plurality of sampling points from the point group;
A feature amount calculation unit that calculates a feature amount for each sampling point using the position information and connection information for each sampling point stored in the storage unit;
A similarity calculation unit that calculates the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount;
A corresponding point determination unit that determines a point corresponding to each sampling point of the first three-dimensional model from sampling points of the second three-dimensional model based on the similarity;
Having
The feature amount calculation unit, for each sampling point,
Constructing a local depth image in the coordinate system of the virtual camera in which the normal direction on the curved surface of the three-dimensional model is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction,
A feature amount is calculated using the depth of each pixel included in the local depth image.
Corresponding point search device characterized by the above.
前記特徴量算出部は、前記3次元モデルごとに、
サンプリング点ごとの他のサンプリング点までの拡散距離を算出し、
前記サンプリグ点ごとの前記拡散距離の平均値を前記サンプリング点の前記平均拡散距離として算出する、
請求項1記載の対応点探索装置。
The feature amount calculation unit is configured for each of the three-dimensional models.
Calculate the diffusion distance to other sampling points for each sampling point,
An average value of the diffusion distance for each sampling point is calculated as the average diffusion distance of the sampling points.
The corresponding point search apparatus according to claim 1.
前記特徴量算出部は、前記サンプリング点ごとに、前記平均拡散距離を用いて、前記平均拡散距離の勾配方向を算出する、
請求項2記載の対応点探索装置。
The feature amount calculation unit calculates a gradient direction of the average diffusion distance using the average diffusion distance for each sampling point.
The corresponding point search apparatus according to claim 2.
前記特徴量算出部は、前記仮想カメラの座標系のカメラ中心と前記3次元モデルの曲面上との間の投影面に透視投影された画像を、前記局所深度画像として構築する、
請求項1乃至3のいずれかに記載の対応点探索装置。
The feature amount calculation unit constructs, as the local depth image, an image that is perspective-projected on a projection plane between the camera center of the coordinate system of the virtual camera and the curved surface of the three-dimensional model;
The corresponding point search apparatus according to claim 1.
前記類似度算出部は、
前記第1の3次元モデルのサンプリング点の特徴量と前記第2の3次元モデルのサンプリング点同士のユークリッド距離を、
前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度として算出する、
請求項1乃至4のいずれかに記載の対応点探索装置。
The similarity calculation unit includes:
The feature amount of the sampling point of the first three-dimensional model and the Euclidean distance between the sampling points of the second three-dimensional model,
Calculating the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model;
The corresponding point search apparatus according to claim 1.
コンピュータを、請求項1乃至5のいずれかに記載の対応点探索装置として機能させることを特徴とする対応点探索プログラム。   6. A corresponding point search program that causes a computer to function as the corresponding point search device according to claim 1. 点群から構成される第1の3次元モデルと第2の3次元モデルとの各点の位置情報と接続情報とが記憶される記憶部を備えた装置により実行される対応点探索方法であって、
前記装置が、
前記3次元モデルごとに、前記点群の中から複数のサンプリング点を決定するステップと、
前記記憶部に記憶されている前記サンプリング点ごとの位置情報と接続情報とを用いて、前記サンプリング点ごとの特徴量を算出するステップと、
前記特徴量に基づいて、前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度を算出するステップと、
前記類似度に基づいて、前記第1の3次元モデルの各サンプリング点に対応する点を前記第2の3次元モデルのサンプリング点の中から決定するステップと、
を有してなり、
前記装置は、サンプリング点ごとに、
3次元モデルの曲面上での法線方向をZ方向、前記曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、
前記局所深度画像に含まれる画素の値を用いて特徴量を算出する、
ことを特徴とする対応点探索方法。

A corresponding point search method executed by an apparatus including a storage unit in which position information and connection information of each point of a first three-dimensional model and a second three-dimensional model composed of point groups are stored. And
The device is
Determining a plurality of sampling points from the point group for each of the three-dimensional models;
Using the positional information and connection information for each sampling point stored in the storage unit to calculate a feature value for each sampling point;
Calculating the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount;
Determining a point corresponding to each sampling point of the first three-dimensional model from the sampling points of the second three-dimensional model based on the similarity;
Having
For each sampling point, the device
Constructing a local depth image in the coordinate system of the virtual camera in which the normal direction on the curved surface of the three-dimensional model is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction,
A feature amount is calculated using a pixel value included in the local depth image.
The corresponding point search method characterized by this.

JP2014226566A 2014-11-07 2014-11-07 Corresponding point search device, corresponding point search program, and corresponding point search method Expired - Fee Related JP6441032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014226566A JP6441032B2 (en) 2014-11-07 2014-11-07 Corresponding point search device, corresponding point search program, and corresponding point search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014226566A JP6441032B2 (en) 2014-11-07 2014-11-07 Corresponding point search device, corresponding point search program, and corresponding point search method

Publications (2)

Publication Number Publication Date
JP2016091391A true JP2016091391A (en) 2016-05-23
JP6441032B2 JP6441032B2 (en) 2018-12-19

Family

ID=56019743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014226566A Expired - Fee Related JP6441032B2 (en) 2014-11-07 2014-11-07 Corresponding point search device, corresponding point search program, and corresponding point search method

Country Status (1)

Country Link
JP (1) JP6441032B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268626A (en) * 2021-05-26 2021-08-17 中国人民武装警察部队特种警察学院 Data processing method and device, electronic equipment and storage medium
CN115170842A (en) * 2022-07-03 2022-10-11 西北工业大学 Three-dimensional CAD model similar structure retrieval method based on local feature expression

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018493A (en) * 2005-06-07 2007-01-25 National Institute Of Advanced Industrial & Technology Three-dimensional shape alignment method and program
JP2009129189A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition method
US20130121598A1 (en) * 2011-11-15 2013-05-16 Futurewei Technologies, Inc. System and Method for Randomized Point Set Geometry Verification for Image Identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018493A (en) * 2005-06-07 2007-01-25 National Institute Of Advanced Industrial & Technology Three-dimensional shape alignment method and program
JP2009129189A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition method
US20130121598A1 (en) * 2011-11-15 2013-05-16 Futurewei Technologies, Inc. System and Method for Randomized Point Set Geometry Verification for Image Identification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石山 塁: "3次元形状情報を用いた顔認識", 情報処理 第50巻 第6号, vol. Vol.50 No.6 June 2009, JPN6018045062, 15 June 2009 (2009-06-15), JP, pages 540 - 547, ISSN: 0003919364 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268626A (en) * 2021-05-26 2021-08-17 中国人民武装警察部队特种警察学院 Data processing method and device, electronic equipment and storage medium
CN113268626B (en) * 2021-05-26 2024-04-26 中国人民武装警察部队特种警察学院 Data processing method, device, electronic equipment and storage medium
CN115170842A (en) * 2022-07-03 2022-10-11 西北工业大学 Three-dimensional CAD model similar structure retrieval method based on local feature expression
CN115170842B (en) * 2022-07-03 2025-07-15 西北工业大学 A similar structure retrieval method for 3D CAD models based on local feature expression

Also Published As

Publication number Publication date
JP6441032B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
US10304244B2 (en) Motion capture and character synthesis
US8089480B2 (en) Method for meshing a curved surface
JP5430456B2 (en) Geometric feature extraction device, geometric feature extraction method, program, three-dimensional measurement device, object recognition device
US8447099B2 (en) Forming 3D models using two images
Demir et al. Skelneton 2019: Dataset and challenge on deep learning for geometric shape understanding
CN111133477B (en) Three-dimensional reconstruction method, device, system and storage medium
CN110832501A (en) System and method for pose-invariant face alignment
CN113781653B (en) Object model generation method and device, electronic equipment and storage medium
CN108154531B (en) Method and device for calculating area of body surface damage region
CN113223078B (en) Mark point matching method, device, computer equipment and storage medium
US10311576B2 (en) Image processing device and image processing method
JP2017182302A (en) Image processing program, image processing apparatus, and image processing method
CN109238264A (en) A kind of domestic animal posture method for normalizing and device
CN116229005B (en) Method and device for determining geodesic line of three-dimensional roadway model
JP2014102746A (en) Subject recognition device and subject recognition program
JP6441032B2 (en) Corresponding point search device, corresponding point search program, and corresponding point search method
CN108009576A (en) A kind of object identification method of object matching, equipment and storage device
JP5030183B2 (en) 3D object position and orientation measurement method
JP2018142267A (en) Object determination device, object determination method, program and data structure of feature quantity string
US10453206B2 (en) Method, apparatus for shape estimation, and non-transitory computer-readable storage medium
CN111145081A (en) 3D model view projection method and system based on spatial volume feature
CN110895679B (en) Machine vision image data processing method and device
JP5723301B2 (en) Subject recognition device and subject recognition program
JP6910622B2 (en) Image processing system
US10223824B2 (en) Information processing apparatus, simulator result display method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181121

R150 Certificate of patent or registration of utility model

Ref document number: 6441032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees