JP2016091391A - Corresponding point search device, corresponding point search program, and corresponding point search method - Google Patents
Corresponding point search device, corresponding point search program, and corresponding point search method Download PDFInfo
- Publication number
- JP2016091391A JP2016091391A JP2014226566A JP2014226566A JP2016091391A JP 2016091391 A JP2016091391 A JP 2016091391A JP 2014226566 A JP2014226566 A JP 2014226566A JP 2014226566 A JP2014226566 A JP 2014226566A JP 2016091391 A JP2016091391 A JP 2016091391A
- Authority
- JP
- Japan
- Prior art keywords
- point
- dimensional model
- sampling
- feature amount
- sampling points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、3次元モデル同士での対応点の探索処理に関するものである。 The present invention relates to search processing for corresponding points between three-dimensional models.
従来、3次元の位置情報を持つ点群からなる3次元モデル同士での各点のマッチング処理、つまり、2つの3次元モデル間での対応点の探索処理が行われている。 Conventionally, matching processing of points between three-dimensional models composed of point groups having three-dimensional position information, that is, search processing of corresponding points between two three-dimensional models has been performed.
3次元モデルの対応点の探索処理においては、3次元モデルを構成する点群の各点の局所特徴量を算出し、各点同士の特徴量の類似度に基づいて対応点の探索が行われる。ここで、局所特徴量の例としては、例えば、Spin ImageやLocal Depth SIFTが提案されている(例えば「非特許文献1」参照)。
In the corresponding point search process of the three-dimensional model, the local feature amount of each point of the point group constituting the three-dimensional model is calculated, and the corresponding point is searched based on the similarity of the feature amount between the points. . Here, as examples of the local feature amount, for example, Spin Image and Local Depth SIFT have been proposed (see, for example, “Non-Patent
しかし、従来から提案されている局所特徴量は、特徴量の方向も3次元モデルの局所的な領域の点群の長軸方向など、局所的な領域の形状の特徴を用いて算出されるため、3次元モデルを構成する点群の各点の位置情報などの欠損や、3次元モデルの局所的な変形がある(例えば、人間の全身の3次元モデルの場合、対比する3次元モデル同士で腕の向きが異なっている)と、探索精度(マッチング精度)が低下してしまう。 However, the conventionally proposed local feature amount is calculated by using the feature of the shape of the local region, such as the long axis direction of the point group of the local region of the three-dimensional model. There are defects such as position information of each point of the point group constituting the 3D model and local deformation of the 3D model (for example, in the case of a 3D model of a whole human body, If the directions of the arms are different), the search accuracy (matching accuracy) is lowered.
本発明は、以上のような従来技術の問題点を解消するためになされたもので、対応点の探索精度を向上させることができる、対応点探索装置と対応点探索プログラム並びに対応点探索方法を提供することを目的とする。 The present invention has been made to solve the above-described problems of the prior art, and provides a corresponding point search device, a corresponding point search program, and a corresponding point search method capable of improving the corresponding point search accuracy. The purpose is to provide.
本発明は、点群から構成される第1の3次元モデルと第2の3次元モデルとの各点の位置情報と接続情報とが記憶される記憶部と、3次元モデルのそれぞれについて、点群の中から複数のサンプリング点を決定するサンプリング点決定部と、記憶部に記憶されているサンプリング点ごとの位置情報と接続情報とを用いて、サンプリング点ごとの特徴量を算出する特徴量算出部と、特徴量に基づいて、第1の3次元モデルのサンプリング点と第2の3次元モデルのサンプリング点同士の類似度を算出する類似度算出部と、類似度に基づいて、第1の3次元モデルの各サンプリング点に対応する点を第2の3次元モデルのサンプリング点の中から決定する対応点決定部と、を有してなり、特徴量算出部は、サンプリング点ごとに、3次元モデルの曲面上での法線方向をZ方向、曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、局所深度画像に含まれる各画素の深度を用いて特徴量を算出する、ことを特徴とする。 The present invention relates to a storage unit in which position information and connection information of each point of the first three-dimensional model and the second three-dimensional model composed of point groups are stored, and a point for each of the three-dimensional models. A feature value calculator that calculates a feature value for each sampling point using a sampling point determination unit that determines a plurality of sampling points from the group, and position information and connection information for each sampling point stored in the storage unit A similarity calculation unit that calculates the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount, and the first based on the similarity A corresponding point determination unit that determines points corresponding to the respective sampling points of the three-dimensional model from the sampling points of the second three-dimensional model. Dimensional model A local depth image is constructed in the virtual camera coordinate system in which the normal direction on the surface is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction, and the depth of each pixel included in the local depth image is determined. The feature amount is calculated using the feature.
本発明によれば、対応点の探索精度を向上させることができる。 According to the present invention, it is possible to improve the search accuracy for corresponding points.
以下、本発明にかかる対応点探索装置(以下「本装置」という。)と対応点探索プログラム(以下「本プログラム」という。)並びに対応点探索方法(以下「本方法」という。)の実施の形態について、図面を参照しながら説明する。 Hereinafter, a corresponding point search apparatus (hereinafter referred to as “this apparatus”), a corresponding point search program (hereinafter referred to as “this program”), and a corresponding point search method (hereinafter referred to as “this method”) according to the present invention are implemented. The form will be described with reference to the drawings.
●本装置
図1は、本装置の実施の形態を示す機能ブロック図である。本装置10は、サンプリング点決定部11、特徴量算出部12、類似度算出部13、対応点決定部14、記憶部15、を有してなる。
FIG. 1 is a functional block diagram showing an embodiment of the present apparatus. The apparatus 10 includes a sampling point determination unit 11, a feature amount calculation unit 12, a similarity calculation unit 13, a corresponding point determination unit 14, and a storage unit 15.
ここで、本装置10は、パーソナルコンピュータなどの情報処理装置により実現される。後述する本方法は、本装置10で動作する本プログラムが本装置10を構成するハードウェア資源と協働することで、本装置10により実行される。 Here, the apparatus 10 is realized by an information processing apparatus such as a personal computer. This method, which will be described later, is executed by the apparatus 10 when the program operating on the apparatus 10 cooperates with the hardware resources constituting the apparatus 10.
なお、本装置10とは別の情報処理装置で本プログラムを動作させることで、同情報処理装置を本装置10と同様に機能させて、本方法を実行させることができる。 In addition, by operating the program on an information processing apparatus different from the apparatus 10, the information processing apparatus can function in the same manner as the apparatus 10 to execute the method.
記憶部15は、位置情報、接続情報、その他後述する本装置1が本方法を実現するために必要な情報が記憶される手段である。
The storage unit 15 is a means for storing position information, connection information, and other information necessary for the
位置情報とは、3次元モデルを構成する点群の各点の3次元座標の情報である。 The position information is information on the three-dimensional coordinates of each point of the point group constituting the three-dimensional model.
接続情報とは、3次元モデルを構成する点群の各点同士の接続状態(後述する三角形のメッシュの切り方)を示す情報である。 The connection information is information indicating a connection state (how to cut a triangular mesh to be described later) between points of a point group constituting the three-dimensional model.
記憶部15には、3次元モデルを構成する点群の点ごとの位置情報と接続情報とが記憶されている。 The storage unit 15 stores position information and connection information for each point of the point group constituting the three-dimensional model.
サンプリング点決定部11は、3次元モデルを構成する点群の中からサンプリング点を決定する(抽出する)手段である。サンプリング点の決定方法としては、例えば、farthest point samplingなどの手法を用いる。 The sampling point determination unit 11 is means for determining (extracting) sampling points from the point group constituting the three-dimensional model. As a sampling point determination method, for example, a method such as farthest point sampling is used.
サンプリング点とは、3次元モデルを構成する点群のうち、対応点の探索の対象とする点である。 Sampling points are points to be searched for corresponding points in a point group constituting a three-dimensional model.
図2は、人間の全身の3次元モデルを例とした、サンプリング点と接続情報(メッシュ)の例を示す模式図であり、同図(b)は同図(a)の矩形で囲まれた部分を抜き出したものである。同図は、3次元モデルを構成する点群の各点のうち、隣接する点同士を線で繋いで描画してある。すなわち、三角形のメッシュの各辺は、隣接する頂点同士を結ぶ線である。また、同図において、三角形のメッシュの頂点、つまり、3次元モデルを構成する点群の各点のうち丸印が付してある点は、サンプリング点として決定された点である。 FIG. 2 is a schematic diagram showing an example of sampling points and connection information (mesh) taking a three-dimensional model of a human whole body as an example, and FIG. 2B is surrounded by a rectangle in FIG. The part is extracted. In the figure, among the points of the point group constituting the three-dimensional model, adjacent points are connected by lines. That is, each side of the triangular mesh is a line connecting adjacent vertices. Also, in the same figure, the vertices of the triangular mesh, that is, the points marked with a circle among the points of the point group constituting the three-dimensional model are points determined as sampling points.
図3は、対比される2つの3次元モデルの例を示す模式図である。同図には、人間の全身の3次元モデルが示されていて、同図(a)の3次元モデルではサンプリング点1,2,3,4,5,6の6点が決定され、同図(b)の3次元モデルではサンプリング点a,b,c,d,e,fの6点が決定されていることを示している。
FIG. 3 is a schematic diagram illustrating an example of two three-dimensional models to be compared. In the figure, a three-dimensional model of the whole human body is shown. In the three-dimensional model in FIG. 6A, six
なお、各3次元モデルを構成する点群の中から決定されるサンプリング点の数(図3に示した例では「6」)を示す情報は、あらかじめ、本装置10に設定(記憶部15に記憶)されている。 Information indicating the number of sampling points (“6” in the example shown in FIG. 3) determined from the point group constituting each three-dimensional model is set in the apparatus 10 in advance (in the storage unit 15). Remembered).
特徴量算出部12は、頂点ごとの位置情報と接続情報とを用いて、サンプリング点の特徴量を算出する手段である。特徴量とその算出方法については、後述する。 The feature amount calculation unit 12 is a means for calculating the feature amount of the sampling point using the position information and connection information for each vertex. The feature amount and its calculation method will be described later.
類似度算出部13は、サンプリング点同士の類似度を算出する手段である。類似度とその算出方法については、後述する。 The similarity calculation unit 13 is a means for calculating the similarity between sampling points. The similarity and its calculation method will be described later.
対応点決定部14は、対応点を決定する手段である。 The corresponding point determination unit 14 is a means for determining a corresponding point.
対応点とは、対比する2つの3次元モデルのうち、一方の3次元モデルのサンプリング点に対応する、他方の3次元モデルのサンプリング点のことである。すなわち、図3に示した例において、同図(a)のサンプリング点ごとに、同図(b)のサンプリング点のいずれかが対応点として決定される。つまり、例えば、同図(a)のサンプリング点1の対応点は、同図(b)のサンプリング点a,b,c,d,e,fのいずれかである。
The corresponding point is a sampling point of the other three-dimensional model corresponding to a sampling point of one of the two three-dimensional models to be compared. That is, in the example shown in FIG. 3, for each sampling point in FIG. 3A, one of the sampling points in FIG. 3B is determined as a corresponding point. That is, for example, the corresponding point of the
なお、一方の3次元モデルのサンプリング点に対応する対応点が他方の3次元モデルに存在しない、という解(場合)もあり得る。 Note that there may be a solution (case) in which a corresponding point corresponding to a sampling point of one three-dimensional model does not exist in the other three-dimensional model.
対応点の決定方法については、後述する。 A method for determining the corresponding points will be described later.
●本方法
図4は、本方法の実施の形態を示すフローチャートである。
先ず、本装置10は、対比する2つの3次元モデルごとに、それぞれを構成する点群の位置情報と接続情報とを記憶部15から読み出して、点群の中からサンプリング点を決定する(S1)。
[Method] FIG. 4 is a flowchart showing an embodiment of the method.
First, for each of the two three-dimensional models to be compared, the apparatus 10 reads the position information and connection information of the point groups constituting each of them from the storage unit 15, and determines sampling points from the point groups (S1). ).
次いで、本装置10は、決定されたサンプリング点ごとの特徴量を算出する(S2)。 Next, the apparatus 10 calculates a feature amount for each determined sampling point (S2).
図5は、サンプリング点ごとの特徴量の算出処理の例を示すフローチャートである。
先ず、本装置10は、対比する2つの3次元モデルごとに、構成する点群の位置情報と接続情報とを記憶部15から読み出す(S21)。
FIG. 5 is a flowchart illustrating an example of a feature amount calculation process for each sampling point.
First, the present apparatus 10 reads position information and connection information of the constituent point groups from the storage unit 15 for each of the two three-dimensional models to be compared (S21).
なお、読み出し処理(S21)では、前述のサンプリング点の決定処理(S1)で記憶部15から読み出された位置情報と接続情報とを利用するように代えてもよい。この場合、これらの情報を処理(S1)とは別に改めて記憶部15から読み出さなくて済む。 In the reading process (S21), the position information and the connection information read from the storage unit 15 in the above-described sampling point determination process (S1) may be used. In this case, it is not necessary to read these information from the storage unit 15 separately from the processing (S1).
次いで、本装置10は、3次元モデルごとに、各サンプリング点の法線方向を、その3次元モデルのすべての頂点の位置情報と接続情報とを用いて決定する(S22)。 Next, the apparatus 10 determines, for each 3D model, the normal direction of each sampling point using the position information and connection information of all the vertices of the 3D model (S22).
次いで、本装置10は、3次元モデルごとに、各サンプリング点の平均拡散距離(ADD:Average Diffusion Distance)の勾配方向を決定する(S23)。 Next, the apparatus 10 determines the gradient direction of the average diffusion distance (ADD) of each sampling point for each three-dimensional model (S23).
ADDの勾配方向を決定するにあたり、本装置10は、先ず、頂点ごとに、同じ3次元モデルの他のすべてのサンプリング点との拡散距離(Diffusion Distance)を算出した上で、算出された各サンプリング点との拡散距離の平均値をADDとして算出する。 In determining the ADD gradient direction, the apparatus 10 first calculates a diffusion distance from all other sampling points of the same three-dimensional model for each vertex, and then calculates each sampling. The average value of the diffusion distance with the point is calculated as ADD.
拡散距離(Diffusion Distance)とは、グラフ構造の接続の強さを表す距離である。拡散距離は、接続が強いと距離が小さく(近く)なり、接続が弱いと距離が大きく(遠く)なる。拡散距離は、測地線距離とほぼ同じように、曲面の表面上の最短距離を測るが、測地線よりもノイズやデータ欠損に頑健である。2点x,y間の拡散距離dDは、以下の式により算出することができる。 The diffusion distance is a distance representing the connection strength of the graph structure. When the connection is strong, the diffusion distance is small (near), and when the connection is weak, the distance is large (far). The diffusion distance measures the shortest distance on the surface of the curved surface, almost the same as the geodesic distance, but is more robust to noise and data loss than the geodesic line. The diffusion distance d D between the two points x and y can be calculated by the following equation.
なお、グラフラプラシアン行列は、頂点ごとの位置座標と接続関係とから求めることができる。 The graph Laplacian matrix can be obtained from the position coordinates for each vertex and the connection relationship.
ADDは、3次元モデルの中心領域が低く、3次元モデルの末端領域が高い、スカラー場である。 ADD is a scalar field where the central area of the 3D model is low and the end area of the 3D model is high.
図6は、人間の全身の3次元モデルの場合のADDの例を示す模式図である。同図は、全身の中心に位置するへそ辺りのADDが低く、全身の末端に位置する手足の指先や頭頂部辺りのADDが高いことを示している。 FIG. 6 is a schematic diagram illustrating an example of ADD in the case of a three-dimensional model of a human whole body. The figure shows that the ADD around the navel located at the center of the whole body is low, and the ADD around the fingertips and the top of the head located at the end of the whole body is high.
図7は、ADDの勾配方向の例を示す模式図である。同図は、ADDの勾配方向の算出の対象となるサンプリング点を図の中央に表示し、このサンプリング点と接続している他の頂点が6点存在することを示している。 FIG. 7 is a schematic diagram illustrating an example of the ADD gradient direction. The figure shows the sampling point that is the object of calculation of the ADD gradient direction in the center of the figure, and shows that there are six other vertices connected to this sampling point.
本装置1は、サンプリング点ごとに、サンプリング点と接続している他の頂点のADDの勾配方向を下記の式で算出する。
ADDの勾配方向=(V1+V2+・・・+Vn)/n
The
ADD gradient direction = (V1 + V2 +... + Vn) / n
ここで、nは、ADDの勾配方向の算出対象のサンプリング点と接続している他の頂点の数であり、図7に示した例ではn=6である。
また、V1,V2,・・・,Vnは、ADDの勾配方向の算出対象のサンプリング点と、このサンプリング点に接続する他の頂点それぞれを結ぶ辺の勾配ベクトルであり、下記の式で算出される。
V1=(a1−a0)e1
V2=(a2−a0)e2
・・・
Vn=(an−a0)en
Here, n is the number of other vertices connected to the sampling point to be calculated in the gradient direction of ADD, and n = 6 in the example shown in FIG.
Further, V1, V2,..., Vn are gradient vectors of sides connecting the sampling points for calculation of the ADD gradient direction and other vertices connected to the sampling points, and are calculated by the following equations. The
V1 = (a1-a0) e1
V2 = (a2-a0) e2
...
Vn = (an−a0) en
なお、a0,・・・,anは、各点のADDの値である。
また、e0,・・・,enは、ADDの勾配方向の算出対象のサンプリング点と他の頂点とを結ぶ各辺の単位方向(ベクトル)の値であり、x0,・・・,xnを各点の3次元座標(3次元位置)とすると、下記の式で算出される。
e1=(x1−x0)/|x1−x0|
e2=(x2−x0)/|x2−x0|
・・・
en=(xn−x0)/|xn−x0|
Note that a0,..., An are ADD values of the respective points.
E0,..., En are values in the unit direction (vector) of each side connecting the sampling point to be calculated in the ADD gradient direction and other vertices, and x0,. Assuming the three-dimensional coordinates (three-dimensional position) of the point, the following formula is used.
e1 = (x1-x0) / | x1-x0 |
e2 = (x2-x0) / | x2-x0 |
...
en = (xn-x0) / | xn-x0 |
図5に戻る。
本装置10は、サンプリング点ごとに、局所深度画像を構築する(S24)。
図8は、3次元モデルと、局所深度画像が透視投影される投影面と、仮想カメラの座標系のカメラ中心、との位置関係を示す模式図である。
Returning to FIG.
The apparatus 10 constructs a local depth image for each sampling point (S24).
FIG. 8 is a schematic diagram showing the positional relationship between the three-dimensional model, the projection plane on which the local depth image is perspectively projected, and the camera center of the virtual camera coordinate system.
ここで、仮想カメラの座標系は、サンプリング点ごとに、前述の法線方向をZ方向、前述のADDの勾配方向をY方向として設定する。サンプリング点から仮想カメラのカメラ中心までの距離は、局所深度画像に入る3次元モデルの局所領域の大きさを決める(距離が大きければ範囲が広く、距離が小さければ範囲が狭い)。サンプリング点ごとの局所深度画像の解像度(例えば、50×50ピクセル)は、サンプリング点ごとに一定である。サンプリング点からカメラ中心までの距離と局所深度画像の解像度を示す情報は、あらかじめ、本装置10に設定されている(記憶部15に記憶されている)。 Here, the coordinate system of the virtual camera sets, for each sampling point, the aforementioned normal direction as the Z direction and the aforementioned ADD gradient direction as the Y direction. The distance from the sampling point to the camera center of the virtual camera determines the size of the local area of the three-dimensional model that enters the local depth image (the range is wide if the distance is large, and the range is narrow if the distance is small). The resolution (for example, 50 × 50 pixels) of the local depth image for each sampling point is constant for each sampling point. Information indicating the distance from the sampling point to the center of the camera and the resolution of the local depth image is set in the apparatus 10 in advance (stored in the storage unit 15).
局所深度画像は、カメラ中心から3次元モデルの各頂点(同図中、P,Q,R)を結ぶ線が、カメラ中心と3次元モデルとの間に設定される投射面と交差する点(同図中、P’,Q’,R’)を用いて構築される。 In the local depth image, a line connecting the vertexes of the three-dimensional model (P, Q, R in the figure) from the camera center intersects with a projection plane set between the camera center and the three-dimensional model ( In the figure, it is constructed using P ′, Q ′, R ′).
局所深度画像の各ピクセルでの値は、そこでのZ方向の大きさ、つまり、カメラ中心から各頂点までのZ方向の距離(同図中、dP,dQ,dR)である。 The value at each pixel of the local depth image is the size in the Z direction, that is, the distance in the Z direction from the camera center to each vertex (dP, dQ, dR in the figure).
図5に戻る。
本装置10は、サンプリング点ごとに、特徴量を算出する(S25)。サンプリング点ごとの特徴量は、サンプリング点ごとに構築された局所深度画像に含まれる各ピクセルの値の集合(50×50の画像行列をベクトルとして表す)である。
Returning to FIG.
The apparatus 10 calculates a feature amount for each sampling point (S25). The feature amount for each sampling point is a set of values of each pixel included in the local depth image constructed for each sampling point (a 50 × 50 image matrix is represented as a vector).
図4に戻る。
本装置10は、対比する2つの3次元モデルのそれぞれのサンプリング点のすべての組み合わせごとに、サンプリング点間の類似度(ユークリッドノルム)を算出する(S3)。すなわち、図3に示した例においては、同図(a)のサンプリング点1と同図(b)の各サンプリング点a,b,c,d,e,fとの類似度、同図(a)のサンプリング点2と同図(b)の各サンプリング点a,b,c,d,e,fとの類似度、・・・、同図(a)のサンプリング点と同図(b)の各サンプリング点a,b,c,d,e,fとの類似度を算出する。
Returning to FIG.
The apparatus 10 calculates the similarity (Euclidean norm) between the sampling points for every combination of the respective sampling points of the two three-dimensional models to be compared (S3). That is, in the example shown in FIG. 3, the similarity between the
次いで、本装置10は、対比する2つの3次元モデルのサンプリング点間のマッチング、つまり、一方の3次元モデルのサンプリング点(例えば、図3(a)に示したサンプリング点1,2,3,4,5,6)と、他方の3次元モデルのサンプリング点(例えば、図3(b)に示したサンプリング点a,b,c,d,e,f)との対応付けを行う(S4)。この対応付けは、例えば、ハンガリアン法を用いて行い、対比する2つの3次元モデルのサンプリング点同士の1対1の対応のマッチング結果を得る。 Next, the apparatus 10 matches the sampling points of the two three-dimensional models to be compared, that is, the sampling points of one three-dimensional model (for example, the sampling points 1, 2, 3, and 3 shown in FIG. 3A). 4, 5, 6) and the other three-dimensional model sampling points (for example, sampling points a, b, c, d, e, f shown in FIG. 3B) are associated (S4). . This association is performed using, for example, the Hungarian method, and a one-to-one correspondence matching result between the sampling points of the two three-dimensional models to be compared is obtained.
●まとめ
以上説明した実施の形態によれば、3次元モデルの大域的な情報から算出されるADDの勾配方向を用いた座標系において局所深度画像を構築し、この局所深度画像から算出された特徴量を用いて対応点を探索するため、3次元モデルの局所的な情報のみを用いて行う従来の探索に比べて、局所的な変形に頑健な探索が可能となり、探索精度を向上させることができる。
● Summary According to the embodiment described above, the local depth image is constructed in the coordinate system using the gradient direction of the ADD calculated from the global information of the three-dimensional model, and the feature calculated from the local depth image Since the corresponding points are searched using the quantity, the search can be robust against local deformation and the search accuracy can be improved as compared with the conventional search performed using only the local information of the three-dimensional model. it can.
ここで、これまで説明した本装置の特徴について、以下にまとめて記載しておく。 Here, the features of the present apparatus described so far are collectively described below.
(特徴1)
点群から構成される第1の3次元モデルと第2の3次元モデルとの各点の位置情報と接続情報とが記憶される記憶部と、
前記3次元モデルのそれぞれについて、前記点群の中から複数のサンプリング点を決定するサンプリング点決定部と、
前記記憶部に記憶されている前記サンプリング点ごとの位置情報と接続情報とを用いて、前記サンプリング点ごとの特徴量を算出する特徴量算出部と、
前記特徴量に基づいて、前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度を算出する類似度算出部と、
前記類似度に基づいて、前記第1の3次元モデルの各サンプリング点に対応する点を前記第2の3次元モデルのサンプリング点の中から決定する対応点決定部と、
を有してなり、
前記特徴量算出部は、サンプリング点ごとに、
3次元モデルの曲面上での法線方向をZ方向、前記曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、
前記局所深度画像に含まれる各画素の深度を用いて特徴量を算出する、
ことを特徴とする対応点探索装置。
(Feature 1)
A storage unit for storing position information and connection information of each point of the first three-dimensional model and the second three-dimensional model configured by point groups;
For each of the three-dimensional models, a sampling point determination unit that determines a plurality of sampling points from the point group;
A feature amount calculation unit that calculates a feature amount for each sampling point using the position information and connection information for each sampling point stored in the storage unit;
A similarity calculation unit that calculates the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount;
A corresponding point determination unit that determines a point corresponding to each sampling point of the first three-dimensional model from sampling points of the second three-dimensional model based on the similarity;
Having
The feature amount calculation unit, for each sampling point,
Constructing a local depth image in the coordinate system of the virtual camera in which the normal direction on the curved surface of the three-dimensional model is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction,
A feature amount is calculated using the depth of each pixel included in the local depth image.
Corresponding point search device characterized by the above.
(特徴2)
前記特徴量算出部は、前記3次元モデルごとに、
サンプリング点ごとの他のサンプリング点までの拡散距離を算出し、
前記サンプリグ点ごとの前記拡散距離の平均値を前記サンプリング点の前記平均拡散距離として算出する、
特徴1記載の対応点探索装置。
(Feature 2)
The feature amount calculation unit is configured for each of the three-dimensional models.
Calculate the diffusion distance to other sampling points for each sampling point,
An average value of the diffusion distance for each sampling point is calculated as the average diffusion distance of the sampling points.
Corresponding point search device according to
(特徴3)
前記特徴量算出部は、前記サンプリング点ごとに、前記平均拡散距離を用いて、前記平均拡散距離の勾配方向を算出する、
特徴2記載の対応点探索装置。
(Feature 3)
The feature amount calculation unit calculates a gradient direction of the average diffusion distance using the average diffusion distance for each sampling point.
Corresponding point search device according to
(特徴4)
前記特徴量算出部は、前記仮想カメラの座標系のカメラ中心と前記3次元モデルの曲面上との間の投影面に透視投影された画像を、前記局所深度画像として構築する、
特徴1乃至3のいずれかに記載の対応点探索装置。
(Feature 4)
The feature amount calculation unit constructs, as the local depth image, an image that is perspective-projected on a projection plane between the camera center of the coordinate system of the virtual camera and the curved surface of the three-dimensional model;
The corresponding point search device according to any one of
(特徴5)
前記類似度算出部は、
前記第1の3次元モデルのサンプリング点の特徴量と前記第2の3次元モデルのサンプリング点同士のユークリッド距離を、
前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度として算出する、
特徴1乃至4のいずれかに記載の対応点探索装置。
(Feature 5)
The similarity calculation unit includes:
The feature amount of the sampling point of the first three-dimensional model and the Euclidean distance between the sampling points of the second three-dimensional model,
Calculating the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model;
The corresponding point search device according to any one of
10 対応点探索装置
11 サンプリング点決定部
12 特徴量算出部
13 類似度算出部
14 対応点決定部
15 記憶部
DESCRIPTION OF SYMBOLS 10 Corresponding point search apparatus 11 Sampling point determination part 12 Feature-value calculation part 13 Similarity calculation part 14 Corresponding point determination part 15 Memory | storage part
Claims (7)
前記3次元モデルのそれぞれについて、前記点群の中から複数のサンプリング点を決定するサンプリング点決定部と、
前記記憶部に記憶されている前記サンプリング点ごとの位置情報と接続情報とを用いて、前記サンプリング点ごとの特徴量を算出する特徴量算出部と、
前記特徴量に基づいて、前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度を算出する類似度算出部と、
前記類似度に基づいて、前記第1の3次元モデルの各サンプリング点に対応する点を前記第2の3次元モデルのサンプリング点の中から決定する対応点決定部と、
を有してなり、
前記特徴量算出部は、サンプリング点ごとに、
3次元モデルの曲面上での法線方向をZ方向、前記曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、
前記局所深度画像に含まれる各画素の深度を用いて特徴量を算出する、
ことを特徴とする対応点探索装置。 A storage unit for storing position information and connection information of each point of the first three-dimensional model and the second three-dimensional model configured by point groups;
For each of the three-dimensional models, a sampling point determination unit that determines a plurality of sampling points from the point group;
A feature amount calculation unit that calculates a feature amount for each sampling point using the position information and connection information for each sampling point stored in the storage unit;
A similarity calculation unit that calculates the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount;
A corresponding point determination unit that determines a point corresponding to each sampling point of the first three-dimensional model from sampling points of the second three-dimensional model based on the similarity;
Having
The feature amount calculation unit, for each sampling point,
Constructing a local depth image in the coordinate system of the virtual camera in which the normal direction on the curved surface of the three-dimensional model is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction,
A feature amount is calculated using the depth of each pixel included in the local depth image.
Corresponding point search device characterized by the above.
サンプリング点ごとの他のサンプリング点までの拡散距離を算出し、
前記サンプリグ点ごとの前記拡散距離の平均値を前記サンプリング点の前記平均拡散距離として算出する、
請求項1記載の対応点探索装置。 The feature amount calculation unit is configured for each of the three-dimensional models.
Calculate the diffusion distance to other sampling points for each sampling point,
An average value of the diffusion distance for each sampling point is calculated as the average diffusion distance of the sampling points.
The corresponding point search apparatus according to claim 1.
請求項2記載の対応点探索装置。 The feature amount calculation unit calculates a gradient direction of the average diffusion distance using the average diffusion distance for each sampling point.
The corresponding point search apparatus according to claim 2.
請求項1乃至3のいずれかに記載の対応点探索装置。 The feature amount calculation unit constructs, as the local depth image, an image that is perspective-projected on a projection plane between the camera center of the coordinate system of the virtual camera and the curved surface of the three-dimensional model;
The corresponding point search apparatus according to claim 1.
前記第1の3次元モデルのサンプリング点の特徴量と前記第2の3次元モデルのサンプリング点同士のユークリッド距離を、
前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度として算出する、
請求項1乃至4のいずれかに記載の対応点探索装置。 The similarity calculation unit includes:
The feature amount of the sampling point of the first three-dimensional model and the Euclidean distance between the sampling points of the second three-dimensional model,
Calculating the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model;
The corresponding point search apparatus according to claim 1.
前記装置が、
前記3次元モデルごとに、前記点群の中から複数のサンプリング点を決定するステップと、
前記記憶部に記憶されている前記サンプリング点ごとの位置情報と接続情報とを用いて、前記サンプリング点ごとの特徴量を算出するステップと、
前記特徴量に基づいて、前記第1の3次元モデルのサンプリング点と前記第2の3次元モデルのサンプリング点同士の類似度を算出するステップと、
前記類似度に基づいて、前記第1の3次元モデルの各サンプリング点に対応する点を前記第2の3次元モデルのサンプリング点の中から決定するステップと、
を有してなり、
前記装置は、サンプリング点ごとに、
3次元モデルの曲面上での法線方向をZ方向、前記曲面上での平均拡散距離の勾配方向をY方向とする仮想カメラの座標系において局所深度画像を構築し、
前記局所深度画像に含まれる画素の値を用いて特徴量を算出する、
ことを特徴とする対応点探索方法。
A corresponding point search method executed by an apparatus including a storage unit in which position information and connection information of each point of a first three-dimensional model and a second three-dimensional model composed of point groups are stored. And
The device is
Determining a plurality of sampling points from the point group for each of the three-dimensional models;
Using the positional information and connection information for each sampling point stored in the storage unit to calculate a feature value for each sampling point;
Calculating the similarity between the sampling points of the first three-dimensional model and the sampling points of the second three-dimensional model based on the feature amount;
Determining a point corresponding to each sampling point of the first three-dimensional model from the sampling points of the second three-dimensional model based on the similarity;
Having
For each sampling point, the device
Constructing a local depth image in the coordinate system of the virtual camera in which the normal direction on the curved surface of the three-dimensional model is the Z direction and the gradient direction of the average diffusion distance on the curved surface is the Y direction,
A feature amount is calculated using a pixel value included in the local depth image.
The corresponding point search method characterized by this.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014226566A JP6441032B2 (en) | 2014-11-07 | 2014-11-07 | Corresponding point search device, corresponding point search program, and corresponding point search method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014226566A JP6441032B2 (en) | 2014-11-07 | 2014-11-07 | Corresponding point search device, corresponding point search program, and corresponding point search method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016091391A true JP2016091391A (en) | 2016-05-23 |
| JP6441032B2 JP6441032B2 (en) | 2018-12-19 |
Family
ID=56019743
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014226566A Expired - Fee Related JP6441032B2 (en) | 2014-11-07 | 2014-11-07 | Corresponding point search device, corresponding point search program, and corresponding point search method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6441032B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113268626A (en) * | 2021-05-26 | 2021-08-17 | 中国人民武装警察部队特种警察学院 | Data processing method and device, electronic equipment and storage medium |
| CN115170842A (en) * | 2022-07-03 | 2022-10-11 | 西北工业大学 | Three-dimensional CAD model similar structure retrieval method based on local feature expression |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007018493A (en) * | 2005-06-07 | 2007-01-25 | National Institute Of Advanced Industrial & Technology | Three-dimensional shape alignment method and program |
| JP2009129189A (en) * | 2007-11-22 | 2009-06-11 | Ihi Corp | Object recognition method |
| US20130121598A1 (en) * | 2011-11-15 | 2013-05-16 | Futurewei Technologies, Inc. | System and Method for Randomized Point Set Geometry Verification for Image Identification |
-
2014
- 2014-11-07 JP JP2014226566A patent/JP6441032B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007018493A (en) * | 2005-06-07 | 2007-01-25 | National Institute Of Advanced Industrial & Technology | Three-dimensional shape alignment method and program |
| JP2009129189A (en) * | 2007-11-22 | 2009-06-11 | Ihi Corp | Object recognition method |
| US20130121598A1 (en) * | 2011-11-15 | 2013-05-16 | Futurewei Technologies, Inc. | System and Method for Randomized Point Set Geometry Verification for Image Identification |
Non-Patent Citations (1)
| Title |
|---|
| 石山 塁: "3次元形状情報を用いた顔認識", 情報処理 第50巻 第6号, vol. Vol.50 No.6 June 2009, JPN6018045062, 15 June 2009 (2009-06-15), JP, pages 540 - 547, ISSN: 0003919364 * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113268626A (en) * | 2021-05-26 | 2021-08-17 | 中国人民武装警察部队特种警察学院 | Data processing method and device, electronic equipment and storage medium |
| CN113268626B (en) * | 2021-05-26 | 2024-04-26 | 中国人民武装警察部队特种警察学院 | Data processing method, device, electronic equipment and storage medium |
| CN115170842A (en) * | 2022-07-03 | 2022-10-11 | 西北工业大学 | Three-dimensional CAD model similar structure retrieval method based on local feature expression |
| CN115170842B (en) * | 2022-07-03 | 2025-07-15 | 西北工业大学 | A similar structure retrieval method for 3D CAD models based on local feature expression |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6441032B2 (en) | 2018-12-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10304244B2 (en) | Motion capture and character synthesis | |
| US8089480B2 (en) | Method for meshing a curved surface | |
| JP5430456B2 (en) | Geometric feature extraction device, geometric feature extraction method, program, three-dimensional measurement device, object recognition device | |
| US8447099B2 (en) | Forming 3D models using two images | |
| Demir et al. | Skelneton 2019: Dataset and challenge on deep learning for geometric shape understanding | |
| CN111133477B (en) | Three-dimensional reconstruction method, device, system and storage medium | |
| CN110832501A (en) | System and method for pose-invariant face alignment | |
| CN113781653B (en) | Object model generation method and device, electronic equipment and storage medium | |
| CN108154531B (en) | Method and device for calculating area of body surface damage region | |
| CN113223078B (en) | Mark point matching method, device, computer equipment and storage medium | |
| US10311576B2 (en) | Image processing device and image processing method | |
| JP2017182302A (en) | Image processing program, image processing apparatus, and image processing method | |
| CN109238264A (en) | A kind of domestic animal posture method for normalizing and device | |
| CN116229005B (en) | Method and device for determining geodesic line of three-dimensional roadway model | |
| JP2014102746A (en) | Subject recognition device and subject recognition program | |
| JP6441032B2 (en) | Corresponding point search device, corresponding point search program, and corresponding point search method | |
| CN108009576A (en) | A kind of object identification method of object matching, equipment and storage device | |
| JP5030183B2 (en) | 3D object position and orientation measurement method | |
| JP2018142267A (en) | Object determination device, object determination method, program and data structure of feature quantity string | |
| US10453206B2 (en) | Method, apparatus for shape estimation, and non-transitory computer-readable storage medium | |
| CN111145081A (en) | 3D model view projection method and system based on spatial volume feature | |
| CN110895679B (en) | Machine vision image data processing method and device | |
| JP5723301B2 (en) | Subject recognition device and subject recognition program | |
| JP6910622B2 (en) | Image processing system | |
| US10223824B2 (en) | Information processing apparatus, simulator result display method, and computer-readable recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171018 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181108 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181120 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181121 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6441032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |