JP2008304269A - Information processing apparatus, information processing method, and computer program - Google Patents
Information processing apparatus, information processing method, and computer program Download PDFInfo
- Publication number
- JP2008304269A JP2008304269A JP2007150766A JP2007150766A JP2008304269A JP 2008304269 A JP2008304269 A JP 2008304269A JP 2007150766 A JP2007150766 A JP 2007150766A JP 2007150766 A JP2007150766 A JP 2007150766A JP 2008304269 A JP2008304269 A JP 2008304269A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- feature point
- probability distribution
- image
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】カメラの取得画像に基づいて撮影画像に含まれる特徴点の三次元位置を算出する構成を実現する。
【解決手段】カメラの取得画像に基づいて正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成し、さらに、カメラの取得画像に基づいて正規分布に従った特徴点追跡誤差分布を生成し、これらの正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出する。本構成によりカメラの取得画像に含まれる特徴点の三次元位置をより正確に解析すること可能となる。
【選択図】図1A configuration for calculating a three-dimensional position of a feature point included in a captured image based on an acquired image of a camera is realized.
Generating camera position and orientation information having an existence probability distribution according to a normal distribution based on an acquired image of the camera, and generating a feature point tracking error distribution according to the normal distribution based on the acquired image of the camera Then, the existence probability distribution of the feature points in the three-dimensional space is calculated by applying the camera position and orientation information having the existence probability distribution according to the normal distribution and the feature point tracking error distribution information according to the normal distribution. With this configuration, the three-dimensional position of the feature point included in the acquired image of the camera can be analyzed more accurately.
[Selection] Figure 1
Description
本発明は、情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、カメラによって撮影された画像に基づいて画像に含まれる特徴点等の三次元位置を求める情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a computer program. More specifically, the present invention relates to an information processing apparatus, an information processing method, and a computer program for obtaining a three-dimensional position such as a feature point included in an image based on an image photographed by a camera.
カメラの撮影画像を解析して撮影画像に含まれるオブジェクトの三次元位置を求める処理が様々な分野で利用されている。例えばカメラを備えたロボットなどのエージェント(移動体)が、カメラの撮影画像を解析して移動環境を観測し、観測状況に応じてエージェント周囲の環境を把握しながら移動を行う処理や、撮影画像に基づいて周囲環境の地図(環境地図)を作成する環境マップ構築処理に利用される。 Processing for analyzing a photographed image of a camera and obtaining a three-dimensional position of an object included in the photographed image is used in various fields. For example, an agent (moving body) such as a robot equipped with a camera analyzes the captured image of the camera, observes the moving environment, and moves while grasping the environment around the agent according to the observation situation, It is used for environment map construction processing for creating a map of the surrounding environment (environment map) based on
カメラの撮影する動画像の複数のフレームから同一の特徴点の追跡を行うことで、カメラ位置と特徴点位置を算出することができる。非特許文献1には、特徴点位置の追跡を全フレームで行い、全フレームのデータが得られた後、バッチ処理により特徴点の位置とカメラ位置を算出する方法を開示している。 By tracking the same feature point from a plurality of frames of a moving image captured by the camera, the camera position and the feature point position can be calculated. Non-Patent Document 1 discloses a method of tracking feature point positions in all frames and calculating the positions of feature points and camera positions by batch processing after data of all frames is obtained.
しかし、この非特許文献1に示された手法では特徴点の位置の存在確率分布は得られないという問題点があり、収束しているかの判断、すなわち解析結果のみから正しい特徴点位置が得られているか否かの判定が難しい。また、追跡しようとする全特徴点が全フレームに写っていないと正しい解析が困難になるという問題点もある. However, the method disclosed in Non-Patent Document 1 has a problem that the existence probability distribution of the feature point positions cannot be obtained, and a correct feature point position can be obtained only from the judgment of whether or not the feature points are converged, that is, the analysis result. It is difficult to determine whether or not In addition, there is a problem that correct analysis becomes difficult unless all the feature points to be tracked are shown in all frames.
また、非特許文献2は、パーティクル・フィルタ(Particle Filter)により特徴点の三次元位置を見積る方法を提案している。パーティクル・フィルタを適用した三次元位置検出処理は、多数のパーティクル(サンプリング点)を用いて状態分布を近似する同定処理手法である。 Non-Patent Document 2 proposes a method for estimating a three-dimensional position of a feature point using a particle filter. The three-dimensional position detection process to which the particle filter is applied is an identification process technique that approximates the state distribution using a large number of particles (sampling points).
このパーティクル・フィルタを適用した三次元位置検出処理では,新規の特徴点の存在確率分布の算出は行われるが存在確率分布算出に用いる情報は、新規特徴点の出現するフレーム以前のフレーム情報としてのカメラの位置姿勢情報や特徴点追跡誤差であり、新規特徴点の出現フレームからの情報が適用されず正しい特徴点の三次元位置にはならないという問題がある。
本発明は、上述の問題点に鑑みてなされたものであり、カメラによって撮影された画像に基づいて求めたカメラの三次元位置姿勢存在確率分布と、特徴点の追跡結果を元に特徴点の三次元位置存在確率分布を正確に求めることを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and based on the three-dimensional position and orientation existence probability distribution of the camera obtained based on the image photographed by the camera and the tracking result of the feature point, An object of the present invention is to provide an information processing apparatus, an information processing method, and a computer program capable of accurately obtaining a three-dimensional position existence probability distribution.
本発明の第1の側面は、
カメラの撮影画像に含まれる特徴点の三次元存在確率分布を算出する情報処理装置であり、
画像を撮影するカメラと、
前記カメラの取得した画像に基づいてカメラの位置および姿勢を検出するカメラ位置姿勢検出部と、
前記カメラの取得した画像から抽出した特徴点を追跡する特徴点追跡部と、
前記カメラ位置姿勢検出部の検出したカメラ位置姿勢情報と、前記特徴点追跡部の取得した特徴点軌跡情報を入力して、特徴点の三次元存在確率分布を算出する特徴点三次元位置検出部を有し、
前記カメラは位置または姿勢の少なくともいずれかを変更して複数の画像フレームを順次撮影する構成であるともにピンホールカメラモデル構成を有し、
前記カメラ位置姿勢検出部は、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成する構成であり、
前記特徴点追跡部は、正規分布に従った特徴点追跡誤差分布を生成する構成であり、
前記三次元位置検出部は、前記カメラ位置姿勢検出部の生成する正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、前記特徴点追跡部の生成する正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出する構成であることを特徴とする情報処理装置にある。
The first aspect of the present invention is:
An information processing device that calculates a three-dimensional existence probability distribution of feature points included in a captured image of a camera,
A camera for taking images,
A camera position and orientation detection unit for detecting the position and orientation of the camera based on an image acquired by the camera;
A feature point tracking unit that tracks feature points extracted from images acquired by the camera;
A feature point 3D position detection unit that calculates a 3D existence probability distribution of feature points by inputting the camera position and orientation information detected by the camera position and orientation detection unit and the feature point trajectory information acquired by the feature point tracking unit Have
The camera has a pinhole camera model configuration that is configured to sequentially shoot a plurality of image frames by changing at least one of a position and a posture,
The camera position and orientation detection unit is configured to generate camera position and orientation information having an existence probability distribution according to a normal distribution,
The feature point tracking unit is configured to generate a feature point tracking error distribution according to a normal distribution,
The three-dimensional position detection unit includes camera position and orientation information having an existence probability distribution according to a normal distribution generated by the camera position and orientation detection unit, and a feature point tracking error according to a normal distribution generated by the feature point tracking unit. An information processing apparatus is characterized in that the distribution probability is applied to calculate a presence probability distribution of feature points in a three-dimensional space.
さらに、本発明の情報処理装置の一実施態様において、前記カメラ位置姿勢検出部は、カメラ位置(c)とカメラ姿勢(R)の各々について、正規分布に従った存在確率分布を持つ情報を生成する構成であり、前記特徴点追跡部は、画像内の特徴点位置(m)に対応する正規分布に従った特徴点追跡誤差分布を生成する構成であり、前記三次元位置検出部は、正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力として、特徴点の三次元空間における存在確率分布を算出する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the camera position / orientation detection unit generates information having an existence probability distribution according to a normal distribution for each of the camera position (c) and the camera attitude (R). The feature point tracking unit generates a feature point tracking error distribution according to a normal distribution corresponding to the feature point position (m) in the image, and the three-dimensional position detection unit The configuration is such that the presence probability distribution in the three-dimensional space of the feature points is calculated by inputting the camera position (c) having the presence probability distribution according to the distribution, the camera posture (R), and the feature point position (m). Features.
さらに、本発明の情報処理装置の一実施態様において、前記三次元位置検出部は、正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力パラメータとして設定される特徴点の三次元位置算出式の一次編微分による線形近似を用いて、特徴点の三次元空間における存在確率分布を算出する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the three-dimensional position detection unit includes a camera position (c), a camera posture (R), and a feature point position (m) having an existence probability distribution according to a normal distribution. And the existence probability distribution in the three-dimensional space of the feature points using linear approximation by the first-order differentiation of the three-dimensional position calculation formula of the feature points set as input parameters.
さらに、本発明の情報処理装置の一実施態様において、前記特徴点追跡部は、前記カメラの撮像素子の画素設定に基づいて決定される量子化誤差を反映した特徴点追跡誤差分布を生成する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus according to the present invention, the feature point tracking unit generates a feature point tracking error distribution reflecting a quantization error determined based on a pixel setting of an image sensor of the camera. It is characterized by being.
さらに、本発明の情報処理装置の一実施態様において、前記三次元位置検出部は、前記カメラの撮影画像に含まれる同一の特徴点を含む複数の画像中、カメラと特徴点とを結ぶ光線のなす角度(内角)が、予め定めた閾値角度より大きい内角を有する画像に基づいて得られたデータを特徴点存在確率分布算出に適用するデータとして選択するサンプリング部と、前記サンプリング部によって選択されたデータを適用して特徴点の三次元空間における存在確率分布を算出する存在確率分布算出部と、を有する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the three-dimensional position detection unit is configured to detect a ray connecting the camera and the feature point in a plurality of images including the same feature point included in the photographed image of the camera. A sampling unit that selects data obtained based on an image having an inner angle larger than a predetermined threshold angle as an angle (inner angle) formed as data to be applied to feature point existence probability distribution calculation, and is selected by the sampling unit And a presence probability distribution calculating unit that calculates a presence probability distribution of feature points in a three-dimensional space by applying data.
さらに、本発明の情報処理装置の一実施態様において、前記カメラ位置姿勢検出部は、前記カメラから入力する画像内の特徴点の位置と、カメラの位置姿勢を併せて検出するSLAM(simultaneous localization and mapping)を実行する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus according to the present invention, the camera position / orientation detection unit detects a position of the feature point in the image input from the camera and a position / orientation of the camera by using SLAM (simultaneous localization and). (mapping) is executed.
さらに、本発明の情報処理装置の一実施態様において、前記特徴点追跡部は、前記カメラの撮影した前フレームの局所領域画像とのウインドウマッチングを実行して局所領域(特徴点)のフレーム間の移動量を求める処理を実行する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the feature point tracking unit performs window matching with the local region image of the previous frame captured by the camera, and performs frame matching between the frames of the local region (feature points). The present invention is characterized in that a process for obtaining a movement amount is executed.
さらに、本発明の第2の側面は、
情報処理装置において、カメラの撮影画像に含まれる特徴点の三次元存在確率分布を算出する情報処理方法であり、
カメラが、画像を撮影する画像撮影ステップと、
カメラ位置姿勢検出部が、前記カメラの取得した画像に基づいてカメラの位置および姿勢を検出するカメラ位置姿勢検出ステップと、
特徴点追跡部が、前記カメラの取得した画像から抽出した特徴点を追跡する特徴点追跡ステップと、
三次元位置検出部が、前記カメラ位置姿勢検出部の検出したカメラ位置姿勢情報と、前記特徴点追跡部の取得した特徴点軌跡情報を入力して、特徴点の三次元存在確率分布を算出する特徴点三次元位置検出ステップを有し、
前記画像撮影ステップは、ピンホールカメラモデル構成を持つカメラにより、位置または姿勢の少なくともいずれかを変更して複数の画像フレームを順次撮影するステップであり、
前記カメラ位置姿勢検出ステップは、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成するステップであり、
前記特徴点追跡ステップは、正規分布に従った特徴点追跡誤差分布を生成するステップであり、
前記三次元位置検出ステップは、前記カメラ位置姿勢検出部の生成する正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、前記特徴点追跡部の生成する正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出するステップであることを特徴とする情報処理方法にある。
Furthermore, the second aspect of the present invention provides
In the information processing apparatus, an information processing method for calculating a three-dimensional existence probability distribution of feature points included in a captured image of a camera,
An image capturing step in which the camera captures an image;
A camera position and orientation detection unit, wherein a camera position and orientation detection unit detects the position and orientation of the camera based on an image acquired by the camera;
A feature point tracking unit for tracking a feature point extracted from an image acquired by the camera;
The three-dimensional position detection unit inputs the camera position and orientation information detected by the camera position and orientation detection unit and the feature point trajectory information acquired by the feature point tracking unit, and calculates a three-dimensional existence probability distribution of the feature points. A feature point three-dimensional position detection step,
The image capturing step is a step of sequentially capturing a plurality of image frames by changing at least one of a position and a posture with a camera having a pinhole camera model configuration,
The camera position and orientation detection step is a step of generating camera position and orientation information having an existence probability distribution according to a normal distribution,
The feature point tracking step is a step of generating a feature point tracking error distribution according to a normal distribution,
The three-dimensional position detection step includes camera position and orientation information having an existence probability distribution according to a normal distribution generated by the camera position and orientation detection unit, and a feature point tracking error according to a normal distribution generated by the feature point tracking unit. An information processing method is characterized in that it is a step of calculating an existence probability distribution of a feature point in a three-dimensional space by applying distribution information.
さらに、本発明の情報処理方法の一実施態様において、前記カメラ位置姿勢検出ステップは、カメラ位置(c)とカメラ姿勢(R)の各々について、正規分布に従った存在確率分布を持つ情報を生成するステップであり、前記特徴点追跡ステップは、画像内の特徴点位置(m)に対応する正規分布に従った特徴点追跡誤差分布を生成するステップであり、前記三次元位置検出ステップは、正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力として、特徴点の三次元空間における存在確率分布を算出するステップであることを特徴とする。 Furthermore, in an embodiment of the information processing method of the present invention, the camera position / orientation detection step generates information having an existence probability distribution according to a normal distribution for each of the camera position (c) and the camera attitude (R). The feature point tracking step is a step of generating a feature point tracking error distribution according to a normal distribution corresponding to the feature point position (m) in the image, and the three-dimensional position detecting step is a normal step. The step of calculating the existence probability distribution of the feature points in the three-dimensional space with the camera position (c) having the existence probability distribution according to the distribution, the camera posture (R), and the feature point position (m) as inputs. Features.
さらに、本発明の情報処理方法の一実施態様において、前記三次元位置検出ステップは、正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力パラメータとして設定される特徴点の三次元位置算出式の一次編微分による線形近似を用いて、特徴点の三次元空間における存在確率分布を算出するステップであることを特徴とする。 Furthermore, in an embodiment of the information processing method of the present invention, the three-dimensional position detecting step includes a camera position (c) having a presence probability distribution according to a normal distribution, a camera posture (R), and a feature point position (m). Is a step of calculating the existence probability distribution of the feature points in the three-dimensional space using linear approximation by first-order differentiation of the feature point three-dimensional position calculation formula set as an input parameter.
さらに、本発明の情報処理方法の一実施態様において、前記特徴点追跡ステップは、前記カメラの撮像素子の画素設定に基づいて決定される量子化誤差を反映した特徴点追跡誤差分布を生成するステップであることを特徴とする。 Furthermore, in an embodiment of the information processing method of the present invention, the feature point tracking step includes a step of generating a feature point tracking error distribution reflecting a quantization error determined based on a pixel setting of an image sensor of the camera. It is characterized by being.
さらに、本発明の情報処理方法の一実施態様において、前記三次元位置検出ステップは、前記カメラの撮影画像に含まれる同一の特徴点を含む複数の画像中、カメラと特徴点とを結ぶ光線のなす角度(内角)が、予め定めた閾値角度より大きい内角を有する画像に基づいて得られたデータを特徴点存在確率分布算出に適用するデータとして選択するサンプリングステップと、前記サンプリングステップにおいて選択されたデータを適用して特徴点の三次元空間における存在確率分布を算出する存在確率分布算出ステップと、を有することを特徴とする。 Furthermore, in an embodiment of the information processing method of the present invention, the three-dimensional position detection step includes: a light ray connecting the camera and the feature point in a plurality of images including the same feature point included in the photographed image of the camera. A sampling step for selecting data obtained based on an image having an inner angle that is larger than a predetermined threshold angle as the data to be applied to the calculation of the feature point existence probability distribution; An existence probability distribution calculating step of calculating an existence probability distribution of the feature points in the three-dimensional space by applying the data.
さらに、本発明の情報処理方法の一実施態様において、前記カメラ位置姿勢検出ステップは、前記カメラから入力する画像内の特徴点の位置と、カメラの位置姿勢を併せて検出するSLAM(simultaneous localization and mapping)を実行するステップであることを特徴とする。 Furthermore, in one embodiment of the information processing method of the present invention, the camera position / orientation detection step includes SLAM (simultaneous localization and and) that detects the position of the feature point in the image input from the camera and the position and orientation of the camera. (mapping) is performed.
さらに、本発明の情報処理方法の一実施態様において、前記特徴点追跡ステップは、前記カメラの撮影した前フレームの局所領域画像とのウインドウマッチングを実行して局所領域(特徴点)のフレーム間の移動量を求める処理を実行するステップであることを特徴とする。 Furthermore, in one embodiment of the information processing method of the present invention, the feature point tracking step performs window matching with the local region image of the previous frame photographed by the camera to perform a local region (feature point) between frames. It is a step for executing a process for obtaining a movement amount.
さらに、本発明の第3の側面は、
情報処理装置に、カメラの撮影画像に含まれる特徴点の三次元存在確率分布を算出させるコンピュータ・プログラムであり、
カメラに、画像を撮影させる画像撮影ステップと、
カメラ位置姿勢検出部に、前記カメラの取得した画像に基づいてカメラの位置および姿勢を検出させるカメラ位置姿勢検出ステップと、
特徴点追跡部に、前記カメラの取得した画像から抽出した特徴点を追跡させる特徴点追跡ステップと、
三次元位置検出部に、前記カメラ位置姿勢検出部の検出したカメラ位置姿勢情報と、前記特徴点追跡部の取得した特徴点軌跡情報を入力して、特徴点の三次元存在確率分布を算出させる特徴点三次元位置検出ステップを有し、
前記画像撮影ステップは、ピンホールカメラモデル構成を持つカメラにより、位置または姿勢の少なくともいずれかを変更して複数の画像フレームを順次撮影させるステップであり、
前記カメラ位置姿勢検出ステップは、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成させるステップであり、
前記特徴点追跡ステップは、正規分布に従った特徴点追跡誤差分布を生成するステップであり、
前記三次元位置検出ステップは、前記カメラ位置姿勢検出部の生成する正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、前記特徴点追跡部の生成する正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出させるステップであることを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
A computer program that causes an information processing device to calculate a three-dimensional existence probability distribution of feature points included in a captured image of a camera,
An image capturing step for causing the camera to capture an image;
A camera position and orientation detection step for causing the camera position and orientation detection unit to detect the position and orientation of the camera based on the image acquired by the camera;
A feature point tracking step for causing the feature point tracking unit to track a feature point extracted from the image acquired by the camera;
The 3D position detection unit inputs the camera position and orientation information detected by the camera position and orientation detection unit and the feature point trajectory information acquired by the feature point tracking unit, and calculates a 3D existence probability distribution of the feature points. A feature point three-dimensional position detection step,
The image capturing step is a step of sequentially capturing a plurality of image frames by changing at least one of a position and a posture with a camera having a pinhole camera model configuration,
The camera position and orientation detection step is a step of generating camera position and orientation information having an existence probability distribution according to a normal distribution,
The feature point tracking step is a step of generating a feature point tracking error distribution according to a normal distribution,
The three-dimensional position detection step includes camera position and orientation information having an existence probability distribution according to a normal distribution generated by the camera position and orientation detection unit, and a feature point tracking error according to a normal distribution generated by the feature point tracking unit. In the computer program, the distribution information is applied to calculate a presence probability distribution of the feature points in the three-dimensional space.
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。 The computer program of the present invention is, for example, a computer program that can be provided by a storage medium or a communication medium provided in a computer-readable format to a general-purpose computer system that can execute various program codes. . By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。 Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
本発明の一実施例の構成によれば、カメラの取得した画像に基づいて正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成し、さらに、カメラの取得画像に基づいて正規分布に従った特徴点追跡誤差分布を生成し、これらの正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出する構成とした。本構成によれば、カメラの取得画像に含まれる特徴点の三次元位置をより正確に解析すること可能となる。 According to the configuration of the embodiment of the present invention, the camera position and orientation information having the existence probability distribution according to the normal distribution is generated based on the image acquired by the camera, and the normal distribution is generated based on the acquired image of the camera. A feature point tracking error distribution is generated, and the camera position and orientation information having the existence probability distribution according to these normal distributions and the feature point tracking error distribution information according to the normal distributions are applied to the three-dimensional space of the feature points The existence probability distribution at is calculated. According to this configuration, it is possible to more accurately analyze the three-dimensional position of the feature point included in the acquired image of the camera.
以下、図面を参照しながら本発明の実施形態に係る情報処理装置、および情報処理方法、並びにコンピュータ・プログラムの詳細について説明する。 Details of an information processing apparatus, an information processing method, and a computer program according to embodiments of the present invention will be described below with reference to the drawings.
本発明の一実施形態にかかる情報処理装置の構成について図1を参照して説明する。本発明の情報処理装置100は、カメラ101によって撮影された画像データに基づいて撮影画像に含まれるオブジェクトなどの特徴点の三次元位置情報である特徴点存在確率分布107を生成して出力する。 A configuration of an information processing apparatus according to an embodiment of the present invention will be described with reference to FIG. The information processing apparatus 100 according to the present invention generates and outputs a feature point existence probability distribution 107 that is three-dimensional position information of feature points such as objects included in a captured image based on image data captured by the camera 101.
本発明の一実施形態にかかる情報処理装置は図1に示すように、周囲環境を撮影するカメラ101と、カメラ101の撮影画像を入力してカメラの位置姿勢を推定するカメラ位置姿勢検出部102と、カメラ101の撮影画像を入力して、撮影画像に含まれる特徴点の追跡処理を実行する特徴点追跡部103と、カメラ位置姿勢検出部102において検出されたカメラ位置姿勢情報を記憶するカメラ位置姿勢記憶部104、特徴点追跡部103の検出した特徴点の軌跡情報を記憶する特徴点軌跡情報記憶部105と、カメラ位置姿勢記憶部104に格納されたカメラ位置姿勢情報と、特徴点軌跡情報記憶部105に格納された特徴点軌跡情報を入力して、これらの入力情報に基づいて特徴点の三次元位置情報としての特徴点存在確率分布107を生成する特徴点三次元位置検出部107とを有する。 As shown in FIG. 1, an information processing apparatus according to an embodiment of the present invention includes a camera 101 that captures the surrounding environment, and a camera position and orientation detection unit 102 that inputs a captured image of the camera 101 and estimates the position and orientation of the camera. A feature point tracking unit 103 that inputs a captured image of the camera 101 and executes a tracking process of a feature point included in the captured image, and a camera that stores camera position and orientation information detected by the camera position and orientation detection unit 102 Position / orientation storage unit 104, feature point trajectory information storage unit 105 that stores trajectory information of feature points detected by the feature point tracking unit 103, camera position / orientation information stored in the camera position / orientation storage unit 104, and feature point trajectory The feature point trajectory information stored in the information storage unit 105 is input, and the feature point existence probability distribution 10 as the three-dimensional position information of the feature points based on the input information. And a feature point three-dimensional position detector 107 which generates a.
カメラ101は、例えば移動するロボットに装着され、あるいはユーザ(人)によって適宜、移動される。すなわちカメラ101の位置や姿勢は固定されたものではなく、変更された位置姿勢からの撮影画像、すなわち連続フレームからなる動画像を入力する。カメラ101はピンホールカメラモデルに合うものを用いている。ピンホールカメラモデルは、三次元空間の点の位置とカメラ像平面の画素位置との射影変換を表しており、以下の式で表される。
上記式の意味について、図2、図3を参照して説明する。上記式は、カメラの撮影画像210に含まれるオブジェクト211の点(m)のカメラ像平面の画素位置212、すなわち、カメラ座標系によって表現されている位置と、世界座標系におけるオブジェクト200の三次元位置(M)201との対応関係を示す式である。 The meaning of the above formula will be described with reference to FIGS. The above formula is obtained by calculating the pixel position 212 on the camera image plane of the point (m) of the object 211 included in the captured image 210 of the camera, that is, the position represented by the camera coordinate system, and the three-dimensional object 200 in the world coordinate system. It is an expression showing the correspondence with the position (M) 201.
カメラ像平面の画素位置212はカメラ座標系によって表現されている。カメラ座費用系は、カメラの焦点を原点Cとして、像平面がXc,Ycの二次元平面、奥行きをZcとした座標系であり、カメラの動きによって原点Cは移動する。 A pixel position 212 on the camera image plane is expressed by a camera coordinate system. The camera seat cost system is a coordinate system in which the focal point of the camera is the origin C, the image plane is a two-dimensional plane of Xc and Yc, and the depth is Zc, and the origin C is moved by the movement of the camera.
一方、オブジェクト200の三次元位置(M)201は、カメラの動きによって移動しない原点Oを有するXYZ三軸からなる世界座標系によって示される。この異なる座標系でのオブジェクトの位置の対応関係を示す式が上述のピンホールカメラモデルとして定義される。 On the other hand, the three-dimensional position (M) 201 of the object 200 is indicated by a world coordinate system composed of XYZ three axes having an origin O that does not move due to the movement of the camera. An expression indicating the correspondence between the positions of the objects in the different coordinate systems is defined as the above-described pinhole camera model.
この式に含まれるλ,A,Cw,Rwは、図3に示すように、
λ:正規化パラメータ
A:カメラ内部パラメータ、
Cw:カメラ位置、
Rw:カメラ回転行列、
を意味している。
Λ, A, Cw, and Rw included in this equation are as shown in FIG.
λ: normalization parameter A: camera internal parameter,
Cw: camera position,
Rw: camera rotation matrix,
Means.
カメラ内部パラメータAには、以下の値が含まれる。
f:焦点距離
θ:画像軸の直交性(理想値は90°)
ku:縦軸のスケール(三次元位置のスケールから二次元画像のスケールへの変換)
kv:横軸のスケール(三次元位置のスケールから二次元画像のスケールへの変換)
(u0,v0):画像中心位置
The camera internal parameter A includes the following values.
f: Focal length θ: Image axis orthogonality (ideal value is 90 °)
ku: scale of the vertical axis (conversion from the 3D position scale to the 2D image scale)
kv: Scale on the horizontal axis (conversion from 3D position scale to 2D image scale)
(U0, v0): Image center position
このピンホールカメラモデル、すなわち、三次元空間の点の位置とカメラ像平面の画素位置との射影変換を表す式を用いて、図1に示すカメラ位置姿勢検出部102は、カメラ101から入力する映像内の特徴点を利用して、特徴点の位置とカメラ位置を毎フレーム修正し、カメラ位置姿勢検出部102で決めた世界座標系で表されたカメラの推定位置および姿勢情報としてのカメラの位置(Cw)およびカメラの回転行列(Rw)を生成してカメラ位置姿勢記憶部104に格納する。 The camera position / orientation detection unit 102 shown in FIG. 1 inputs from the camera 101 using this pinhole camera model, that is, an expression representing the projective transformation between the position of the point in the three-dimensional space and the pixel position on the camera image plane. Using the feature point in the video, the position of the feature point and the camera position are corrected every frame, and the estimated position and orientation information of the camera represented by the world coordinate system determined by the camera position and orientation detection unit 102 A position (Cw) and a camera rotation matrix (Rw) are generated and stored in the camera position and orientation storage unit 104.
なお、この処理は、前述の論文[Andrew J.Davison,"Real−time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載された方法を用いることができる。 This process is performed in the above-mentioned paper [Andrew J. Davison, “Real-time simulated localization and mapping with a single camera”, Proceedings of the 9th International Conference on Computer Vision, Ninth, 200.
なお、カメラ位置姿勢検出部102では、カメラの位置(Cw)およびカメラの回転行列(Rw)の各々について、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成してカメラ位置姿勢記憶部104に格納する。 The camera position / orientation detection unit 102 generates camera position / orientation information having an existence probability distribution according to a normal distribution for each of the camera position (Cw) and the camera rotation matrix (Rw), and stores the camera position / orientation memory. Stored in the unit 104.
なお、カメラの位置や方向などのポーズ(位置姿勢)の確認として実行される自己ポーズ(位置姿勢)同定(ローカリゼーション)に併せて周囲の地図(環境地図)の作成(mapping)、すなわち環境マップの作成を行なう処理はSLAM(simultaneous localization and mapping)と呼ばれる。カメラ位置姿勢検出部102では、このSLAM技法により、カメラ位置姿勢に併せて撮影画像に含まれる特徴点情報に基づくマッピング処理を行い、これらの結果をカメラ位置姿勢記憶部104に格納する構成としてもよい。 It should be noted that the creation of a surrounding map (environment map) in conjunction with the self-pose (position and orientation) identification (localization) executed as confirmation of the pose (position and orientation) of the camera position and direction, that is, the environment map The process of creating is called SLAM (simultaneous localization and mapping). The camera position / orientation detection unit 102 may perform a mapping process based on the feature point information included in the photographed image along with the camera position / orientation by using this SLAM technique, and store these results in the camera position / orientation storage unit 104. Good.
カメラ101の撮影画像は特徴点追跡部103にも入力される。特徴点追跡部103の詳細構成および処理について図4を参照して説明する。特徴点追跡部103は、図4に示すように、特徴点追跡部301と特徴点抽出部302と先行フレームの追跡情報を格納する先行フレーム追跡情報格納部303を有する。 The captured image of the camera 101 is also input to the feature point tracking unit 103. The detailed configuration and processing of the feature point tracking unit 103 will be described with reference to FIG. As shown in FIG. 4, the feature point tracking unit 103 includes a feature point tracking unit 301, a feature point extraction unit 302, and a preceding frame tracking information storage unit 303 that stores tracking information of the preceding frame.
特徴点追跡部301は、カメラ101によって取得されるフレーム画像内から選択される局所領域(特徴点)のフレーム間の移動量を求める。例えば、特徴点追跡部301は前フレームの局所領域画像とのウインドウマッチングを実行して局所領域(特徴点)のフレーム間の移動量を求める。なお、算出した追跡結果には移動量の誤差も含まれこの誤差についても考慮した処理を行う。すなわち、本例では移動量算出において画像を用いており画素位置による量子化誤差を考慮して処理を行う。 The feature point tracking unit 301 obtains a movement amount between frames of a local region (feature point) selected from the frame image acquired by the camera 101. For example, the feature point tracking unit 301 performs window matching with the local region image of the previous frame to obtain the amount of movement of the local region (feature point) between frames. Note that the calculated tracking result includes an error in the amount of movement, and processing is performed in consideration of this error. That is, in this example, an image is used in the movement amount calculation, and processing is performed in consideration of a quantization error due to the pixel position.
特徴点追跡部301は、カメラ101の撮像素子の画素設定に基づいて決定される量子化誤差を反映した特徴点追跡誤差分布を生成する。特徴点追跡結果に対する定数の誤差分布を
誤差分布Σとして、誤差分布を持つ特徴点追跡結果を生成する。特徴点追跡部301は、正規分布に従った特徴点追跡誤差分布を生成する。
The feature point tracking unit 301 generates a feature point tracking error distribution reflecting the quantization error determined based on the pixel setting of the image sensor of the camera 101. Using a constant error distribution for the feature point tracking result as an error distribution Σ, a feature point tracking result having an error distribution is generated. The feature point tracking unit 301 generates a feature point tracking error distribution according to the normal distribution.
特徴点追跡部301で得られる特徴点追跡結果は、特徴点追跡情報321として出力され図1に示す特徴点追跡情報記憶部105に記録される。さらに、この特徴点追跡結果は、特徴点抽出部302に入力され、また後続フレームに対する特徴点追跡処理に適用するため先行フレーム追跡情報格納部303にも格納される。 The feature point tracking result obtained by the feature point tracking unit 301 is output as feature point tracking information 321 and recorded in the feature point tracking information storage unit 105 shown in FIG. Further, the feature point tracking result is input to the feature point extracting unit 302 and also stored in the preceding frame tracking information storage unit 303 to be applied to the feature point tracking process for the subsequent frame.
特徴点抽出部302では、特徴点追跡部301から入力する特徴点追跡結果から特徴点の追跡がなされなかった画像領域を抽出し、ハリスコーナーディテクター(Harris Corner Detector)を用いた新規の特徴点の抽出処理を実行する。すなわち、特徴点を持たない画像領域に新たな特徴点を抽出し、抽出した特徴点情報を先行フレーム追跡情報格納部303に格納する。なお、特徴点を検出する最小画像領域区分は予め設定し、その区分領域内に1つ以上の特徴点が常に検出される設定とすることが好ましい。 The feature point extraction unit 302 extracts an image area where the feature point has not been tracked from the feature point tracking result input from the feature point tracking unit 301, and creates a new feature point using a Harris Corner Detector (Harris Corner Detector). Execute the extraction process. That is, a new feature point is extracted from an image area having no feature point, and the extracted feature point information is stored in the preceding frame tracking information storage unit 303. It is preferable that the minimum image area section for detecting feature points is set in advance, and one or more feature points are always detected in the section area.
ハリスコーナーディテクター(Harris Corner Detector)を用いた特徴点抽出処理について図5を参照して説明する。情報処理装置のデータ処理部は、特徴点抽出に際して図5に示すようにカメラによって撮影された取得イメージ400から複数のハリスコーナーイメージ410〜412と、ラプラシアンイメージ420〜422を生成する。 A feature point extraction process using a Harris corner detector will be described with reference to FIG. The data processing unit of the information processing apparatus generates a plurality of Harris corner images 410 to 412 and Laplacian images 420 to 422 from the acquired image 400 photographed by the camera as shown in FIG.
ハリスコーナーイメージは、取得イメージに対してハリスコーナーディテクター(Harris Corner Detector)を適用して生成されるイメージデータである。これらのハリスコーナーイメージ410〜412から、例えば周囲8画素に比較して値の高い画素ポイント(maxima point)415を検出点として抽出する。さらに、取得イメージ400に対して、LoG(Laplacian of Gaussian)フィルタを適用して複数レベル(解像度)のラプラシアンイメージ420〜422を生成する。LoG(Laplacian of Gaussian)フィルタは、画像の輪郭強調のために用いられる2次微分フィルタの一種であり、人間の視覚系で網膜からの情報が外側膝状体で中継されるまでに行われている処理の近似モデルとして用いられるものである。 A Harris corner image is image data generated by applying a Harris Corner Detector to an acquired image. From these Harris corner images 410 to 412, for example, a pixel point (maxima point) 415 having a higher value than the surrounding eight pixels is extracted as a detection point. Furthermore, a LoG (Laplacian of Gaussian) filter is applied to the acquired image 400 to generate multiple levels (resolution) of Laplacian images 420 to 422. The LoG (Laplacian of Gaussian) filter is a kind of second-order differential filter used for image edge enhancement, and is performed until information from the retina is relayed by the outer knee in the human visual system. It is used as an approximate model of the processing.
特徴点抽出処理は、LoGフィルタ出力画像であるラプラシアンイメージ420〜422の所定のレベル範囲内の解像度変化によって位置の変化がないかハリスコーナーイメージ410〜412から得られた検出点の位置に対応する箇所に対して調べ、変化がない点を特徴点とする。これにより、画像の拡大縮小操作に対してロバストな特徴点間のマッチングが実現できる。なお、これらの特徴点抽出処理の詳細については、例えば、特開2004−326693号公報(特願2003−124225)に記載されており、特徴点抽出部302における特徴点抽出処理としてこの手法の適用が可能である。 The feature point extraction processing corresponds to the position of the detection point obtained from the Harris corner images 410 to 412 as to whether there is a change in position due to a resolution change within a predetermined level range of the Laplacian images 420 to 422 that are LoG filter output images. A point is examined, and a point having no change is defined as a feature point. Thereby, it is possible to realize matching between feature points that is robust to an enlargement / reduction operation of an image. Details of these feature point extraction processes are described in, for example, Japanese Patent Application Laid-Open No. 2004-326693 (Japanese Patent Application No. 2003-124225), and this method is applied as a feature point extraction process in the feature point extraction unit 302. Is possible.
図1のカメラ位置姿勢記憶部104と特徴点軌跡情報記憶部105は、それぞれカメラ位置姿勢検出部102の検出したカメラ位置姿勢情報と、特徴点追跡部103の検出した特徴点軌跡情報について、全フレームの出力結果を保持している。なお、それぞれのデータのフレーム時間の同期はとれているものとする。 The camera position / posture storage unit 104 and the feature point trajectory information storage unit 105 in FIG. 1 are all about the camera position / posture information detected by the camera position / posture detection unit 102 and the feature point trajectory information detected by the feature point tracking unit 103, respectively. Holds the output result of the frame. It is assumed that the frame times of the respective data are synchronized.
図1の特徴点三次元位置検出部106の詳細構成および処理について図6を参照して説明する。特徴点三次元位置検出部106は、図6に示すようにサンプリング部501、存在確率分布算出部502を有する。 A detailed configuration and processing of the feature point three-dimensional position detection unit 106 in FIG. 1 will be described with reference to FIG. The feature point three-dimensional position detection unit 106 includes a sampling unit 501 and an existence probability distribution calculation unit 502 as shown in FIG.
サンプリング部501では、カメラ位置姿勢記憶部104に記録された全フレーム画像に対応する、各フレーム画像対応のカメラ位置姿勢情報と、特徴点軌跡情報記憶部105に格納された各フレーム対応の特徴点軌跡情報から、特徴点の存在確率分布データを生成するために適用する情報を選択する。 In the sampling unit 501, camera position / orientation information corresponding to each frame image corresponding to all frame images recorded in the camera position / orientation storage unit 104 and feature points corresponding to each frame stored in the feature point locus information storage unit 105. Information to be applied for generating feature point existence probability distribution data is selected from the trajectory information.
例えば、カメラ101の撮影画像における連続フレームでは、撮影画像がほとんど変化していない類似画像である可能性が高く、これらの類似画像から得られるカメラ位置姿勢情報や特徴点軌跡情報もあまり変化がない。このような変化の乏しい情報を用いても処理が非効率的となり、また特徴点の三次元位置の算出には不適当となる。従って、サンプリング部501では、特徴点の三次元位置の正確な算出が可能となる情報を選択する処理を行う。 For example, in a continuous frame in a captured image of the camera 101, there is a high possibility that the captured image is a similar image with almost no change, and the camera position and orientation information and feature point trajectory information obtained from these similar images are not significantly changed. . Even if such information with poor change is used, the processing becomes inefficient, and it is inappropriate for the calculation of the three-dimensional position of the feature point. Therefore, the sampling unit 501 performs processing for selecting information that enables accurate calculation of the three-dimensional position of the feature point.
サンプリング部501で実行するサンプリング方法について、図7を参照して説明する。カメラ101は、その位置、姿勢が時間とともに変更される。図7には、
i番目のフレームを撮影する位置のカメラ101−i、
j番目のフレームを撮影する位置のカメラ101−j、
を示している。これらのカメラは同一のカメラであり、時間経過に伴って移動した位置で画像を撮影していることを意味している。
A sampling method executed by the sampling unit 501 will be described with reference to FIG. The position and posture of the camera 101 are changed with time. In FIG.
the camera 101-i at the position where the i-th frame is shot,
the camera 101-j at the position where the j-th frame is shot,
Is shown. These cameras are the same camera, meaning that an image is taken at a position moved with the passage of time.
このようにカメラ101は異なる位置から画像を撮影し、その異なるフレーム画像に同一の特徴点M601が撮影されているとする。このように、さまざまな方向からカメラは特徴点を観測することになる。カメラと特徴点を結ぶ線を光線と呼ぶが、光線方向が違うものをサンプリングすれば、異なる情報を持つデータのサンプリングを実行することになり特徴点の三次元位置情報の算出精度を高くすることができる。従って、光線方向が異なるデータをサンプリングすることが好ましい。 As described above, it is assumed that the camera 101 captures images from different positions and the same feature point M601 is captured in the different frame images. In this way, the camera observes feature points from various directions. The line connecting the camera and the feature point is called a ray, but if samples with different ray directions are sampled, data with different information will be sampled and the accuracy of calculating the 3D position information of the feature point will be increased. Can do. Therefore, it is preferable to sample data with different ray directions.
方向が大きく異なる光線同士は光線同士の内角θが大きい。逆に似たような方向の光線同士の内角θは小さい。本例では内角θを参考としてサンプリングを行う。内角θは、ベクトルの内積の公式、すなわち、以下の数式を利用して求めることが可能である。
但し、上記(数式2)において、
RT i・xi:カメラ101−iから特徴点M601へ向かう光線の単位ベクトル、
RT j・xj:カメラ101−jから特徴点M601へ向かう光線の単位ベクトル、
である。
このように、内角θを算出する場合、異なる位置・姿勢のカメラから観測された光線(カメラと特徴点とを結ぶ線)の単位ベクトルが必要である。以下、光線の単位ベクトルの導出方法について説明する。
However, in the above (Formula 2),
R T i · x i : unit vector of light rays from the camera 101-i toward the feature point M601,
R T j · x j : unit vector of light rays from the camera 101-j toward the feature point M601,
It is.
As described above, when the internal angle θ is calculated, a unit vector of light rays (line connecting the camera and the feature point) observed from cameras with different positions and orientations is necessary. Hereinafter, a method for deriving a unit vector of light will be described.
図7に示すカメラ101−iから特徴点M601へ向かう光線の単位ベクトルの算出処理について説明する。
カメラ101−iのカメラの位置をci、姿勢(回転行列)をRiとして、カメラ101−iの撮影画像から得られる観測情報miを用いて単位ベクトル[RT i・xi]を算出する。
Processing for calculating a unit vector of light rays from the camera 101-i shown in FIG. 7 toward the feature point M601 will be described.
The unit vector [R T i · x i ] is calculated using observation information mi obtained from the captured image of the camera 101-i, where the camera position of the camera 101-i is ci and the posture (rotation matrix) is Ri.
カメラ101−iの焦点と特徴点M601とを結ぶ光線方向の単位ベクトルは、以下の数式(数式3)によって示される。
特徴点M601とカメラ101−iの焦点とを結ぶ光線の単位ベクトルは、先に図2、図3を参照して説明したピンホールカメラの公式から、図8に示す(a)〜(c)の展開、すなわち、以下の数式4〜数式6の展開によって求めることができる。
まず、ピンホールカメラの公式(数式4)から(数式5)が得られる。(数式5)の右辺は「カメラの位置が原点で姿勢が各軸を表すカメラ座標系での、特徴点の位置」を示しており、右辺のdiは「特徴点とカメラとの距離」、xiは「カメラ座標系での、光線の単位ベクトル」を表す。カメラ座標系での、光線の単位ベクトル:xiは、以下の式(数式7)によって求められる。
なお、上記式において、xiはカメラ座標系で表されているため、上記式(数式6)のように変形して、世界座標系での光線のベクトルを求める。但し、上記式(数式6)の左辺は「世界座標系での、カメラから特徴点へ引いたベクトル」を表し、diは「特徴点とカメラとの距離」、xiは「カメラ座標系での、光線の単位ベクトル」を表す。上記式(数式6)中のRTxが「世界座標系での、カメラから観測された光線(カメラと特徴点とを結ぶ線)の単位ベクトル」である。 In the above formula, xi is expressed in the camera coordinate system, and thus the vector of the ray in the world coordinate system is obtained by transformation as in the above formula (Formula 6). However, the left side of the above formula (Formula 6) represents “a vector drawn from the camera to the feature point in the world coordinate system”, di is the “distance between the feature point and the camera”, and xi is “the camera coordinate system” Represents a unit vector of rays. RTx in the above formula (Formula 6) is “a unit vector of rays (line connecting the camera and the feature point) observed from the camera in the world coordinate system”.
得られたRTxを内角θを求める前述した式(数式2)に代入すれば、内角θを求めることができる。図6に示す特徴点三次元位置検出部106のサンプリング部501は、上記式(数式2)によって算出される内角θが小さくないフレームデータ(カメラ位置・姿勢情報と特徴点追跡情報)をサンプリングするようにする。具体的には、例えば予め設定した閾値以上の内角θを持つフレームデータに基づいて得られたカメラ位置・姿勢情報と特徴点追跡情報をサンプリングデータとして取得する。 By substituting the obtained RTx into the above-described equation (Equation 2) for obtaining the internal angle θ, the internal angle θ can be obtained. The sampling unit 501 of the feature point three-dimensional position detection unit 106 illustrated in FIG. 6 samples frame data (camera position / posture information and feature point tracking information) whose internal angle θ calculated by the above formula (Formula 2) is not small. Like that. Specifically, for example, camera position / posture information and feature point tracking information obtained based on frame data having an internal angle θ equal to or greater than a preset threshold is acquired as sampling data.
図6に示す特徴点三次元位置検出部106のサンプリング部501のサンプルデータは、存在確率分布算出部502に入力され、存在確率分布算出部502では入力したサンプルデータに基づいて、特徴点に対応する三次元位置情報としての特徴点存在確率分布を算出する。 The sample data of the sampling unit 501 of the feature point three-dimensional position detection unit 106 shown in FIG. 6 is input to the existence probability distribution calculation unit 502, and the existence probability distribution calculation unit 502 corresponds to the feature points based on the input sample data. The feature point existence probability distribution as the three-dimensional position information to be calculated is calculated.
先に説明したように、カメラ位置姿勢検出部102は、カメラ位置(c)とカメラ姿勢(R)の各々について、各撮影画像フレーム対応の正規分布に従った存在確率分布を持つ情報を生成してカメラ位置姿勢記憶部104に格納し、特徴点追跡部103は、各撮影画像フレーム対応の画像内の特徴点位置(m)に対応する正規分布に従った特徴点追跡誤差分布を生成して特徴点軌跡情報記憶部105に記憶しており、特徴点三次元位置検出部106のサンプリング部501では、図7を参照して説明したように、例えば予め設定した閾値以上の内角θを持つフレームデータに基づいて得られたカメラ位置・姿勢情報と特徴点追跡情報をサンプリングデータとして取得して存在確率分布算出部502に入力する。存在確率分布算出部502では入力したサンプルデータに基づいて、特徴点に対応する三次元位置情報としての特徴点存在確率分布を算出する。 As described above, the camera position / orientation detection unit 102 generates, for each of the camera position (c) and the camera attitude (R), information having an existence probability distribution according to a normal distribution corresponding to each captured image frame. The feature point tracking unit 103 generates a feature point tracking error distribution according to a normal distribution corresponding to the feature point position (m) in the image corresponding to each captured image frame. As described with reference to FIG. 7, the sampling unit 501 of the feature point trajectory information storage unit 105 and the sampling point 501 of the feature point three-dimensional position detection unit 106 has, for example, a frame having an internal angle θ equal to or greater than a preset threshold value. Camera position / posture information and feature point tracking information obtained based on the data are acquired as sampling data and input to the existence probability distribution calculation unit 502. The existence probability distribution calculation unit 502 calculates a feature point existence probability distribution as three-dimensional position information corresponding to the feature point based on the input sample data.
存在確率分布算出部502では、サンプルデータとして選択された正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力として、特徴点の三次元空間における存在確率分布を算出する。以下、存在確率分布算出部502で実行する特徴点存在確率分布の算出処理について説明する。 The existence probability distribution calculation unit 502 receives the camera position (c), camera posture (R), and feature point position (m) having an existence probability distribution according to the normal distribution selected as the sample data, and inputs the feature points. The existence probability distribution in the three-dimensional space is calculated. The feature point existence probability distribution calculation process executed by the existence probability distribution calculation unit 502 will be described below.
ピンホールカメラモデルの式を用いて、特徴点の位置M求める。但し、カメラ位置はc、カメラ姿勢(回転行列)はR、カメラ内部パラメータはA、特徴点の画像内の位置はmである。
以下にピンホールカメラモデルの式(数式8)を示す。
The following is the pinhole camera model formula (Formula 8).
上記(数式8)から、特徴点の位置Mに関する式、以下の(数式9)に変形する。
但し、上記(数式9)において、小文字で書かれているベクトルxは、以下の数式10で定義したものを利用した。
また、dはカメラ位置cと特徴点Mとの距離を表す。上記(数式9)は正値にのみ成り立つので、計測値に対しては、特徴点の位置Mに関する以下の数式(数式11)が成り立つ。
但し、記号[^]は計測値を意味し、εは計測誤差により発生する左辺・右辺同士の誤差を表す。また、上記(数式11)において、
入力フレームは1フレーム分のデータではなくnフレーム分のデータ、すなわち、前述したサンプリング処理によって選択された複数のフレーム対応のデータ(カメラ位置姿勢c、Rと特徴点の画像内の位置m)を含むので、複数フレーム対応のデータに対応するために、上記の(数式11)を拡張し、以下の数式(数式13)を得る。
c^i:カメラ位置の計測値(サンプルデータとして選択されたiフレームの正規分布に従った存在確率分布を持つカメラ位置(c))、
R^i:カメラ姿勢(回転行列)の計測値(サンプルデータとして選択されたiフレームの正規分布に従った存在確率分布を持つカメラ姿勢(R))、
Mx,My,Mz:特徴点の三次元位置(サンプルデータとして選択されたiフレームの正規分布に従った特徴点追跡誤差分布を持つ特徴点位置)、
di:カメラと特徴点間の距離(iフレーム撮影時点)=未知、
x^i:カメラから特徴点へ向かう光線の単位ベクトル(iフレーム撮影時点)=未知、
εi:計測誤差により発生する誤差(数式11の左辺・右辺同士の誤差)(iフレーム対応)
c ^ i : Measurement value of camera position (camera position (c) having an existence probability distribution according to a normal distribution of i frames selected as sample data)
R ^ i : Measured value of camera posture (rotation matrix) (camera posture (R) having an existence probability distribution according to a normal distribution of i frames selected as sample data),
Mx, My, Mz: three-dimensional positions of feature points (feature point positions having a feature point tracking error distribution according to a normal distribution of i frames selected as sample data),
d i : distance between camera and feature point (i-frame shooting time) = unknown,
x ^ i : unit vector of light ray from camera to feature point (i-frame shooting time) = unknown,
ε i : Error caused by measurement error (error between left side and right side of Formula 11) (corresponding to i frame)
さらに、以下に示す数式(数式14)の各行列・ベクトル、すなわち、
上記の各行列・ベクトルを以下の(数式15)に示すように定義する。但し、行列eqAは前記ピンホールカメラのAとは異なる。
上記(数式15)の左辺のεのノルム(ベクトルの長さ)が最小(誤差最小)になるようなベクトルXを計算すれば、所望のベクトルX(特徴点の三次元位置Mと、各フレームデータのカメラ位置と特徴点との間の距離di)が求まる。 If the vector X is calculated such that the norm (vector length) of ε on the left side of (Equation 15) is minimum (error minimum), the desired vector X (three-dimensional position M of the feature point and each frame) A distance di) between the camera position of the data and the feature point is obtained.
εのノルムの二乗の式は、以下の(数式16)になる。
ベクトルXを変数、他を全て定数とみなしたとき、上記の(数式16)は、ベクトルXに関する二次関数なので、左辺が最小になるXは、(数式16)のベクトルXに関する偏微分式、すなわち、
上記(数式17)の偏微分値が0となるXとなる。上記(数式17)に含まれるεtεと、偏微分[(δ(εtε)/δX)]の関係を図9に示す。ベクトルXは、以下の数式(数式18)となる。
上記数式(数式18)のベクトル項を全て展開すると、以下の数式(数式19)が得られる。
数式(数式19)内の"カメラと特徴点との間の距離[di]"の項を消して再構築すると、以下の数式(数式20)が得られる。
但し、上記式(数式20)において、
上記の(数式20)は、カメラ位置姿勢と特徴点の画像位置が求まれば、特徴点の三次元位置が求まることを意味する。上記の(数式20)に含まれる2つの行列を、
[newA]、[newB]と設定して以下のように変形する。
[NewA] and [newB] are set and modified as follows.
この式変形に基づいて、以下のような関係式(数式24)が得られる。
但し、上記(数式24)の関数Gは、図6に示すサンプリング部501から存在確率分布算出部502に対する入力データ、すなわち画像内の特徴点の位置(m^)、カメラ位置(c^)、カメラ姿勢(R^)情報によって構成される。 However, the function G in the above (Equation 24) is input data from the sampling unit 501 to the existence probability distribution calculation unit 502 shown in FIG. 6, that is, the position (m ^) of the feature point in the image, the camera position (c ^), It is composed of camera posture (R ^) information.
具体的には、サンプリング部501においてサンプルデータとして選択された画像フレームに対応する特徴点の位置(m^)、カメラ位置(c^)、カメラ姿勢(R^)情報であり、正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)に対応する正規分布に従った特徴点追跡誤差分布データである。 Specifically, the position (m ^), camera position (c ^), and camera attitude (R ^) information of the feature point corresponding to the image frame selected as sample data by the sampling unit 501 are in accordance with the normal distribution. This is feature point tracking error distribution data according to a normal distribution corresponding to the camera position (c), camera posture (R), and feature point position (m) having a presence probability distribution.
存在確率分布算出部502では、上記(数式24)を用いて、特徴点の位置の存在確率分布を求める。入力の画像内の特徴点の位置(m^)、カメラ位置(c^)、カメラ姿勢(R^)は正規分布に従った存在確率分布を有しており、上記(数式24)の関数Gは、入力値に対して非線型関数であるため、存在確率分布は非常に複雑なものとなる。しかし、関数Gを以下の(数式25)に示すように、1次編微分∇Gを用いて線形近似すれば正規分布同士の掛け合わせで、特徴点位置Mを近似で求めることが出来ることが知られており、存在確率分布算出部502ではこの線形近似により特徴点の存在確率分布を算出することができる。
なお、この展開についての詳細は、「Greg Welch and Gary Bishop,"An Introduction to Kalman Filter",Technical Report 95−041 in Department of Computer Science,University of North Carolina ( 2006 )(http://www.cs.unc.edu/〜welch/media/pdf/kalman_intro.pdf)」に記載されている。 For details on this development, refer to “Greg Welch and Gary Bishop,“ An Introduction to Kalman Filter ”, Technical Report 95-041 in Department of Computer 200 th. .Unc.edu / ˜welch / media / pdf / kalman_intro.pdf) ”.
特徴点の位置の存在確率分布の平均値は、入力値として正規分布の平均値を用いて、上述の数式(数式24)より得ることができる。また、特徴点の位置の存在確率分布の分散は以下に示す数式(数式26)で求める。
但し、上記(数式26)において、Σgは関数Gの線形近似モデル誤差を表し、定数で設定する。また、関数Gの1次編微分∇Gは、3x3の対角行列の逆行列の以下の式(数式27)を利用して求める。
以上で、特徴点位置の三次元空間上の存在確率分布を求める。 Thus, the existence probability distribution in the three-dimensional space of the feature point positions is obtained.
上記手法において求めた特徴点の三次元空間上の存在確率分布の利用例について図10、図11を参照して説明する。図10の処理例は、特徴点位置の存在確率分布の精度が高くなるまで待って、その収束した存在確率分布情報を出力する構成例である。 A usage example of the existence probability distribution of the feature points obtained in the above method in the three-dimensional space will be described with reference to FIGS. The processing example of FIG. 10 is a configuration example that waits until the accuracy of the existence probability distribution at the feature point position becomes high and outputs the converged existence probability distribution information.
「特徴点位置の存在確率分布の精度が高い」というのは、存在確率分布が正規分布であることを用いている本例では、正規分布の標準偏差(共分散行列のノルム)の値が小さい場合を指す。図10に示すように、特徴点三次元位置検出部が生成したと朽ちよう点の存在確率分布情報は、収束判定部701に入力される。 “The accuracy of the existence probability distribution of the feature point position is high” means that the standard deviation (norm of the covariance matrix) of the normal distribution is small in this example using the existence probability distribution being a normal distribution. Refers to the case. As shown in FIG. 10, the existence probability distribution information of the points that have been destroyed by the feature point three-dimensional position detection unit is input to the convergence determination unit 701.
収束判定部701は、特徴点位置の三次元空間上の存在確率分布が収束しているか否かの判断を行う。その評価式として、例えば以下に示す(数式28)を用いる。
ただし、上記(数式28)において、関数[diagonal]は、特徴点の正規分布に従う存在確率分布の共分散行列ΣMの対角成分を抽出し、関数[sum]は全入力の合計を計算する。 However, in the above (Formula 28), the function [diagonal] extracts the diagonal component of the covariance matrix ΣM of the existence probability distribution according to the normal distribution of feature points, and the function [sum] calculates the sum of all inputs.
本発明の情報処理装置における処理の1つの利点は、「入力値の誤差分布(存在確率分布)を考慮し、出力の特徴点位置の存在確率分布を計算している」ことにある。したがって、入力値の誤差分布が正しければ、たとえ入力値の誤差分布が大きいとしてもロバストに特徴点の三次元位置分布を求めることが可能となることである。 One advantage of the processing in the information processing apparatus of the present invention is that “the presence probability distribution of the output feature point position is calculated in consideration of the error distribution (existence probability distribution) of the input values”. Therefore, if the error distribution of the input value is correct, it is possible to robustly obtain the three-dimensional position distribution of the feature points even if the error distribution of the input value is large.
図11は、特徴点位置の三次元空間上の存在確率分布情報をカメラ位置姿勢検出部102へフィードバックして、より正確なカメラ位置姿勢検出を可能とする処理例である。 FIG. 11 is a processing example in which presence probability distribution information of feature point positions in a three-dimensional space is fed back to the camera position and orientation detection unit 102 to enable more accurate camera position and orientation detection.
「特徴点位置の精度が高くなるまで待つ」例であった結果を、カメラ位置姿勢検出部へフィードバックさせる。前述のとおり、ロバストに求めた特徴点の三次元位置分布をカメラ位置姿勢検出部のフィードバック値として扱うため、カメラ位置姿勢検出部もロバストになる。 The result of the example of “waiting until the accuracy of the feature point position becomes high” is fed back to the camera position and orientation detection unit. As described above, since the three-dimensional position distribution of feature points obtained robustly is handled as a feedback value of the camera position and orientation detection unit, the camera position and orientation detection unit is also robust.
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。 The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。 The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet and can be installed on a recording medium such as a built-in hard disk.
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。 Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
以上、説明したように、本発明の一実施例の構成によれば、カメラの取得した画像に基づいて正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成し、さらに、カメラの取得画像に基づいて正規分布に従った特徴点追跡誤差分布を生成し、これらの正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出する構成とした。本構成によれば、カメラの取得画像に含まれる特徴点の三次元位置をより正確に解析すること可能となる。 As described above, according to the configuration of the embodiment of the present invention, the camera position and orientation information having the existence probability distribution according to the normal distribution is generated based on the image acquired by the camera, and the camera acquisition is further performed. Generate feature point tracking error distribution according to normal distribution based on image, and apply camera position and orientation information with existence probability distribution according to these normal distribution and feature point tracking error distribution information according to normal distribution. The feature probability distribution in the three-dimensional space is calculated. According to this configuration, it is possible to more accurately analyze the three-dimensional position of the feature point included in the acquired image of the camera.
100 情報処理装置
101 カメラ
102 カメラ位置姿勢検出部
103 特徴点追跡部
104 カメラ位置姿勢記憶部
105 特徴点軌跡情報記憶部
106 特徴点三次元位置検出部
107 特徴点存在確率分布情報
301 特徴点追跡部
302 特徴点抽出部
303 先行フレーム追跡情報記憶部
321 特徴点追跡情報
400 取得イメージ
410〜412 ハリスコーナーイメージ
420〜422 ラプラシアンイメージ
501 サンプリング部
502 存在確率分布算出部
601 特徴点
701 収束判定部
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 101 Camera 102 Camera position / orientation detection unit 103 Feature point tracking unit 104 Camera position / orientation storage unit 105 Feature point trajectory information storage unit 106 Feature point three-dimensional position detection unit 107 Feature point existence probability distribution information 301 Feature point tracking unit 302 feature point extraction unit 303 preceding frame tracking information storage unit 321 feature point tracking information 400 acquired image 410 to 412 Harris corner image 420 to 422 Laplacian image 501 sampling unit 502 existence probability distribution calculation unit 601 feature point 701 convergence determination unit
Claims (15)
画像を撮影するカメラと、
前記カメラの取得した画像に基づいてカメラの位置および姿勢を検出するカメラ位置姿勢検出部と、
前記カメラの取得した画像から抽出した特徴点を追跡する特徴点追跡部と、
前記カメラ位置姿勢検出部の検出したカメラ位置姿勢情報と、前記特徴点追跡部の取得した特徴点軌跡情報を入力して、特徴点の三次元存在確率分布を算出する特徴点三次元位置検出部を有し、
前記カメラは位置または姿勢の少なくともいずれかを変更して複数の画像フレームを順次撮影する構成であるともにピンホールカメラモデル構成を有し、
前記カメラ位置姿勢検出部は、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成する構成であり、
前記特徴点追跡部は、正規分布に従った特徴点追跡誤差分布を生成する構成であり、
前記三次元位置検出部は、前記カメラ位置姿勢検出部の生成する正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、前記特徴点追跡部の生成する正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出する構成であることを特徴とする情報処理装置。 An information processing device that calculates a three-dimensional existence probability distribution of feature points included in a captured image of a camera,
A camera for taking images,
A camera position and orientation detection unit for detecting the position and orientation of the camera based on an image acquired by the camera;
A feature point tracking unit that tracks feature points extracted from images acquired by the camera;
A feature point 3D position detection unit that calculates a 3D existence probability distribution of feature points by inputting the camera position and orientation information detected by the camera position and orientation detection unit and the feature point trajectory information acquired by the feature point tracking unit Have
The camera has a pinhole camera model configuration that is configured to sequentially shoot a plurality of image frames by changing at least one of a position and a posture,
The camera position and orientation detection unit is configured to generate camera position and orientation information having an existence probability distribution according to a normal distribution,
The feature point tracking unit is configured to generate a feature point tracking error distribution according to a normal distribution,
The three-dimensional position detection unit includes camera position and orientation information having an existence probability distribution according to a normal distribution generated by the camera position and orientation detection unit, and a feature point tracking error according to a normal distribution generated by the feature point tracking unit. An information processing apparatus having a configuration for calculating an existence probability distribution in a three-dimensional space of feature points by applying distribution information.
前記特徴点追跡部は、画像内の特徴点位置(m)に対応する正規分布に従った特徴点追跡誤差分布を生成する構成であり、
前記三次元位置検出部は、
正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力として、特徴点の三次元空間における存在確率分布を算出する構成であることを特徴とする請求項1に記載の情報処理装置。 The camera position and orientation detection unit is configured to generate information having an existence probability distribution according to a normal distribution for each of the camera position (c) and the camera orientation (R).
The feature point tracking unit is configured to generate a feature point tracking error distribution according to a normal distribution corresponding to a feature point position (m) in an image;
The three-dimensional position detector
The configuration is such that the presence probability distribution in the three-dimensional space of the feature points is calculated by inputting the camera position (c) having the presence probability distribution according to the normal distribution, the camera posture (R), and the feature point position (m). The information processing apparatus according to claim 1.
正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力パラメータとして設定される特徴点の三次元位置算出式の一次編微分による線形近似を用いて、特徴点の三次元空間における存在確率分布を算出する構成であることを特徴とする請求項1に記載の情報処理装置。 The three-dimensional position detector
Linear by first-order differentiation of the feature point three-dimensional position calculation formula set with the camera position (c), camera posture (R), and feature point position (m) having an existence probability distribution according to the normal distribution as input parameters The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to calculate an existence probability distribution in a three-dimensional space of feature points using approximation.
前記カメラの撮像素子の画素設定に基づいて決定される量子化誤差を反映した特徴点追跡誤差分布を生成する構成であることを特徴とする請求項1に記載の情報処理装置。 The feature point tracking unit includes:
The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to generate a feature point tracking error distribution reflecting a quantization error determined based on a pixel setting of an image sensor of the camera.
前記カメラの撮影画像に含まれる同一の特徴点を含む複数の画像中、カメラと特徴点とを結ぶ光線のなす角度(内角)が、予め定めた閾値角度より大きい内角を有する画像に基づいて得られたデータを特徴点存在確率分布算出に適用するデータとして選択するサンプリング部と、
前記サンプリング部によって選択されたデータを適用して特徴点の三次元空間における存在確率分布を算出する存在確率分布算出部と、
を有する構成であることを特徴とする請求項1に記載の情報処理装置。 The three-dimensional position detector
Among a plurality of images including the same feature point included in the photographed image of the camera, an angle (inner angle) formed by a light beam connecting the camera and the feature point is obtained based on an image having an inner angle larger than a predetermined threshold angle. A sampling unit that selects the obtained data as data to be applied to the feature point existence probability distribution calculation;
An existence probability distribution calculating unit that calculates the existence probability distribution in the three-dimensional space of the feature points by applying the data selected by the sampling unit;
The information processing apparatus according to claim 1, wherein the information processing apparatus has a configuration.
前記カメラから入力する画像内の特徴点の位置と、カメラの位置姿勢を併せて検出するSLAM(simultaneous localization and mapping)を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 The camera position and orientation detection unit
The information processing apparatus according to claim 1, wherein SLAM (simultaneous localization and mapping) is performed to detect the position of the feature point in the image input from the camera and the position and orientation of the camera. .
前記カメラの撮影した前フレームの局所領域画像とのウインドウマッチングを実行して局所領域(特徴点)のフレーム間の移動量を求める処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 The feature point tracking unit includes:
2. The configuration according to claim 1, wherein the window matching with the local area image of the previous frame captured by the camera is executed to calculate a movement amount between frames of the local area (feature point). Information processing device.
カメラが、画像を撮影する画像撮影ステップと、
カメラ位置姿勢検出部が、前記カメラの取得した画像に基づいてカメラの位置および姿勢を検出するカメラ位置姿勢検出ステップと、
特徴点追跡部が、前記カメラの取得した画像から抽出した特徴点を追跡する特徴点追跡ステップと、
三次元位置検出部が、前記カメラ位置姿勢検出部の検出したカメラ位置姿勢情報と、前記特徴点追跡部の取得した特徴点軌跡情報を入力して、特徴点の三次元存在確率分布を算出する特徴点三次元位置検出ステップを有し、
前記画像撮影ステップは、ピンホールカメラモデル構成を持つカメラにより、位置または姿勢の少なくともいずれかを変更して複数の画像フレームを順次撮影するステップであり、
前記カメラ位置姿勢検出ステップは、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成するステップであり、
前記特徴点追跡ステップは、正規分布に従った特徴点追跡誤差分布を生成するステップであり、
前記三次元位置検出ステップは、前記カメラ位置姿勢検出部の生成する正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、前記特徴点追跡部の生成する正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出するステップであることを特徴とする情報処理方法。 In the information processing apparatus, an information processing method for calculating a three-dimensional existence probability distribution of feature points included in a captured image of a camera,
An image capturing step in which the camera captures an image;
A camera position and orientation detection unit, wherein a camera position and orientation detection unit detects the position and orientation of the camera based on an image acquired by the camera;
A feature point tracking unit for tracking a feature point extracted from an image acquired by the camera;
The three-dimensional position detection unit inputs the camera position and orientation information detected by the camera position and orientation detection unit and the feature point trajectory information acquired by the feature point tracking unit, and calculates a three-dimensional existence probability distribution of the feature points. A feature point three-dimensional position detection step,
The image capturing step is a step of sequentially capturing a plurality of image frames by changing at least one of a position and a posture with a camera having a pinhole camera model configuration,
The camera position and orientation detection step is a step of generating camera position and orientation information having an existence probability distribution according to a normal distribution,
The feature point tracking step is a step of generating a feature point tracking error distribution according to a normal distribution,
The three-dimensional position detection step includes camera position and orientation information having an existence probability distribution according to a normal distribution generated by the camera position and orientation detection unit, and a feature point tracking error according to a normal distribution generated by the feature point tracking unit. An information processing method, which is a step of calculating an existence probability distribution in a three-dimensional space of feature points by applying distribution information.
前記特徴点追跡ステップは、画像内の特徴点位置(m)に対応する正規分布に従った特徴点追跡誤差分布を生成するステップであり、
前記三次元位置検出ステップは、
正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力として、特徴点の三次元空間における存在確率分布を算出するステップであることを特徴とする請求項8に記載の情報処理方法。 The camera position and orientation detection step is a step of generating information having an existence probability distribution according to a normal distribution for each of the camera position (c) and the camera orientation (R).
The feature point tracking step is a step of generating a feature point tracking error distribution according to a normal distribution corresponding to the feature point position (m) in the image;
The three-dimensional position detection step includes
A step of calculating a presence probability distribution in a three-dimensional space of feature points by inputting a camera position (c) having a presence probability distribution according to a normal distribution, a camera posture (R), and a feature point position (m). The information processing method according to claim 8.
正規分布に従った存在確率分布を持つカメラ位置(c)とカメラ姿勢(R)と特徴点位置(m)とを入力パラメータとして設定される特徴点の三次元位置算出式の一次編微分による線形近似を用いて、特徴点の三次元空間における存在確率分布を算出するステップであることを特徴とする請求項8に記載の情報処理方法。 The three-dimensional position detection step includes
Linear by first-order differentiation of the feature point three-dimensional position calculation formula set with the camera position (c), camera posture (R), and feature point position (m) having an existence probability distribution according to the normal distribution as input parameters 9. The information processing method according to claim 8, wherein the information processing method is a step of calculating an existence probability distribution in a three-dimensional space of feature points using approximation.
前記カメラの撮像素子の画素設定に基づいて決定される量子化誤差を反映した特徴点追跡誤差分布を生成するステップであることを特徴とする請求項8に記載の情報処理方法。 The feature point tracking step includes:
The information processing method according to claim 8, wherein the information processing method is a step of generating a feature point tracking error distribution reflecting a quantization error determined based on a pixel setting of an image sensor of the camera.
前記カメラの撮影画像に含まれる同一の特徴点を含む複数の画像中、カメラと特徴点とを結ぶ光線のなす角度(内角)が、予め定めた閾値角度より大きい内角を有する画像に基づいて得られたデータを特徴点存在確率分布算出に適用するデータとして選択するサンプリングステップと、
前記サンプリングステップにおいて選択されたデータを適用して特徴点の三次元空間における存在確率分布を算出する存在確率分布算出ステップと、
を有することを特徴とする請求項8に記載の情報処理方法。 The three-dimensional position detection step includes
Among a plurality of images including the same feature point included in the photographed image of the camera, an angle (inner angle) formed by a light beam connecting the camera and the feature point is obtained based on an image having an inner angle larger than a predetermined threshold angle. A sampling step for selecting the obtained data as data to be applied to the feature point existence probability distribution calculation;
An existence probability distribution calculating step of calculating an existence probability distribution in a three-dimensional space of feature points by applying the data selected in the sampling step;
The information processing method according to claim 8, further comprising:
前記カメラから入力する画像内の特徴点の位置と、カメラの位置姿勢を併せて検出するSLAM(simultaneous localization and mapping)を実行するステップであることを特徴とする請求項8に記載の情報処理方法。 The camera position and orientation detection step includes
9. The information processing method according to claim 8, wherein the information processing method is a step of performing SLAM (simultaneous localization and mapping) for detecting the position of the feature point in the image input from the camera and the position and orientation of the camera. .
前記カメラの撮影した前フレームの局所領域画像とのウインドウマッチングを実行して局所領域(特徴点)のフレーム間の移動量を求める処理を実行するステップであることを特徴とする請求項8に記載の情報処理方法。 The feature point tracking step includes:
9. The step of executing a window matching with a local area image of a previous frame captured by the camera to obtain a movement amount between frames of a local area (feature point). Information processing method.
カメラに、画像を撮影させる画像撮影ステップと、
カメラ位置姿勢検出部に、前記カメラの取得した画像に基づいてカメラの位置および姿勢を検出させるカメラ位置姿勢検出ステップと、
特徴点追跡部に、前記カメラの取得した画像から抽出した特徴点を追跡させる特徴点追跡ステップと、
三次元位置検出部に、前記カメラ位置姿勢検出部の検出したカメラ位置姿勢情報と、前記特徴点追跡部の取得した特徴点軌跡情報を入力して、特徴点の三次元存在確率分布を算出させる特徴点三次元位置検出ステップを有し、
前記画像撮影ステップは、ピンホールカメラモデル構成を持つカメラにより、位置または姿勢の少なくともいずれかを変更して複数の画像フレームを順次撮影させるステップであり、
前記カメラ位置姿勢検出ステップは、正規分布に従った存在確率分布を持つカメラ位置姿勢情報を生成させるステップであり、
前記特徴点追跡ステップは、正規分布に従った特徴点追跡誤差分布を生成するステップであり、
前記三次元位置検出ステップは、前記カメラ位置姿勢検出部の生成する正規分布に従った存在確率分布を持つカメラ位置姿勢情報と、前記特徴点追跡部の生成する正規分布に従った特徴点追跡誤差分布情報を適用して特徴点の三次元空間における存在確率分布を算出させるステップであることを特徴とするコンピュータ・プログラム。 A computer program that causes an information processing device to calculate a three-dimensional existence probability distribution of feature points included in a captured image of a camera,
An image capturing step for causing the camera to capture an image;
A camera position and orientation detection step for causing the camera position and orientation detection unit to detect the position and orientation of the camera based on the image acquired by the camera;
A feature point tracking step for causing the feature point tracking unit to track a feature point extracted from the image acquired by the camera;
The camera position / orientation information detected by the camera position / orientation detection unit and the feature point trajectory information acquired by the feature point tracking unit are input to the three-dimensional position detection unit to calculate a three-dimensional existence probability distribution of the feature points. A feature point three-dimensional position detection step,
The image capturing step is a step of sequentially capturing a plurality of image frames by changing at least one of a position and a posture with a camera having a pinhole camera model configuration,
The camera position and orientation detection step is a step of generating camera position and orientation information having an existence probability distribution according to a normal distribution,
The feature point tracking step is a step of generating a feature point tracking error distribution according to a normal distribution,
The three-dimensional position detection step includes camera position and orientation information having an existence probability distribution according to a normal distribution generated by the camera position and orientation detection unit, and a feature point tracking error according to a normal distribution generated by the feature point tracking unit. A computer program which is a step of calculating distribution probability distribution of feature points in a three-dimensional space by applying distribution information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007150766A JP2008304269A (en) | 2007-06-06 | 2007-06-06 | Information processing apparatus, information processing method, and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007150766A JP2008304269A (en) | 2007-06-06 | 2007-06-06 | Information processing apparatus, information processing method, and computer program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008304269A true JP2008304269A (en) | 2008-12-18 |
Family
ID=40233126
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007150766A Pending JP2008304269A (en) | 2007-06-06 | 2007-06-06 | Information processing apparatus, information processing method, and computer program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008304269A (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010122859A1 (en) | 2009-04-23 | 2010-10-28 | ソニー株式会社 | Information processing device, information processing method, and program |
| WO2010125868A1 (en) | 2009-04-28 | 2010-11-04 | ソニー株式会社 | Information processing device, information processing method, and program |
| WO2011010533A1 (en) | 2009-07-21 | 2011-01-27 | ソニー株式会社 | Information processing device, information processing method, and program |
| EP2302586A1 (en) | 2009-08-21 | 2011-03-30 | Sony Corporation | Information processing device, information processing method and program |
| JP2013093031A (en) * | 2012-11-16 | 2013-05-16 | Sony Corp | Information processing apparatus, memory medium, information processing system, information processing method, and program |
| WO2013069050A1 (en) * | 2011-11-07 | 2013-05-16 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device and image generation method |
| JP2013535013A (en) * | 2010-06-25 | 2013-09-09 | トリンブル ナビゲーション リミテッド | Method and apparatus for image-based positioning |
| CN103901885A (en) * | 2012-12-28 | 2014-07-02 | 联想(北京)有限公司 | Information processing method and information processing device |
| CN105203092A (en) * | 2014-06-30 | 2015-12-30 | 联想(北京)有限公司 | Information processing method and device and electronic equipment |
| US9560274B2 (en) | 2011-11-07 | 2017-01-31 | Sony Corporation | Image generation apparatus and image generation method |
| US9894272B2 (en) | 2011-11-07 | 2018-02-13 | Sony Interactive Entertainment Inc. | Image generation apparatus and image generation method |
| US10284776B2 (en) | 2011-11-07 | 2019-05-07 | Sony Interactive Entertainment Inc. | Image generation apparatus and image generation method |
| JP2020529065A (en) * | 2017-07-31 | 2020-10-01 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Augmented reality display method, attitude information determination method and device |
| KR20220096700A (en) * | 2020-12-31 | 2022-07-07 | 한국과학기술연구원 | Device and method for capturing a dynamic image using technology for generating an image at an arbitray viewpoint |
| WO2022244257A1 (en) * | 2021-05-21 | 2022-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and program |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01312411A (en) * | 1988-06-10 | 1989-12-18 | Hitachi Ltd | Estimation of position of object using image and sensor status estimation |
| JPH07264458A (en) * | 1994-03-25 | 1995-10-13 | Olympus Optical Co Ltd | Moving object tracking device |
| JPH08136220A (en) * | 1994-11-14 | 1996-05-31 | Mazda Motor Corp | Method and device for detecting position of article |
| JP2002090118A (en) * | 2000-09-19 | 2002-03-27 | Olympus Optical Co Ltd | Three-dimensional position and attitude sensing device |
| JP2003279315A (en) * | 2002-01-16 | 2003-10-02 | Advanced Telecommunication Research Institute International | Automatic camera calibration method |
| JP2004219332A (en) * | 2003-01-16 | 2004-08-05 | National Institute Of Advanced Industrial & Technology | Position information processing device |
| JP2004274431A (en) * | 2003-03-10 | 2004-09-30 | Fujitsu Ltd | Road surface condition determination method and device |
| JP2004326688A (en) * | 2003-04-28 | 2004-11-18 | Toshiba Corp | Method for estimating corresponding points between images and template matching system |
| JP2004326693A (en) * | 2003-04-28 | 2004-11-18 | Sony Corp | Image recognition apparatus and method, and robot apparatus |
| JP2005122315A (en) * | 2003-10-14 | 2005-05-12 | Kazuo Iwane | 3dcg composition device |
| JP2005322002A (en) * | 2004-05-07 | 2005-11-17 | Kazuo Iwane | Compound artificial intelligence device |
| JP2006350434A (en) * | 2005-06-13 | 2006-12-28 | Toshiba Corp | Hand-shape recognition device and its method |
| JP2007078409A (en) * | 2005-09-12 | 2007-03-29 | Mitsubishi Electric Corp | Object positioning device |
-
2007
- 2007-06-06 JP JP2007150766A patent/JP2008304269A/en active Pending
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01312411A (en) * | 1988-06-10 | 1989-12-18 | Hitachi Ltd | Estimation of position of object using image and sensor status estimation |
| JPH07264458A (en) * | 1994-03-25 | 1995-10-13 | Olympus Optical Co Ltd | Moving object tracking device |
| JPH08136220A (en) * | 1994-11-14 | 1996-05-31 | Mazda Motor Corp | Method and device for detecting position of article |
| JP2002090118A (en) * | 2000-09-19 | 2002-03-27 | Olympus Optical Co Ltd | Three-dimensional position and attitude sensing device |
| JP2003279315A (en) * | 2002-01-16 | 2003-10-02 | Advanced Telecommunication Research Institute International | Automatic camera calibration method |
| JP2004219332A (en) * | 2003-01-16 | 2004-08-05 | National Institute Of Advanced Industrial & Technology | Position information processing device |
| JP2004274431A (en) * | 2003-03-10 | 2004-09-30 | Fujitsu Ltd | Road surface condition determination method and device |
| JP2004326688A (en) * | 2003-04-28 | 2004-11-18 | Toshiba Corp | Method for estimating corresponding points between images and template matching system |
| JP2004326693A (en) * | 2003-04-28 | 2004-11-18 | Sony Corp | Image recognition apparatus and method, and robot apparatus |
| JP2005122315A (en) * | 2003-10-14 | 2005-05-12 | Kazuo Iwane | 3dcg composition device |
| JP2005322002A (en) * | 2004-05-07 | 2005-11-17 | Kazuo Iwane | Compound artificial intelligence device |
| JP2006350434A (en) * | 2005-06-13 | 2006-12-28 | Toshiba Corp | Hand-shape recognition device and its method |
| JP2007078409A (en) * | 2005-09-12 | 2007-03-29 | Mitsubishi Electric Corp | Object positioning device |
Cited By (32)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9683832B2 (en) | 2005-12-15 | 2017-06-20 | Trimble Inc. | Method and apparatus for image-based positioning |
| US8994721B2 (en) | 2009-04-23 | 2015-03-31 | Sony Corporation | Information processing apparatus, information processing method, and program for extending or expanding a viewing area of content displayed on a 2D workspace into a 3D virtual display screen |
| WO2010122859A1 (en) | 2009-04-23 | 2010-10-28 | ソニー株式会社 | Information processing device, information processing method, and program |
| WO2010125868A1 (en) | 2009-04-28 | 2010-11-04 | ソニー株式会社 | Information processing device, information processing method, and program |
| US9772683B2 (en) | 2009-04-28 | 2017-09-26 | Sony Corporation | Information processing apparatus to process observable virtual objects |
| WO2011010533A1 (en) | 2009-07-21 | 2011-01-27 | ソニー株式会社 | Information processing device, information processing method, and program |
| CN102473068A (en) * | 2009-07-21 | 2012-05-23 | 索尼公司 | Information processing device, information processing method, and program |
| CN102473068B (en) * | 2009-07-21 | 2013-12-25 | 索尼公司 | Information processing device, information processing method, and program |
| US8751969B2 (en) | 2009-07-21 | 2014-06-10 | Sony Corporation | Information processor, processing method and program for displaying a virtual image |
| EP2302586A1 (en) | 2009-08-21 | 2011-03-30 | Sony Corporation | Information processing device, information processing method and program |
| JP2013535013A (en) * | 2010-06-25 | 2013-09-09 | トリンブル ナビゲーション リミテッド | Method and apparatus for image-based positioning |
| CN103907340B (en) * | 2011-11-07 | 2017-03-29 | 索尼电脑娱乐公司 | Image generating device and image generating method |
| US10284776B2 (en) | 2011-11-07 | 2019-05-07 | Sony Interactive Entertainment Inc. | Image generation apparatus and image generation method |
| JP5659305B2 (en) * | 2011-11-07 | 2015-01-28 | 株式会社ソニー・コンピュータエンタテインメント | Image generating apparatus and image generating method |
| US9894272B2 (en) | 2011-11-07 | 2018-02-13 | Sony Interactive Entertainment Inc. | Image generation apparatus and image generation method |
| US9560274B2 (en) | 2011-11-07 | 2017-01-31 | Sony Corporation | Image generation apparatus and image generation method |
| CN103907340A (en) * | 2011-11-07 | 2014-07-02 | 索尼电脑娱乐公司 | Image generation device and image generation method |
| WO2013069050A1 (en) * | 2011-11-07 | 2013-05-16 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device and image generation method |
| US9729788B2 (en) | 2011-11-07 | 2017-08-08 | Sony Corporation | Image generation apparatus and image generation method |
| JP2013093031A (en) * | 2012-11-16 | 2013-05-16 | Sony Corp | Information processing apparatus, memory medium, information processing system, information processing method, and program |
| CN103901885A (en) * | 2012-12-28 | 2014-07-02 | 联想(北京)有限公司 | Information processing method and information processing device |
| CN105203092A (en) * | 2014-06-30 | 2015-12-30 | 联想(北京)有限公司 | Information processing method and device and electronic equipment |
| CN105203092B (en) * | 2014-06-30 | 2018-12-14 | 联想(北京)有限公司 | A kind of information processing method, device and electronic equipment |
| JP7000555B2 (en) | 2017-07-31 | 2022-02-10 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Augmented reality display method, attitude information determination method and equipment |
| US11222442B2 (en) | 2017-07-31 | 2022-01-11 | Tencent Technology (Shenzhen) Company Limited | Method for augmented reality display, method for determining pose information, and apparatuses |
| JP2020529065A (en) * | 2017-07-31 | 2020-10-01 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Augmented reality display method, attitude information determination method and device |
| US11763487B2 (en) | 2017-07-31 | 2023-09-19 | Tencent Technology (Shenzhen) Company Limited | Method for augmented reality display, method for determining pose information, and apparatuses |
| KR20220096700A (en) * | 2020-12-31 | 2022-07-07 | 한국과학기술연구원 | Device and method for capturing a dynamic image using technology for generating an image at an arbitray viewpoint |
| US11579746B2 (en) | 2020-12-31 | 2023-02-14 | Korea Institute Of Science And Technology | Dynamic image capturing apparatus and method using arbitrary viewpoint image generation technology |
| KR102558294B1 (en) * | 2020-12-31 | 2023-07-24 | 한국과학기술연구원 | Device and method for capturing a dynamic image using technology for generating an image at an arbitray viewpoint |
| WO2022244257A1 (en) * | 2021-05-21 | 2022-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and program |
| JPWO2022244257A1 (en) * | 2021-05-21 | 2022-11-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2008304269A (en) | Information processing apparatus, information processing method, and computer program | |
| US9098740B2 (en) | Apparatus, method, and medium detecting object pose | |
| JP6816058B2 (en) | Parameter optimization device, parameter optimization method, program | |
| US10033979B2 (en) | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling | |
| Assa et al. | A robust vision-based sensor fusion approach for real-time pose estimation | |
| Moreno-Noguer et al. | Dependent multiple cue integration for robust tracking | |
| Sundaresan et al. | Model driven segmentation of articulating humans in Laplacian Eigenspace | |
| Sundaresan et al. | Markerless motion capture using multiple cameras | |
| JP2016103230A (en) | Image processor, image processing method and program | |
| Klippenstein et al. | Quantitative evaluation of feature extractors for visual slam | |
| Prankl et al. | RGB-D object modelling for object recognition and tracking | |
| KR20180087947A (en) | Modeling method and modeling apparatus using 3d point cloud | |
| JP2013020578A (en) | Three-dimensional posture estimation device, three-dimensional posture estimation method and program | |
| KR100939294B1 (en) | Method and apparatus for tracking human motion in 3D space | |
| WO2018235219A1 (en) | Self position estimation method, self position estimation device and self position estimation program | |
| Zhou et al. | Human recognition at a distance in video by integrating face profile and gait | |
| Migniot et al. | 3D human tracking from depth cue in a buying behavior analysis context | |
| Liu et al. | Easyhoi: Unleashing the power of large models for reconstructing hand-object interactions in the wild | |
| Rekik et al. | 3d face pose tracking using low quality depth cameras | |
| Mörwald et al. | Advances in real-time object tracking: Extensions for robust object tracking with a Monte Carlo particle filter | |
| Tian et al. | Wearable navigation system for the blind people in dynamic environments | |
| Sulong et al. | Computer vision using pose estimation | |
| Zhuo et al. | 3D Visual Motion Amplitude Tracking Simulation Method for Sports | |
| Martínez et al. | Tracking human body parts using particle filters constrained by human biomechanics | |
| Laignel et al. | Synthetic Data-Driven Augmentation for Precise 6-DoF Pose Estimation of Building Components in Automated Facility Inspections |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100520 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120203 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120327 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120731 |