JP2002008012A - 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 - Google Patents
対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法Info
- Publication number
- JP2002008012A JP2002008012A JP2000191127A JP2000191127A JP2002008012A JP 2002008012 A JP2002008012 A JP 2002008012A JP 2000191127 A JP2000191127 A JP 2000191127A JP 2000191127 A JP2000191127 A JP 2000191127A JP 2002008012 A JP2002008012 A JP 2002008012A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- model
- posture
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】画像上の観測される遮蔽輪郭特徴を利用し、対
象物体の位置・姿勢、または、相対的に観測しているカ
メラの位置・姿勢を算出することを目的としている。 【解決手段】対象物体または環境の3次元形状モデルは
既知、かつその大まかな位置・姿勢が既知の条件下で、
その初期状態における対象(環境)の見え方をグラフィ
ックスシステムで算出し、この過程で提供される対象シ
ーンの奥行き情報画像を利用し、画像上に観測される遮
蔽輪郭に対する、モデル上の対応候補点の3次元座標を
高速に算出する。さらに、こうして得た遮蔽輪郭特徴2D
-3D対応ペアをもとに、初期に与えられた大まかなモデ
ルの位置・姿勢を繰り返し処理でより正しい状態に更新
していき、最終的には正しい対象の位置・姿勢を得る。
象物体の位置・姿勢、または、相対的に観測しているカ
メラの位置・姿勢を算出することを目的としている。 【解決手段】対象物体または環境の3次元形状モデルは
既知、かつその大まかな位置・姿勢が既知の条件下で、
その初期状態における対象(環境)の見え方をグラフィ
ックスシステムで算出し、この過程で提供される対象シ
ーンの奥行き情報画像を利用し、画像上に観測される遮
蔽輪郭に対する、モデル上の対応候補点の3次元座標を
高速に算出する。さらに、こうして得た遮蔽輪郭特徴2D
-3D対応ペアをもとに、初期に与えられた大まかなモデ
ルの位置・姿勢を繰り返し処理でより正しい状態に更新
していき、最終的には正しい対象の位置・姿勢を得る。
Description
【0001】
【発明の属する技術分野】本発明は、観測画像から対象
物体や観測カメラの位置・姿勢を算出する方法に関す
る。この技術が実現すると、ロボットによる作業の自動
化などが大きく促進される。
物体や観測カメラの位置・姿勢を算出する方法に関す
る。この技術が実現すると、ロボットによる作業の自動
化などが大きく促進される。
【0002】
【従来の技術】ロボットが室内を移動し作業を行う場
合、作業対象物体の位置・姿勢、及び、全体の環境にお
けるロボットの位置・姿勢を正確に把握する必要があ
る。こうした位置・姿勢情報は、ロボットの目である、
ロボットに搭載されたカメラにより入力される画像情報
と、ロボット内に持つ環境や対象物体の3次元形状モデ
ル間点対応により、次のように得ることができる。
合、作業対象物体の位置・姿勢、及び、全体の環境にお
けるロボットの位置・姿勢を正確に把握する必要があ
る。こうした位置・姿勢情報は、ロボットの目である、
ロボットに搭載されたカメラにより入力される画像情報
と、ロボット内に持つ環境や対象物体の3次元形状モデ
ル間点対応により、次のように得ることができる。
【0003】
【数1】 のm個のペアが得られているとする。この対応を用いて
【数2】 の関係式を満たす3次元モデルの剛体運動、
【数3】 を算出することにより、観測状態の位置・姿勢が求ま
る。
る。
【0004】
【発明が解決しようとする課題】対象が特徴的なマーク
点や角点を持つ場合には、観測画像からの特徴点抽出
も、モデル上の特徴点との対応付けも比較的容易であ
る。しかし、図1のように、観測画像上に観測される特
徴が遮蔽輪郭の場合、この遮蔽輪郭特徴に対応するモデ
ル表面上の点は視点によって変化するため、2次元画像
上に観測される点と3次元モデル上の対応点を知るのが
非常に難しい。結果的にこうした観測遮蔽輪郭から対象
や環境の位置・姿勢を求めることがほとんど不可能であ
るという問題があった。
点や角点を持つ場合には、観測画像からの特徴点抽出
も、モデル上の特徴点との対応付けも比較的容易であ
る。しかし、図1のように、観測画像上に観測される特
徴が遮蔽輪郭の場合、この遮蔽輪郭特徴に対応するモデ
ル表面上の点は視点によって変化するため、2次元画像
上に観測される点と3次元モデル上の対応点を知るのが
非常に難しい。結果的にこうした観測遮蔽輪郭から対象
や環境の位置・姿勢を求めることがほとんど不可能であ
るという問題があった。
【0005】
【課題を解決するための手段】対象の大まかな位置・姿
勢は既知である条件のもとで、上記課題を達成するため
に、本発明では、計算機内部に記録した対象物体の3次
元形状モデルから、この大まかな初期位置・姿勢におけ
る見え方をグラフィックスシステムで算出し、この過程
で提供される対象シーンの奥行き画像を利用し、画像上
に観測される遮蔽輪郭に対する、モデル上の対応候補点
の3次元座標を高速に算出する方法を提供する。(請求
項1)
勢は既知である条件のもとで、上記課題を達成するため
に、本発明では、計算機内部に記録した対象物体の3次
元形状モデルから、この大まかな初期位置・姿勢におけ
る見え方をグラフィックスシステムで算出し、この過程
で提供される対象シーンの奥行き画像を利用し、画像上
に観測される遮蔽輪郭に対する、モデル上の対応候補点
の3次元座標を高速に算出する方法を提供する。(請求
項1)
【0006】さらに、こうして得た遮蔽輪郭特徴の2D-3
D対応ペアをもとに、初期に与えられた大まかなモデル
の位置・姿勢を繰り返し処理により正しい状態に更新し
ていき、最終的には正しい対象の位置・姿勢を得る方法
を提供する。(請求項2) さらに、これを計算機内部にカメラを取り巻く環境の3
次元形状モデルが記録されている場合に拡張し、観測す
るカメラの位置・姿勢を算出する方法を提供する。(請
求項3)
D対応ペアをもとに、初期に与えられた大まかなモデル
の位置・姿勢を繰り返し処理により正しい状態に更新し
ていき、最終的には正しい対象の位置・姿勢を得る方法
を提供する。(請求項2) さらに、これを計算機内部にカメラを取り巻く環境の3
次元形状モデルが記録されている場合に拡張し、観測す
るカメラの位置・姿勢を算出する方法を提供する。(請
求項3)
【0007】本願発明の方法によると、対象形状を限定
することなく、例え複数の物体により構成される複雑な
環境モデルの場合にも各個体間の遮蔽や自己遮蔽などが
すべて自動的に考慮されるその性格により、同様に処理
が実現される。
することなく、例え複数の物体により構成される複雑な
環境モデルの場合にも各個体間の遮蔽や自己遮蔽などが
すべて自動的に考慮されるその性格により、同様に処理
が実現される。
【0008】
【発明の実施の形態】図2と図3を用い、遮蔽輪郭を用
いて対象物体の位置・姿勢を算出する処理を説明する。 ステップS1:カメラにより画像を入力する。 ステップS2:画像から明るさが急変するエッジを抽出
する。 ステップS3:モデル上の遮蔽輪郭生成点の3次元座標
の算出。
いて対象物体の位置・姿勢を算出する処理を説明する。 ステップS1:カメラにより画像を入力する。 ステップS2:画像から明るさが急変するエッジを抽出
する。 ステップS3:モデル上の遮蔽輪郭生成点の3次元座標
の算出。
【0009】図3aは計算機内部に記録されている対象
物体の幾何モデルである。今、この対象の大まかな位置
・姿勢が既知であれば、OpenGL(Silicon Graphyics社
の登録商標)に代表されるグラフィックスシステムによ
り、その見え方の予測画像、図3cを高速に算出するこ
とが可能である。この際、グラフィックスシステムはこ
の画像の算出のため、同時に図3dのような奥行き画像
も算出する。これは、各画素の示す視線方向に向かっ
て、どれだけ離れた位置にモデルが存在するかの距離を
画素ごとに記録したものである。図3dの例では、この
距離が近いほど明るく表示してある。この画像からエッ
ジ抽出処理を行うことにより、図3e中のグレイ線のよ
うに奥行きが大きく変わる画素が抽出され、その境界隣
接画素のうち、手前側(距離値が小さいもの)をとるこ
とにより、遮蔽輪郭に対応するモデル表面の3次元座標
値が得られる。ただし、この奥行き画像を作成するため
に用いた、対象物体の位置・姿勢の初期値は実際の値と
は異なっているため、多少の誤差を含む。多少の誤差を
含むが、これら遮蔽輪郭生成3D点は以下に続く処理に
よって、対象の位置・姿勢認識に利用することが可能で
ある。
物体の幾何モデルである。今、この対象の大まかな位置
・姿勢が既知であれば、OpenGL(Silicon Graphyics社
の登録商標)に代表されるグラフィックスシステムによ
り、その見え方の予測画像、図3cを高速に算出するこ
とが可能である。この際、グラフィックスシステムはこ
の画像の算出のため、同時に図3dのような奥行き画像
も算出する。これは、各画素の示す視線方向に向かっ
て、どれだけ離れた位置にモデルが存在するかの距離を
画素ごとに記録したものである。図3dの例では、この
距離が近いほど明るく表示してある。この画像からエッ
ジ抽出処理を行うことにより、図3e中のグレイ線のよ
うに奥行きが大きく変わる画素が抽出され、その境界隣
接画素のうち、手前側(距離値が小さいもの)をとるこ
とにより、遮蔽輪郭に対応するモデル表面の3次元座標
値が得られる。ただし、この奥行き画像を作成するため
に用いた、対象物体の位置・姿勢の初期値は実際の値と
は異なっているため、多少の誤差を含む。多少の誤差を
含むが、これら遮蔽輪郭生成3D点は以下に続く処理に
よって、対象の位置・姿勢認識に利用することが可能で
ある。
【0010】ステップ S4:観測エッジと対応する3次
元モデル代表点の算出。 上記手順により得られた遮蔽輪郭生成3次元点を投影画
像上で等間隔にサンプリングすることにより、図3eに
白い点で示すような、代表点を求める。さらに、予測画
像を利用して、このうち画像上で明確なエッジとして検
出される見通しのものだけを残す(図3f)。
元モデル代表点の算出。 上記手順により得られた遮蔽輪郭生成3次元点を投影画
像上で等間隔にサンプリングすることにより、図3eに
白い点で示すような、代表点を求める。さらに、予測画
像を利用して、このうち画像上で明確なエッジとして検
出される見通しのものだけを残す(図3f)。
【0011】ステップ S5:3次元モデル点と観測エッ
ジ点との対応付。 テリトリベース3D-2Dレジストレーション手法「喜多 泰
代、 Dale L. Wilson、 J. Alison Noble:"3次元血管
モデルのX線画像への実時間位置合わせ手法",電子情報
通信学会論文誌(D-II), Vol.J83-DII, No. 1, pp.254
-262(2000).」の部分では、観測画像上に投影したこれ
らモデル点と観測エッジ点で、画像上の2次元距離の近
さを評価基準として、点対応ペアを作成する。
ジ点との対応付。 テリトリベース3D-2Dレジストレーション手法「喜多 泰
代、 Dale L. Wilson、 J. Alison Noble:"3次元血管
モデルのX線画像への実時間位置合わせ手法",電子情報
通信学会論文誌(D-II), Vol.J83-DII, No. 1, pp.254
-262(2000).」の部分では、観測画像上に投影したこれ
らモデル点と観測エッジ点で、画像上の2次元距離の近
さを評価基準として、点対応ペアを作成する。
【0012】ステップ S6:対象物体の位置・姿勢を算
出。 これらの点対応ペアを、n個のカメラの観測画像から対
象の位置・姿勢を算出する一般式、
出。 これらの点対応ペアを、n個のカメラの観測画像から対
象の位置・姿勢を算出する一般式、
【数4】
【数5】 にn=1の条件で代入することにより、この対応ペアを
最小自乗誤差的意味において満す、対象の位置・姿勢が
算出される。ここで、
最小自乗誤差的意味において満す、対象の位置・姿勢が
算出される。ここで、
【0013】
【数6】 である。ただし、画像上の距離の近さに基づき定めたペ
アが完全に正しいペアではないこと、この一般式が回転
行列の線形化による近似誤差を含んでいること、遮蔽輪
郭生成の3次元座標が多少誤差を含んでいることから、
一回の演算で正しい対象の位置・姿勢は得られない。そ
こで、新しい位置・姿勢の値を用いて、ステップS3か
らS6までの処理を対象の位置・姿勢が収束するまで繰
り返すことにより、最終的に正しい位置・姿勢を算出す
る。
アが完全に正しいペアではないこと、この一般式が回転
行列の線形化による近似誤差を含んでいること、遮蔽輪
郭生成の3次元座標が多少誤差を含んでいることから、
一回の演算で正しい対象の位置・姿勢は得られない。そ
こで、新しい位置・姿勢の値を用いて、ステップS3か
らS6までの処理を対象の位置・姿勢が収束するまで繰
り返すことにより、最終的に正しい位置・姿勢を算出す
る。
【0014】観測カメラの位置・姿勢検出は、計算機内
部にカメラを取り巻く環境の形状モデルを記録し、これ
を対象形状モデルとして上記と同様に対象物体の新しい
位置・姿勢を算出し、これと相対的にカメラの位置・姿
勢を変化させ、ステップ3に戻る、という繰り返し処理
によって、得られる。
部にカメラを取り巻く環境の形状モデルを記録し、これ
を対象形状モデルとして上記と同様に対象物体の新しい
位置・姿勢を算出し、これと相対的にカメラの位置・姿
勢を変化させ、ステップ3に戻る、という繰り返し処理
によって、得られる。
【0015】カメラを取り巻く環境形状モデルを計算機
に与え、環境におけるカメラの位置・姿勢を求めた実施
例を以下に示す。図4aは、実際の観測画像である。図
4bはこのエッジ画像(Canny エッジオペレータ「一般
的に用いられている画像処理手法」:J. Canny:"A Comp
utational Approach to Edge Detection",IEEE Trans.P
attern Analysis and Machine Intelligence,Vol. 8, N
o. 6, pp.679-698.を使用。)で、各エッジ点近傍で濃
淡値の最大変化方向を8方向に濃淡差をつけて示してあ
る。図4cにOpenGLで作成した円柱5本からなる部分モデ
ルの側面図と上から見た図を示す。上面図中の白丸はカ
メラ位置、そこから出ている白線は視線方向を示す。側
面図は、観測画像を得たカメラの初期位置・姿勢を大ま
かにマニュアルで計測し、その状態における予測画像と
なっている。図4dは、これを観測画像に重ねて表示し
たもので、初期位置・姿勢計測誤差のため実際に各パイ
プが観測される位置からずれている。見易いようにパイ
プを黒で表示している。図4eに、予測奥行き画像のエ
ッジ上に求めた3次元モデル点(白い点)を側面図、上
面図に示す。ただし、予測濃淡画像情報を用いて明るさ
変化が少なく観測されにくい点は省かれるため、同色の
パイプ同士が重なっているとろは選択されていない。観
測画像のエッジ点と同様、予測投影画像上のモデル点近
傍の濃淡値最大変化方向を8方向に分類し各モデル点の
特性として持つ。図4fに、この特性を濃淡差で表し、
その投影位置を観測エッジ画像に重ねて表示する。
に与え、環境におけるカメラの位置・姿勢を求めた実施
例を以下に示す。図4aは、実際の観測画像である。図
4bはこのエッジ画像(Canny エッジオペレータ「一般
的に用いられている画像処理手法」:J. Canny:"A Comp
utational Approach to Edge Detection",IEEE Trans.P
attern Analysis and Machine Intelligence,Vol. 8, N
o. 6, pp.679-698.を使用。)で、各エッジ点近傍で濃
淡値の最大変化方向を8方向に濃淡差をつけて示してあ
る。図4cにOpenGLで作成した円柱5本からなる部分モデ
ルの側面図と上から見た図を示す。上面図中の白丸はカ
メラ位置、そこから出ている白線は視線方向を示す。側
面図は、観測画像を得たカメラの初期位置・姿勢を大ま
かにマニュアルで計測し、その状態における予測画像と
なっている。図4dは、これを観測画像に重ねて表示し
たもので、初期位置・姿勢計測誤差のため実際に各パイ
プが観測される位置からずれている。見易いようにパイ
プを黒で表示している。図4eに、予測奥行き画像のエ
ッジ上に求めた3次元モデル点(白い点)を側面図、上
面図に示す。ただし、予測濃淡画像情報を用いて明るさ
変化が少なく観測されにくい点は省かれるため、同色の
パイプ同士が重なっているとろは選択されていない。観
測画像のエッジ点と同様、予測投影画像上のモデル点近
傍の濃淡値最大変化方向を8方向に分類し各モデル点の
特性として持つ。図4fに、この特性を濃淡差で表し、
その投影位置を観測エッジ画像に重ねて表示する。
【0016】カメラ角度のわずかなずれが、画面上では
大きな平行移動を生むので、第1回目の初期対応時だけ
はこれを考慮する。 具体的に、投影モデル点を画面上
で2次元的に平行移動し、モデル点が同色のエッジ位置
に最もよく重なる位置を探索する。図4gが移動後の位
置である。これはあくまで最短距離評価基準でモデル点
の対応ペアを見つけるために必要なので、実際に3次元
モデルを移動する必要はない。この位置においてテリト
リベース3D-2Dマッチングを行い、得られた対応付が同
図中に白線で示されている。式(1),(2)を用いて得られ
た位置・姿勢変化量を相対的にカメラの位置・姿勢に反
映し、その新しい位置において同様の処理を繰り返す(2
回目以降はすでに画面上での大きなずれはなくなってお
り画像上の平行移動は不必要)。この例では、24回繰り
返し後に収束条件を満し、カメラ位置を(66.8,-13.2,-8
0.7)(mm)平行移動修正し、軸(-0.34, 0.37, -0.86)回り
に 5.7度回転修正して、図4h,iのような予測画像と観
測画像の重なりを得た。モデルの投影位置が観測画像と
一致しているということは、カメラの位置・姿勢がより
正しい値に修正されたことを示している。処理時間は、
Pentium(登録商標) II(333MHz)マ
シン上で、画像上の初期平行移動に2.1sec、3Dモデル点
を選出し、その対応観測特徴点を求め、これに基づきカ
メラの位置・姿勢を変更する1ループに約200msecかか
り、トータルで6.8秒であった。
大きな平行移動を生むので、第1回目の初期対応時だけ
はこれを考慮する。 具体的に、投影モデル点を画面上
で2次元的に平行移動し、モデル点が同色のエッジ位置
に最もよく重なる位置を探索する。図4gが移動後の位
置である。これはあくまで最短距離評価基準でモデル点
の対応ペアを見つけるために必要なので、実際に3次元
モデルを移動する必要はない。この位置においてテリト
リベース3D-2Dマッチングを行い、得られた対応付が同
図中に白線で示されている。式(1),(2)を用いて得られ
た位置・姿勢変化量を相対的にカメラの位置・姿勢に反
映し、その新しい位置において同様の処理を繰り返す(2
回目以降はすでに画面上での大きなずれはなくなってお
り画像上の平行移動は不必要)。この例では、24回繰り
返し後に収束条件を満し、カメラ位置を(66.8,-13.2,-8
0.7)(mm)平行移動修正し、軸(-0.34, 0.37, -0.86)回り
に 5.7度回転修正して、図4h,iのような予測画像と観
測画像の重なりを得た。モデルの投影位置が観測画像と
一致しているということは、カメラの位置・姿勢がより
正しい値に修正されたことを示している。処理時間は、
Pentium(登録商標) II(333MHz)マ
シン上で、画像上の初期平行移動に2.1sec、3Dモデル点
を選出し、その対応観測特徴点を求め、これに基づきカ
メラの位置・姿勢を変更する1ループに約200msecかか
り、トータルで6.8秒であった。
【0017】
【発明の効果】従来、観測画像上の遮蔽輪郭を対象物体
の位置・姿勢検出、また、相対的に観測カメラの位置・
姿勢検出に利用することは非常に単純な対象物以外では
不可能であった。本発明の方法は、あらかじめ、大まか
な位置・姿勢が与えられる場合に、これを可能とした。
これにより、特徴的な角点やマーク点などがない対象物
体の位置・姿勢検出、また特徴的な角点やマーク点など
が存在せず、複雑な曲面で構成される環境中のカメラの
位置・姿勢検出が可能となった。
の位置・姿勢検出、また、相対的に観測カメラの位置・
姿勢検出に利用することは非常に単純な対象物以外では
不可能であった。本発明の方法は、あらかじめ、大まか
な位置・姿勢が与えられる場合に、これを可能とした。
これにより、特徴的な角点やマーク点などがない対象物
体の位置・姿勢検出、また特徴的な角点やマーク点など
が存在せず、複雑な曲面で構成される環境中のカメラの
位置・姿勢検出が可能となった。
【図1】遮蔽輪郭が特徴エッジの大半を占める環境例を
示す図である。
示す図である。
【図2】遮蔽輪郭特徴を用いた対象物体の位置・姿勢検
出の流れ図である。
出の流れ図である。
【図3】遮蔽輪郭特徴を用いた対象物体の位置・姿勢検
出手法の説明図である。
出手法の説明図である。
【図4】本発明の実施を例示する図である。 (a)観測画像; (b)観測画像のエッジ(濃淡値の最大変化方向別に色分
け); (c)対象の3次元モデルの側面図および上面図; (d)カメラの初期推定位置・姿勢におけるモデル投影; (e)3次元モデル点(白い点)の正面図、側面図; (f)3次元モデル点の観測エッジ画像での投影位置; (g)初期平行移動後の3次元投影モデル点; (h)収束後のカメラ位置・姿勢におけるモデル点投影(エ
ッジ画像上); (i)収束後のカメラ位置・姿勢におけるモデル投影。
け); (c)対象の3次元モデルの側面図および上面図; (d)カメラの初期推定位置・姿勢におけるモデル投影; (e)3次元モデル点(白い点)の正面図、側面図; (f)3次元モデル点の観測エッジ画像での投影位置; (g)初期平行移動後の3次元投影モデル点; (h)収束後のカメラ位置・姿勢におけるモデル点投影(エ
ッジ画像上); (i)収束後のカメラ位置・姿勢におけるモデル投影。
フロントページの続き Fターム(参考) 3F059 BB04 DA02 DA08 DB09 5B057 AA05 BA02 CA12 CA16 CB12 CB16 CB19 DA07 DB02 DC16 DC36 5C054 AA01 EA05 FC14 FC15 FD02 FD03 FE13 HA02 HA04 HA05 5L096 BA05 CA02 FA06 GA32 JA11
Claims (3)
- 【請求項1】計算機内に記録した対象物体の3次元形状
モデルから対象物体をカメラで撮影した入力画像上での
見え方を算出するグラフィックスシステムが、その過程
で提供する対象シーンの奥行き画像を利用し、画像上に
観測される遮蔽輪郭線に対応するモデル上の遮蔽輪郭生
成点の3次元座標を、対象物体の複雑さによらず、算出
する方法。 - 【請求項2】計算機内に記録した対象物体の3次元形状
モデルから対象物体をカメラで撮影した入力画像上での
見え方を算出するグラフィックスシステムが、その過程
で提供する対象シーンの奥行き画像を利用して得た遮蔽
輪郭生成点の3次元座標と観測画像上の2次元座標との
対応関係から対象物体の位置・姿勢を算出する方法。 - 【請求項3】計算機内に記録した環境の3次元形状モデ
ルから、その環境内のある位置・姿勢に置かれたカメラ
で撮影したその見え方を算出するグラフィックスシステ
ムが、その過程で提供する対象シーンの奥行き画像を利
用し、環境モデル上の遮蔽輪郭生成点の3次元座標と観
測画像上の2次元座標との対応関係から撮影しているカ
メラの位置・姿勢を相対的に算出する方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000191127A JP3668769B2 (ja) | 2000-06-26 | 2000-06-26 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000191127A JP3668769B2 (ja) | 2000-06-26 | 2000-06-26 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002008012A true JP2002008012A (ja) | 2002-01-11 |
| JP3668769B2 JP3668769B2 (ja) | 2005-07-06 |
Family
ID=18690478
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000191127A Expired - Lifetime JP3668769B2 (ja) | 2000-06-26 | 2000-06-26 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3668769B2 (ja) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004097742A1 (ja) * | 2003-04-28 | 2004-11-11 | Sony Corporation | 画像認識装置及び方法、並びにロボット装置 |
| JP2009525543A (ja) * | 2006-01-31 | 2009-07-09 | ユニバーシティ オブ サザン カリフォルニア | 二次元画像からの三次元の顔の復元 |
| JP2010134649A (ja) * | 2008-12-03 | 2010-06-17 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
| JP2011174891A (ja) * | 2010-02-25 | 2011-09-08 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム |
| JP2011174879A (ja) * | 2010-02-25 | 2011-09-08 | Canon Inc | 位置姿勢推定装置及びその方法 |
| JP2012098087A (ja) * | 2010-10-29 | 2012-05-24 | Canon Inc | 測定装置及び測定方法 |
| JP2013146813A (ja) * | 2012-01-18 | 2013-08-01 | Seiko Epson Corp | ロボット装置および位置姿勢検出方法 |
| JP2014026670A (ja) * | 2013-10-21 | 2014-02-06 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
| CN104626206A (zh) * | 2014-12-17 | 2015-05-20 | 西南科技大学 | 一种非结构环境下机器人作业的位姿信息测量方法 |
| JP2016170610A (ja) * | 2015-03-12 | 2016-09-23 | セコム株式会社 | 三次元モデル処理装置およびカメラ校正システム |
| US9466119B2 (en) | 2013-08-13 | 2016-10-11 | Hanwha Techwin Co., Ltd. | Method and apparatus for detecting posture of surveillance camera |
| CN109903346A (zh) * | 2019-05-13 | 2019-06-18 | 长沙智能驾驶研究院有限公司 | 相机姿态检测方法、装置、设备及存储介质 |
| CN113744333A (zh) * | 2021-08-20 | 2021-12-03 | 北京航空航天大学 | 一种物体抓取位置获取方法及装置 |
| CN116202487A (zh) * | 2023-02-28 | 2023-06-02 | 中国科学院光电技术研究所 | 一种基于三维建模的实时目标姿态测量方法 |
| JPWO2023228244A1 (ja) * | 2022-05-23 | 2023-11-30 |
-
2000
- 2000-06-26 JP JP2000191127A patent/JP3668769B2/ja not_active Expired - Lifetime
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004326693A (ja) * | 2003-04-28 | 2004-11-18 | Sony Corp | 画像認識装置及び方法、並びにロボット装置 |
| US7627178B2 (en) | 2003-04-28 | 2009-12-01 | Sony Corporation | Image recognition device using feature points, method for recognizing images using feature points, and robot device which recognizes images using feature points |
| WO2004097742A1 (ja) * | 2003-04-28 | 2004-11-11 | Sony Corporation | 画像認識装置及び方法、並びにロボット装置 |
| JP2009525543A (ja) * | 2006-01-31 | 2009-07-09 | ユニバーシティ オブ サザン カリフォルニア | 二次元画像からの三次元の顔の復元 |
| US8995710B2 (en) | 2008-12-03 | 2015-03-31 | Canon Kabushiki Kaisha | Information processing apparatus, processing method thereof, and computer-readable storage medium |
| JP2010134649A (ja) * | 2008-12-03 | 2010-06-17 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
| JP2011174891A (ja) * | 2010-02-25 | 2011-09-08 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム |
| JP2011174879A (ja) * | 2010-02-25 | 2011-09-08 | Canon Inc | 位置姿勢推定装置及びその方法 |
| JP2012098087A (ja) * | 2010-10-29 | 2012-05-24 | Canon Inc | 測定装置及び測定方法 |
| JP2013146813A (ja) * | 2012-01-18 | 2013-08-01 | Seiko Epson Corp | ロボット装置および位置姿勢検出方法 |
| US9466119B2 (en) | 2013-08-13 | 2016-10-11 | Hanwha Techwin Co., Ltd. | Method and apparatus for detecting posture of surveillance camera |
| JP2014026670A (ja) * | 2013-10-21 | 2014-02-06 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
| CN104626206A (zh) * | 2014-12-17 | 2015-05-20 | 西南科技大学 | 一种非结构环境下机器人作业的位姿信息测量方法 |
| JP2016170610A (ja) * | 2015-03-12 | 2016-09-23 | セコム株式会社 | 三次元モデル処理装置およびカメラ校正システム |
| CN109903346B (zh) * | 2019-05-13 | 2019-09-06 | 长沙智能驾驶研究院有限公司 | 相机姿态检测方法、装置、设备及存储介质 |
| CN109903346A (zh) * | 2019-05-13 | 2019-06-18 | 长沙智能驾驶研究院有限公司 | 相机姿态检测方法、装置、设备及存储介质 |
| US12217448B2 (en) | 2019-05-13 | 2025-02-04 | Cidi Inc. | Camera pose information detection method and apparatus, and corresponding intelligent driving device |
| CN113744333A (zh) * | 2021-08-20 | 2021-12-03 | 北京航空航天大学 | 一种物体抓取位置获取方法及装置 |
| CN113744333B (zh) * | 2021-08-20 | 2024-02-13 | 北京航空航天大学 | 一种物体抓取位置获取方法及装置 |
| JPWO2023228244A1 (ja) * | 2022-05-23 | 2023-11-30 | ||
| WO2023228244A1 (ja) * | 2022-05-23 | 2023-11-30 | 日本電気株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
| JP7803410B2 (ja) | 2022-05-23 | 2026-01-21 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| CN116202487A (zh) * | 2023-02-28 | 2023-06-02 | 中国科学院光电技术研究所 | 一种基于三维建模的实时目标姿态测量方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3668769B2 (ja) | 2005-07-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11727593B1 (en) | Automated data capture | |
| JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
| JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
| US6381302B1 (en) | Computer assisted 2D adjustment of stereo X-ray images | |
| CN104933718B (zh) | 一种基于双目视觉的物理坐标定位方法 | |
| US8147503B2 (en) | Methods of locating and tracking robotic instruments in robotic surgical systems | |
| US8792963B2 (en) | Methods of determining tissue distances using both kinematic robotic tool position information and image-derived position information | |
| US8693730B2 (en) | Method of real-time tracking of moving/flexible surfaces | |
| US6816755B2 (en) | Method and apparatus for single camera 3D vision guided robotics | |
| CN110926330B (zh) | 图像处理装置和图像处理方法 | |
| JP2002008012A (ja) | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 | |
| CN109613974B (zh) | 一种大场景下的ar家居体验方法 | |
| JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
| JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
| JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
| Fan et al. | A shape-based stereo matching algorithm for binocular vision | |
| WO2019093299A1 (ja) | 位置情報取得装置およびそれを備えたロボット制御装置 | |
| JP2008309595A (ja) | オブジェクト認識装置及びそれに用いられるプログラム | |
| CN115187556A (zh) | 一种基于机器视觉的流水线上零件定位与点云获取方法 | |
| JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
| JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
| JP6228239B2 (ja) | プリミティブの組を用いてデータをレジストレーションする方法 | |
| Erceg et al. | Stereo vision based robot welding | |
| JPH0847881A (ja) | ロボットの遠隔操作方法 | |
| JP6584139B2 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 3668769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| EXPY | Cancellation because of completion of term |