JP4672175B2 - 位置検出装置、位置検出方法、及び位置検出プログラム - Google Patents
位置検出装置、位置検出方法、及び位置検出プログラム Download PDFInfo
- Publication number
- JP4672175B2 JP4672175B2 JP2001124943A JP2001124943A JP4672175B2 JP 4672175 B2 JP4672175 B2 JP 4672175B2 JP 2001124943 A JP2001124943 A JP 2001124943A JP 2001124943 A JP2001124943 A JP 2001124943A JP 4672175 B2 JP4672175 B2 JP 4672175B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- image
- position detection
- self
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
【発明の属する技術分野】
本発明は、距離画像を用いてロボットや自動車が移動した際の自己の位置を検出する位置検出装置、位置検出方法、及び位置検出プログラムに関する。特に、人間型の脚式移動ロボットの自己位置検出に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】
従来の車両の位置検出には、GPSやビーコンから発せられた情報を受信して、この情報を解析して自己の位置を検出するものがある。GPSやビーコンを使用した位置検出は、GPSやビーコンが発した電磁波を受信しなければならないために、電磁波の送信装置と自己に備えられた受信装置との間に電磁波を遮断する物体がある場合、自己の位置検出を行えなくなるという問題がある。特に屋内のみを移動するロボットなどは全く利用することができない。このため、車両に車輪の回転数を検出する距離センサ及び方位センサを備え、これらのセンサの出力値に基づき、場合によっては道路地図データをマッチングすることによって、自己の位置を検出する位置検出装置がある。例えば、特開平9−243389号公報に記載されている技術が挙げられる。
【0003】
しかしながら、この位置検出装置は、内部に詳細な道路地図データを備える必要があるとともに、距離センサや方位センサの出力値には誤差が含まれるために、距離センサや方位センサの出力値のみによる位置検出が長時間継続すると、検出誤差が累積されてしまい、検出された車両位置が実際の車両位置から大きくずれてしまうという問題がある。また、特に人間型の脚式移動ロボットが屋内を自由に移動する際においては、壁や柱との相対位置をロボット自身が得る必要があるが、従来の位置検出装置では、周囲の環境との相対位置関係を得ることが難しいために自律移動が困難になるという問題がある。
【0004】
本発明は、このような事情に鑑みてなされたもので、人間型脚式移動ロボットや自動車が自律的に移動する際に、周囲環境の画像を用いて自己の位置検出を簡単に行うことができる位置検出装置、位置検出方法、及び位置検出プログラムを提供することを目的とする。
【0005】
【課題を解決するための手段】
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量に基づいて各特徴点が静止物体であるか移動物体であるか判断し、前記静止物体であると判断された前記特徴点を基準特徴点として選択する基準特徴点選択手段と、前記距離画像から前記基準特徴点に対応する距離を取得し、前記基準特徴点と自己位置との相対的位置の前記2フレーム間の移動量を算出し、前記移動量に基づいて現在の自己位置を検出する位置検出手段とを備えたことを特徴とする。
この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られる。
【0006】
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野内の画像を取得する画像取得手段と、前記移動体の移動に当たって基準となる基準特徴点を前記画像取得手段によって得られた画像に基づいて決定する基準点決定手段と、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段とを備えたことを特徴とする。
この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
【0007】
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出手段と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択手段とを備えたことを特徴とする。
この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
【0008】
本願発明の一態様は、前記特徴点選択手段は、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する。
この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、物体情報の更新を自動的に行うことができるという効果が得られる。
【0009】
本願発明の一態様は、移動体の自己位置を検出する位置検出装置であって、前記位置検出装置は、前記移動体の前方視野の画像を取得する画像取得手段と、前記画像中の特徴点群を抽出する特徴点群抽出手段と、予め画像取得手段で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出手段とを備えたことを特徴とする。
この発明によれば、予め画像取得手段で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出するようにしたため、幾何学的にロボットの位置が得られない場合であっても過去の位置検出結果に基づいて自己の位置を検出することができるという効果が得られる。
【0010】
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野の画像を取得する画像取得過程と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得過程と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出過程と、前記特徴点抽出過程において抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量に基づいて各特徴点が静止物体であるか移動物体であるか判断し、前記静止物体であると判断された前記特徴点を基準特徴点として選択する基準特徴点選択過程と、前記距離画像から前記基準特徴点に対応する距離を取得し、前記基準特徴点と自己位置との相対的位置の前記2フレーム間の移動量を算出し、前記移動量に基づいて現在の自己位置を検出する位置検出過程とを有することを特徴とする。
この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られる。
【0011】
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野内の画像を取得する画像取得過程と、前記移動体の移動に当たって基準となる基準特徴点を前記画像に基づいて決定する基準点決定過程と、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出過程とを有することを特徴とする。
この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
【0012】
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野の画像を取得する画像取得過程と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得過程と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出過程と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択過程とを有することを特徴とする。
この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
【0013】
本願発明の一態様は、前記特徴点選択過程は、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する。
この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、物体情報の更新を自動的に行うことができるという効果が得られる。
【0014】
本願発明の一態様は、移動体の自己位置を検出する位置検出方法であって、前記位置検出方法は、前記移動体の前方視野の画像を取得する画像取得過程と、前記画像中の特徴点群を抽出する特徴点群抽出過程と、予め画像取得過程で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出過程とを有することを特徴とする。
この発明によれば、予め画像取得過程で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出するようにしたため、幾何学的にロボットの位置が得られない場合であっても過去の位置検出結果に基づいて自己の位置を検出することができるという効果が得られる。
【0015】
本願発明の一態様は、移動体の自己位置を検出する位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野の画像を取得する画像取得処理と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得処理と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出処理と、前記特徴点抽出処理において抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量に基づいて各特徴点が静止物体であるか移動物体であるか判断し、前記静止物体であると判断された前記特徴点を基準特徴点として選択する基準特徴点選択処理と、前記距離画像から前記基準特徴点に対応する距離を取得し、前記基準特徴点と自己位置との相対的位置の前記2フレーム間の移動量を算出し、前記移動量に基づいて現在の自己位置を検出する位置検出処理とをコンピュータに行わせることを特徴とする。
この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られる。
【0016】
本願発明の一態様は、移動体の自己位置を検出する位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野内の画像を取得する画像取得処理と、前記移動体の移動に当たって基準となる基準特徴点を前記画像に基づいて決定する基準点決定処理と、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出処理とをコンピュータに行わせることを特徴とする。
この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
【0017】
本願発明の一態様は、移動体の自己位置を検出するための位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野の画像を取得する画像取得処理と、前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得処理と、得られた画像からそれぞれ特徴点を抽出する特徴点抽出処理と、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とする基準特徴点選択処理とをコンピュータに行わせることを特徴とする。
この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
【0018】
本願発明の一態様は、前記特徴点選択処理は、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新することを特徴する。
この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようにしたため、物体情報の更新を自動的に行うことができるという効果が得られる。
【0019】
本願発明の一態様は、移動体の自己位置を検出するための位置検出プログラムであって、前記位置検出プログラムは、前記移動体の前方視野の画像を取得する画像取得処理と、前記画像中の特徴点群を抽出する特徴点群抽出処理と、予め画像取得処理で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出する自己位置検出処理とをコンピュータに行わせることを特徴とする。
この発明によれば、予め画像取得処理で得られた画像における特徴点群と当該特徴点群を得た位置を対応させて複数記憶しておき、新たに得られた画像の特徴点群と予め記憶された特徴点群の相関を算出して、自己の位置を算出するようにしたため、幾何学的にロボットの位置が得られない場合であっても過去の位置検出結果に基づいて自己の位置を検出することができるという効果が得られる。
【0020】
【発明の実施の形態】
<第1の実施形態>
以下、本発明の第一の実施形態による位置検出装置を図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。ここでは、図1に示す位置検出装置は屋内を移動する自律走行のロボットに備えられているものとして説明する。この図において、符号1は、ロボットが移動する際の移動方向の視野内に存在する物体を撮像する2台のカメラであり、所定の間隔で設置され、互いの視野角は一致している。符号2は、カメラ1において得られた画像の1フレーム分をそれぞれ記憶する距離画像記憶部であり、2フレーム分の画像メモリからなる。符号3は、画像記憶部2に記憶されている2フレームの画像から距離画像を生成する距離画像生成部である。符号4は、距離画像生成部3において生成された距離画像を記憶する距離画像記憶部である。符号5は、画像記憶部2または距離画像記憶部4に記憶されている画像から特徴点を抽出する特徴点抽出部である。符号6は、特徴点抽出部5における特徴点抽出結果に基づいて自己の位置の検出を行う位置検出部である。符号7は、位置検出部6による位置検出結果を参照してロボットの移動を制御する移動制御部である。
【0021】
ここで、以下の説明において用いる座標系を定義する。ロボットが初期状態であるときの前方の距離方向をX軸、ロボットの左右方向をY軸、鉛直方向をZ軸とし、これらの3軸は互いに直交している。また、以下でいう距離とは、カメラ1から各物体までの直線距離である。したがって、距離画像データは、カメラ1の視野における物体表面の測定点の3次元座標値の集合である。
【0022】
次に、図面を参照して、図1に示す位置検出装置の動作を説明する。図2は、特徴点抽出部5及び位置検出部6が画像記憶部2に記憶されている輝度画像と、距離画像記憶部4に記憶されている距離画像とから、特徴点を連続時間でトラッキングし、その位置情報を基に自己の位置検出を行う動作を示すフローチャートである。図2のフローチャートに示す各処理は、カメラ1によって画像を撮像する度に繰り返し実行される。
【0023】
まず、2台のカメラ1は、ステレオカメラとして動作し、各カメラで輝度画像を取得し、画像記憶部2へそれぞれ格納する。続いて、画像記憶部2に輝度画像が記憶されたのを受けて距離画像生成部3は、2つのカメラ1で取得した2枚の輝度画像からそれぞれの画像の画素の対応点を求めることによって距離画像を生成し、距離画像記憶部4へ格納する。ここでは、少ない画素でより精度の良い距離画像を得るために画素間を補間するいわゆるサブピクセルを用いて距離画像を作成する。なおここでは、一例として各画素の輝度画像及び距離画像を256階調で表現するものとする。通常の画像の画素は、センサの視野内における物体表面の輝度を表現したものであるが、距離画像の画素は、センサの視野内における物体表面までの距離を256階調で表現したものである。したがって、距離画像中の画素の位置によってカメラ位置からの3次元空間に存在する物体表面上の1点へのXYZ座標を特定することができる。なお、より高精度な距離精度が必要な場合には、カメラに換えてレーザレーダ、ミリ波レーダや超音波を用いたレーダを併用するなどして精度を向上させることもできる。また、カメラ1は赤外線カメラでもよい。さらに、距離データを256階調で表現せずに、距離センサの出力値をそのまま使用するようにしてもよい。カメラ1と距離画像生成部3は、この動作を繰り返し実行する。一方、特徴点抽出部5は、画像記憶部2に記憶されている画像を読み出す(ステップS1)。
【0024】
次に、特徴点抽出部5は、読み出した輝度画像から特徴点を抽出して、この特徴点を特徴点抽出部5内に保存する(ステップS2)。ここでいう特徴点とは、画像処理で用いられる不変特徴量に相当し、画像中に現れている像を特徴付ける点のことである。この特徴点の抽出は、例えば輝度画像に対してエッジ検出処理を施し、検出されたエッジを構成する点を選択することによって行う。なお、特徴点抽出部5は、距離画像記憶部4に記憶されている距離画像を読み出し、この距離画像から特徴点を抽出するようにしてもよい。特徴点は、連続して取り込まれた2枚の輝度画像を用いて作成される。ここでは、それぞれの時刻を「t」と「(t+1)」と表記する。また、特徴点抽出においては、左右いずれか一方のカメラ1から得られた輝度画像を用いており、時刻(t+1)の入力画像から抽出した特徴点の集合と、入力画像の直前の時刻tの画像から抽出した特徴点の集合の2種類の特徴点が保存される。この特徴点は、画像上の座標値が保存される。
【0025】
次に、これらの2つの異なる時刻の特徴点の対応点を求めるために、位置検出部6は、特徴点抽出部5内に保存されている入力画像の特徴点を1つ読み出す(ステップS3)。続いて、位置検出部6は、特徴点抽出部5内に保存されている直前の画像の特徴点を1つ読み出す(ステップS4)。ここで、直前の時刻tとは、現在説明しているステップS1〜S17が前回行われた時刻であり、2つの異なる時刻tと(t+1)との対応点は、ステップS1〜S17が2回以上実行されることで得られる。よって初めてステップS1〜S17が実行されるときは、例外処理としてステップS3まで実行してステップS1へ戻ることになる。
【0026】
次に、位置検出部6は、2つの特徴点の確からしさCAを算出し時刻tで保存された特徴点とパターンマッチングを行う(ステップS5)。ここで、図3を参照して、2つの特徴点の確からしさCAを算出する処理の詳細を説明する。まず、特徴点を抽出した入力画像に対して、特徴点の周囲のm画素×n画素(ただし、m、nは2以上の自然数)を選択する。そして、直前画像の特徴点の周囲のm画素×n画素(ただし、m、nは2以上の自然数)を選択する。このとき、2つの特徴点の周囲の画素の選択する大きさ(m×n)は任意に決定してよいが、2つの選択する画素数は同一でなければならない。
【0027】
この選択動作によって、256階調の輝度値(0〜255の整数)を有したm×n個の輝度値の集合、すなわちg1={g11,g12,・・・,g1mn}、 g2={g21,g22,・・・,g2mn}が得られる。そして、得られた2つの輝度値の集合のうち、対応する画素毎の輝度値の減算を行い、その減算結果を加算することによって、確からしさCAを算出する。すなわち、
CA=|(g11−g21)|+|(g12−g22)|+…+|(g1mn−g2mn)|によって算出される。この演算によれば、2つの輝度値集合が全く同一であれば確からしさCAは「0」となるはずである。したがって、この演算によって算出されたCAが小さいほど2つの特徴点が同一である可能性が高くなる。
【0028】
次に、位置検出部6は、算出した確からしさCAとしきい値TCを比較して(ステップS6)、CAがTCより小さい場合、連続時間の特徴点移動量としての座標値から変位ベクトルdaを算出して、位置検出部6内に保存する(ステップS7)。一方、CAがTCより小さい場合、ステップS8へ進む。
【0029】
次に、位置検出部6は、直前の画像の特徴点の全てについて処理したか否かを判定し(ステップS8)、処理していなければステップS4へ戻り処理を繰り返す。一方、直前の画像の特徴点の全てについて処理が終了した場合、位置検出部6は、入力画像の特徴点の全てについて処理したか否かを判定し(ステップS9)、処理していなければステップS3に戻り処理を繰り返す。一方、入力画像の特徴点の全てについて処理が終了した場合、ステップS10へ進む。
【0030】
このように、ステップS3〜S9の処理によって、入力画像(時刻t+1)の特徴点と直前画像(時刻t)の特徴点との対応付けがされ、さらに、対応付けされた特徴点の変位ベクトルdaが算出されて保存された状態となる。ただし、変位ベクトルdaが算出されるのは、2つの特徴点の確からしさが所定のしきい値Tcを超えている場合のみであるために、算出される変位ベクトルdaの個数は処理の度に異なる。
ここでは、直前の画像の特徴点の全てについて処理を行ったが、計算処理の負荷を低減するために、必要とする移動量に合わせ、求める特徴点の近傍のみを計算して求めるようにしてもよい。
【0031】
次に、位置検出部6は、保存されている変位ベクトルdaを読み出し、平均変位ベクトルTdを算出する(ステップS10)。
次に、位置検出部6は、保存されている変位ベクトルdaを1つずつ読み出す(ステップS11)。
そして、位置検出部6は、|ベクトルTd−ベクトルda|を算出してこの値が、所定のしきい値Aより小さいか否かを判定する(ステップS12)。この判定によって、算出された変位ベクトルdaの各々が平均変位ベクトルTdとどの程度の差を持っているかが判定される。
【0032】
この判定の結果、算出した差(|ベクトルTd−ベクトルda|)がしきい値Aより小さい場合、位置検出部6は、該当する変位ベクトルdaを算出するときに用いられた特徴点を静止物体であると判断する(ステップS13)。一方、しきい値Aより大きい場合、位置検出部6は、該当する変位ベクトルdaを算出するときに用いられた特徴点を移動物体と判断する(ステップS14)。この処理は、算出された全ての変位ベクトルdaに対して行われ(ステップS15)、これによって、特徴点の各々について、静止物体であるか移動物体であるかの判断が行われる。
【0033】
次に、位置検出部6は、静止物体であると判断された特徴点のうち、確からしさCAが上位の特徴点を抽出する(ステップS16)。ここでいう確からしさCAが上位とは、CAの値が小さいほど上位であることを意味する。この抽出処理によって抽出される特徴点は、入力画像(時刻t+1)の特徴点と対になる直前の画像(時刻t)の特徴点であり、これらの特徴点が自己位置算出の基準特徴点となる。
【0034】
次に、位置検出部6は、抽出した各々の基準特徴点と距離画像記憶部4に記憶された距離画像との対応点より特徴点の距離を求め、その特徴点とロボットの相対的位置の移動量に基づいて、直前の画像を取得した時点から現時点の画像(入力画像)を取得した時点までにロボットが移動した量を算出する(ステップS17)。ステップS17の処理が終了しロボットの位置が決定されると再びステップS1へ戻り、記憶されている前回対応がとれた特徴量に対して同様の処理を繰り返す。
【0035】
ここで、図4を参照して、自己位置を算出する原理を説明する。ここでの座標系は、ロボットが初期状態であるときに定義される座標系であり、ロボットの前方方向をX軸、このX軸に直交する方向をY軸とする。図4において、a、bはそれぞれ建造物内の柱などの任意の特徴点であり、前述した処理によって抽出される。ロボットが画像を取得することによって得られる情報は、図4に示す特徴点aの相対的位置(xa,ya)及び特徴点bの相対的位置(xb,yb)である。
ここでのφはz軸回りのロボットの回転角で反時計回りを正とする。
【0036】
ここで、a,bの絶対位置は既知であり、a(ax,ay)、b(bx,by)と仮定すると、abの相対的座標値(xa,ya),(xb,yb)を用いてロボットの絶対位置(xt,yt)はa,b点を中心とした半径l1=√(xa 2+ya 2),l2=√(xb 2+yb 2)の円の交点となる。原点(0,0)からロボット位置(xt,yt)までのベクトルをP→(以下の説明におけるベクトル表現を「P→」とし、図面においては、Pの頭に→を付ける)とし、原点からのa,bまでのベクトルをa→,b→、ロボットの位置(xt,yt)からa,bそれぞれの点へのベクトルをl1→,l2→とすると、ロボットの回転角φが0の場合、P→=(a→)−(l1→),P→=(b→)−(l2→)の関係が成り立つ。また、ロボットの回転角φが0でない場合は、ベクトルl1→,l2→をそれぞれ(−φ)だけ回転させたベクトルが成立する。また、ロボットのZ軸方向の回転角φを考慮すると、aに関していえば、
tan-1(ay/ax)−tan-1(ya/xa)=φ
と決定される。また、bに関していえば、
tan-1(by/bx)−tan-1(yb/xb)=φ
と決定される。
【0037】
これによって、ロボットの回転角φとロボットの位置(xt,yt)を求めることができる。上記の説明においては、a,bを既知として仮定したが、ここでは、未知の物体も扱うので、a,bの絶対位置は求められていないので、時刻tにおいて、ロボットの位置を基にa,bの位置を決定し、時刻t+1において得られたa,bの相対位置の変化量daを基に、ロボット位置の変化量(ロボットの移動量)を求め、既知の絶対位置座標にこの変化量を加算することで、時刻t+1のロボット位置を求めることができる。もちろんa,bが既知である場合はa,bの相対位置を基にロボット位置を容易に決定できる。
【0038】
算出された位置は、移動制御部7へ通知され、移動制御部7においては、この位置に基づいて、ロボットの移動制御が行われる。また、移動制御部7は、位置検出をする必要がある場合に、特徴点抽出部5に対して位置検出指示を出力するようにして、この位置検出指示を受けて、特徴点抽出部5は図2に示す処理を開始するようにしてもよい。このようにすることによって、例えば、図1に示す位置検出装置を自動車に備え、トンネル等へ進入した時点で画像による位置検出を行うようにすれば、GPSによる位置検出ができなくなった場合であっても位置検出を継続することができる。
【0039】
このように、連続して取り込まれる画像から同一の静止物体を連続してトラッキングすることで、この静止物体の刻々と変化する位置の変位を求め、この変位量から自己の移動量を刻々と求めるようにしたため、精度良く自己位置の検出を行うことができる。ここでは、連続する2枚の画像でトラッキング処理を行う例を説明したが、信頼性や精度向上のために2枚以上の画像から特徴点の移動経歴を求め、静止物体を抽出しトラッキングするようにしてもよい。
このように、ターゲットとなる特徴点の位置が既知の場合は、ロボットの絶対的位置を決定でき、また、未知の場合は時刻tにおけるターゲットの相対的位置とロボット位置(xt,yt)によりターゲットの位置を決定し、そのターゲット位置の時刻t+1の位置の変化量をもとにロボット位置(xt+1,yt+1)を求めることができる。また、連続時間Kだけ同じターゲットをトラッキングし続けた場合は、同様にして、(xt+k,yt+k)のk時間の変化量を基に時刻t+kの位置を検出することができる。
【0040】
なお、図1に示す距離画像生成部3は、超音波や電磁波を用いたレーダ等に置き換えてもよい。このとき、レーダの計測視野を図1に示すカメラ1と同一になるように設定する。また、レーダ等を用いて距離画像を得る場合は、輝度画像を得るカメラ1は1台のみを備えていればよい。
【0041】
また、移動体が移動している場合、特徴点に近づくに従いフレームから特徴点が外れてしまうことがあり、位置の検出ができなくなってしまうため、複数の特徴点全てについて図2に示す処理を行うことによって、移動量を算出する特徴点を次々に切り替えていくようにする。ただし、この場合、移動体から離れるにしたがって、計測距離の誤差が移動体から近い場合に比べて大きくなるため、フレーム内に存在する特徴点のうち距離が短い特徴点を優先的に選択して移動量の算出を行うようにすれば、移動の精度が悪化することを防止することができる。また、移動体の回転(自転)によって、フレームから1度外れてしまった物体は位置を記憶しておき、同じ物体が再びフレーム内に戻ってきたときに同一物体としてトラッキングするようにしてもよい。
【0042】
<第2の実施形態>
次に、従来技術のように詳細な地図を持たずに、最小限の地図情報に基づいて自己の位置を検出する第2の実施形態を図5〜9を参照して説明する。図5は、他の実施形態の構成を示すブロック図である。図5に示すブロック図が図1に示すブロック図と異なる点は、新たに物体情報記憶部8を設けた点である。この物体情報記憶部8は、特徴量として予め既知の複数の静止物体の特徴点の集合と、その静止物体の絶対位置が対応付けられて物体の地図として記憶されているものであり、特徴点抽出部5、及び位置検出部6によって参照される。ここでいう既知の静止物体とは、部屋の中の柱や植木、ロッカーなどの家具などである。また、どのような位置の物体を記憶しておくかは特に制限はないが、移動体が移動する際に行動を変化させる位置、すなわち曲がり角、ドアの前等の付近に存在する特徴物を優先的に記憶するようにしておけば、効率良くかつ精度良く移動体の制御が可能となる。
【0043】
次に、図6を参照して、図5に示す位置検出装置の動作を説明する。ここで、カメラ1、画像記憶部2、距離画像生成部3、距離画像記憶部4の動作は、前述した実施形態における動作と同様なので説明を省略する。図6のフローチャートに示す各処理は、カメラ1によって画像を撮像する度に繰り返し実行される。
まず、特徴点抽出部5は、画像記憶部2に記憶されている画像を読み出す(ステップS21)。そして、特徴点抽出部5は、読み出した輝度画像から特徴点を抽出して、この特徴点を特徴点抽出部5内に保存する(ステップS22)。
【0044】
ここでいう特徴点とは、画像処理で用いられる不変特徴量に相当し、画像中に現れている像を特徴付ける点のことである。また、特徴量とは、物体形状を構成する複数の特徴点群のことである。この特徴点の抽出は、例えば画像に対してエッジ検出処理を施し、検出されたエッジを構成する特徴点を複数選択することによって行う。なお、特徴点抽出部5は、距離画像記憶部4に記憶されている距離画像を読み出し、この距離画像から特徴点を抽出するようにしてもよい。特徴点は、時刻tの画像(直前の画像)から抽出した特徴点の集合が保存され、この特徴点は、画像上の座標値が保存される。
【0045】
次に、特徴点抽出部5は、内部に保存されている特徴点を1つずつ読み出し、物体情報記憶部8に記憶されている複数の物体情報の特徴点群(特徴量)とパターンマッチングすることによって比較する(ステップS23)。この比較処理は、前述した実施形態の処理(図2に示す処理)と同様の処理によって行う。またここでいう物体情報とは、予め得られた画像から静止物体の特徴点を抽出しておき、この特徴点とこの静止物体が存在する位置の絶対座標からなる情報である。ここで、用いるパターンマッチング手段としては単純なテンプレートマッチング法を利用してもよい。
【0046】
続いて、特徴点抽出部5は、ステップS22で得られた特徴点と一致するまたは確からしさが大きい、すなわち相関が高い物体情報が物体情報記憶部8に存在したか、すなわち既知の物体があったか否かを判定する(ステップS24)。この結果、既知の物体が存在した場合、位置検出部6は、この既知の静止物体と自己の相対位置から自己の絶対位置を求める(ステップS25)。この絶対位置は、既知の物体の絶対座標と、距離画像記憶部4に記憶された距離画像から得られる既知の物体と自己の相対位置関係とから算出する。
【0047】
次に、ステップS24において、既知の物体が存在しなかった場合、特徴点抽出部5は、ステップS22において抽出した特徴点が移動物体であるか静止物体であるかを判定する(ステップS26)。判定の結果得られた静止物体は直前に求められた自己の位置情報を基に自己との相対的位置関係よりそれぞれ絶対位置を求める(ステップS27)。この判定処理は、図2に示すステップS4〜S13,S14の処理によって行う。そして、この判定処理の結果得られた静止物体は直前の処理(時刻t)においてもトラッキングできていたかを判定する(ステップS28)。この判定は、直前に物体情報記憶部8に記憶された特徴量と今回の特徴量をパタンパターンマッチングして一致量を比較し判定する。また、直前にステップS30で物体情報記憶部8に記憶された特徴量の絶対位置とステップS27で求めた位置とを比較し、近傍であった場合トラッキングできたと判定を加えてより精度を上げることもできる。この判定の結果、直前の処理においてもトラッキングできた特徴点である場合、位置検出部6は、静止物体と自己との相対位置から自己の絶対位置を求める(ステップS29)。
【0048】
一方、ステップS28において、特徴点がトラッキングできておらず新規のものである場合、特徴点抽出部5は、新規の静止物体の特徴点と直前のステップS25またはS29で求められた時刻tの自己の絶対位置を基に新規の特徴点の絶対位置を決定し物体情報記憶部8に記憶する(ステップS30)。この移動量の算出は、図2に示すステップS3〜S17の処理によって行う。
【0049】
前述したステップS28での判定において、近傍か否かに判断は距離のしきい値を定め、直前の位置と今回の位置がこの距離内にあるか否かによって判断する。しかし、画像によっては得られる距離にばらつきやノイズが大きい場合は、統計的処理を行ってもよい。これは、連続時間だけある特徴量がトラッキングできていたとすると、その特徴量の画像上の位置に対する距離画像によって得られる自己に対する相対的位置(x,y)のばらつきの分散値を刻々計算し、分散値が収束した時点で、分散の範囲内にあるものを同一の物体とし、分散外にあるものを別物体と判定するようにしてもよい。この分散値はステレオカメラの特性や物体によっても異なるため、予め設定された分散既定値を用いてもよいし、物体情報記憶部8に物体毎に設定し記憶された既定値を用いてもよい。また、ステレオカメラの特性として距離の2乗で精度が落ちることから分散値を距離の2乗で変化させるなどの関数を用いてもよい。
【0050】
ここで、ステップS25、S29における絶対位置の算出方法を図7を参照して説明する。図7において、符号ARは、行動エリアを示しており、予めこの行動エリアAR内の原点Gが決定されている。符号Rは、ロボットであり、符号K4は、既知の静止物体であり、符号U5は、未知の物体である。図7においては、簡単にするためにロボットRの回転角φは無視している。このような状態であるときに、絶対位置が既知である物体K4の絶対座標値(x1,y1)と、この既知物体K4とロボットRに相対位置(x2、y2)に基づいて、ロボットRの絶対位置(Rx,Ry)は、(Rx,Ry)=(x1+x2,y1−y2)によって自己の絶対位置を求める。また、同様に未知の物体U5の絶対位置の座標値(x4,y4)は、(x4,y4)=(x1+x2+x3,y1−y2+y3)によって求める。図8に示すように、既知の静止物体Kと未知の静止物体Uがカメラによって同時に撮像された場合に、未知の物体Uの絶対座標を計算によって求めておくようにしたため、ロボットRが符号R’の位置まで移動した場合に既知物体Kを撮像することができず未知の物体Uのみが撮像された場合でも、予め計算しておいた絶対座標を利用することが可能となる。
【0051】
なお、ステップS28の判定は、抽出された特徴量が複数の場合は、全てに対して行われ、ステップS29においては全ての特徴量との相対位置から自己の位置を求め、平均値によって自己の絶対位置を求めるようにする。
このように、既知の物体、未知の物体、未知の物体のうち計算によって位置が既知になった物体の状況に応じて、自己の絶対位置を求めるようにしたため、移動制御部7は精度良く移動制御を行うことが可能となる。
【0052】
次に、図9を参照して、具体例を挙げて動作を説明する。ここでは、ロボットは、A地点からB地点へ移動し、さらにC地点へ移動する場合の動作を例にして説明する。まずA地点において、ステップS23の比較処理の結果、絶対座標が既知である物体K1、K2、K3が存在することを認識する。そして、位置検出部6は、物体K1、K2、K3の3つの物体のうち、物体K3は距離が長いため、物体K1、K2の絶対位置の座標値から自己の絶対位置を求める(ステップS25)。このとき、位置検出部6は、未知物体U1、U2の絶対位置の座標値を計算によって求めて、内部記憶しておく(ステップS30)。そして、ロボットは、絶対位置が既知となった未知物体U1、U2の位置に基づいて自己位置を求めながら(ステップS29)移動し、さらに未知物体U1、U2が撮像できない位置へ到達した場合に、既知物体K3に基づいて自己位置を求めながら(ステップS25)、B地点まで移動し、B地点の絶対位置を求める。これによって、未知物体U1、U2に関する位置情報と物体情報が更新されることになる。
【0053】
次に、ロボットは、方向転換し、C地点方向へ向く。このとき、カメラ1には、未知の物体U3、U4が撮像される。ただし、この場合、90°向きを変えたため、未知の物体U3、U4が撮像された画像には、既知の物体が撮像されない場合もある。このような時には、未知物体U3、U4に基づいて移動量を求め、B地点の絶対座標値に求めた移動量を加算することによって自己位置を求める(ステップS29)。そして、C地点まで移動する途中で既知物体が撮像された場合、この既知物体に基づいて自己の絶対位置を求め、移動量によって求めた絶対位置の誤差をリセットする。
【0054】
このように、未知の物体の位置に基づいて、自己の絶対位置を求める場合、距離画像から得られる相対位置の誤差が累積されるが、既知の物体が撮像された場合に、自己の位置をこの既知の物体から求めるようにしたため、累積した誤差をリセットすることが可能となり、精度の良い位置検出が可能となる。
次に、もう一度同じエリアにおいて移動を行う際は、地点Aに移動した場合、前回未知物体U1、U2は地図位置情報と物体情報が内部に記憶されているため既知物体として使われる。また、未知物体U3、U4も同様である。また、前回既知の物体が今回存在することが認識できない場合は、その物体が移動物体である可能性があるため、物体情報として移動物体である可能性があること記憶して検出対象から外すなどの処理を加えてもよい。
【0055】
ところで、画像から得られる距離情報にはばらつきが大きいことがあり、上記の方法によってロボットの位置を求めるのは困難である場合がある。そのため、ロボットの位置は、抽出した基準特徴点に基づき、カルマンフィルタを使用して算出するようにしてもよい。このカルマンフィルタを用いることによって、距離情報のばらつきなどを考慮してロボットの位置を算出することができる。
【0056】
ここで、カルマンフィルタを用いた場合のロボット位置算出の処理について説明する。ここで用いるカルマンフィルタは拡張カルマンフィルタであり、状態方程式を(1)式に示す。ここで、ロボットの状態を表現する変数をx,y,φ,Tの4つで表現し、
【数1】
と定義すると、xt,ytは、xy軸上のx,y値、φtはz軸まわりの回転角、Ttは時間ステップtから(t+1)で移動する距離である。
【数2】
(1)式において、右辺2番目の項は移動制御部7からの時刻tにおける移動制御変化量であり、3番目の項は時刻tにおけるロボット制御のシステムノイズを表す。ここで用いる座標系は図5と同様であり、また、図10にロボット位置の状態を表す各パラメータの意味を示す。
また、(2)式は、特徴点aの観測方程式であり、(3)式は、特徴点bの観測方程式であり、これらの式はロボットから見た特徴点a,bの相対的計測値を示すものである。この計測式は、図5に示す座標系に基づいて幾何学的に作成される。この計測量を表現する変数をx,y,θの3つで表現し、
【数3】
となる。ここで、(2)、(3)式の右辺2項目は計測ノイズを表す。
【0057】
上記の(1)〜(3)式は図2に示すステップS25、S29における処理に用いられるものであり、これらの式を画像が取得される度に演算を行うことによって、ロボットの回転角φt+1とロボットの位置(xt+1,yt+1)を求めることができる。この拡張カルマンフィルタを用いることによって、前述した幾何学的に算出するのに比べ、システムノイズ及び計測ノイズが考慮されているために精度良くロボットの位置検出を行うことができる。また、カルマンフィルタを用いたときは、ステップS28の判断において特に明記していないが、カルマンフィルタ内で収束する特徴点に対する観測値の共分散を、その特徴点の分散値として用いることもできる。
【0058】
なお、本実施形態においては対象となる物体の座標はx,y平面で説明したが、高さ方向(z方向)に拡張にして自己の位置を、高さを含めて決定するようにしてもよい。
【0059】
<第3の実施形態>
次に、ロボットが移動する環境において、オクルージョンなどの要因で特徴物に対する相対位置を個別に決定できない場合に、複数の特徴点群とこれらの特徴点群が得られた場所の位置の情報を全て予め記憶しておき、この情報を参照しながら自己の位置を決定する第3の実施形態を説明する。図11は、第3の実施形態における位置検出装置の構成を示すブロック図である。この図において、符号1はカメラであり、符号5は特徴点抽出部である。符号8は、物体情報記憶部である。符号9は、2つの特徴点の相関を求める相関処理部である。符号10は、相関処理部9の処理結果に基づいて自己位置を決定する自己位置決定部である。図11においては、得られた画像を記憶する画像記憶部2、及び移動制御部7は省略されている。また、第3の実施形態においては、距離画像を必要としないため、関係する構成要素は削除されている。
【0060】
まず、図13、14を参照して自己位置を求める原理を簡単に説明する。図13は、位置Mにおいてロボットの進行方向F→のシーンをカメラで撮影し、得られた画像から特徴点群を選択している図である。このとき、選択される特徴点群をWとすると、特徴点群Wは位置Mと関連付けられ、物体情報記憶部8に記憶される。ここでの特徴点群は個々にオクルージョンなどにより相対位置を特定できないものであるため、特徴点全体に対し記憶した位置を関連付けることとなる。
【0061】
図14は、特徴点群を記憶する位置が9ヶ所(M1〜M9)ある時の例であり、ロボットが通過するであろう位置に予め設定されるものである。予め設定された各位置M1〜M9のそれぞれからロボットの進行方向F→の方向に向けられたカメラで撮像された画像の中から抽出した特徴点群をW1〜W9とすると、それぞれの位置(特徴点取得位置という)M1〜M9と特徴点群W1〜W9はそれぞれ対になるように対応付けられて物体情報記憶部8に予め記憶される。そして、ロボットが未知の位置を通過中に、進行方向F→の方向に向けられたカメラで撮像された画像の中から抽出された特徴点群と予め記憶された特徴点群W1〜W9との相関を求め、この相関が最も高い特徴点群Wn(nは1〜9のいずれか)を自己が通過中の位置と判断し、この特徴点群Wnと対になる特徴点取得位置Mn(nは1〜9のいずれか)が自己位置となる。例えば、特徴点群W4とカメラで撮像された画像から抽出された特徴点群とが最も良く相関が取れるとき、この特徴点群W4を取得した位置M4を自己位置と決定する。
【0062】
次に、図12を参照して、図11に示す位置検出装置が自己位置を求める具体的な動作を説明する。
まず、特徴点抽出部5は、カメラ1で撮像された画像を読み出す(ステップS41)。そして、特徴点抽出部5は、読み出しだ画像から全ての特徴点群を抽出し、内部に保存する(ステップS42)。一方、相関処理部9は、物体情報記憶部8に記憶されている特徴点群を1つ読み出す(ステップS43)。続いて、相関処理部9は、入力画像(カメラ1で撮像した画像)の特徴点を特徴点抽出部5から1つ読み出す(ステップS44)。さらに、相関処理部9は、ステップS43で読み出した特徴点群から1つの特徴点を選択する(ステップS45)。
【0063】
次に、相関処理部9は、ステップS44で読み出した特徴点とステップS45で選択した特徴点との確からしさCAを算出し(ステップS46)、予め決められたしきい値Tcと比較する(ステップS47)。この結果、CA>TcでなければステップS49へ進む。一方、CA>Tcであれば、処理ループ毎に求められたCAの和Sを求める(ステップS48)。ただし、CAの和Sは、特徴点群毎に求めるため、確からしさCAの和Sは特徴点群の数だけ得られることとなる。そして、相関処理部9は、ステップS43で読み出した特徴点群を構成する特徴点の全てについて、ステップS45〜S48の処理を繰り返す(ステップS49)。
【0064】
次に、相関処理部9は、ステップS42で保存された特徴点群を構成する特徴点の全てについて、ステップS44〜S48の処理を繰り返し(ステップS50)、さらに、ステップS42で保存された特徴点群の全てに対してステップS43〜S48の処理を繰り返す(ステップS51)。ステップS42〜S48における処理は、入力画像から抽出した特徴点群を構成する特徴点と物体情報記憶部8に記憶されている特徴点とをそれぞれ総当たりで確からしさを求めている処理である。なお、ステップS44〜S50の処理において、画像ピクセルの近いものを選択して確からしさを求めることで処理負荷を低減するようにしてもよい。
【0065】
次に、自己位置決定部10は、ステップS48で求めた確からしさCAの和Sが大きい特徴点群を選択する(ステップS52)。そして、選択した特徴点群と対になる特徴点取得位置を物体情報記憶部8から読み出すことによって、自己の位置を求め(ステップS53)、この位置を自己位置情報として出力する。
【0066】
また、図15に示すようにロボットのステレオカメラを構成する左右の2台のカメラを利用し、各カメラ毎に予め記憶された特徴点群Wと比較し、相関を演算するようにしてもよい。このようにすることによって、同一の特徴点群Wに対するカメラの画像の相関度の大きさの違いによって、自己の位置を決定することができる。すなわち、特徴点群Wに対応した位置Mに対して各カメラで検出された相関値の差から位置Mの左右のオフセット方向を検出できる。このことにより、特徴点群を得る位置Mのうち左右方向の数を少なくすることができるため、予め画像を撮像する手間が大幅に削減できる。また、ステレオカメラを構成するカメラが2台以上である場合は、左右方向に並ぶカメラを選択して利用すればよい。
【0067】
このように、ロボットの行動可能範囲における特徴点群とこれらの特徴点群を取得した位置を、ロボット内に予め記憶しておき、ロボットが行動を起こすときに得られた画像から抽出された特徴点群と相関が高い特徴点群を記憶された中から選択し、この選択された特徴点群が取得された位置を自己位置とするようにしたため、ロボットが決められた屋内で行動する場合などにおいて、容易に自己位置検出行うことが可能となる。
【0068】
前述した図13、14の説明においては、各位置M1〜M9における画像撮像の方向を1方向として説明したが、各位置において複数の方向の画像を撮像し、得られた画像の全てについて特徴点群を抽出して、物体情報記憶部8に記憶しておけば、各位置におけるロボットの進行方向が異なっても同様の処理によって、自己位置を検出することが可能となる。また、ロボットは、自己に備えられたカメラのズーム機能を用いて、拡大・縮小させた画像から特徴点群を抽出するようにしてもよい。このようにすることによって、図14に示す位置M2とM5の中間に位置するような場合の相関を取りやすくすることができる。さらに、ロボットは、カメラが備えられた頭部を左右上下に振った状態で得られた画像から特徴点群を抽出するようにしてもよい。このようにすることによって、記憶された特徴点群を取得した時の進行方向と異なる行動をしている場合であっても特徴点の相関を取りやすくすることが可能となる。
【0069】
また、前述した3つの実施形態における位置検出処理を、ロボットが移動する環境に応じて適宜組み合わせたり、必要な処理を選択するようことによって自己位置を検出するようにしてもよい。
【0070】
また、図2、図6、図12に示す処理を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより位置検出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0071】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0072】
【発明の効果】
以上説明したように、この発明によれば、連続する2フレームの画像から同一の静止物体を抽出し、この静止物体の変位を求め、この変位量から自己の移動量を求めるようにしたため、精度良く自己位置の検出を行うことができるという効果が得られる。また、静止物体の抽出を自己で行うようにしたため、予め静止物体の位置が定義されたマップ等を備える必要がなく、構成を簡単にすることが可能となる。さらに、道路地図データ等のマップを備える必要がないために、構成を簡単にすることができるとともに、未知の場所へ移動することが可能となり移動体の行動範囲の制限をなくすことができるという効果も得られので、特に人間型に脚式移動ロボットに好適である。
また、この発明によれば、自己の移動制御と前記基準点の観測量を拡張カルマンフィルタに代入して自己の位置を検出する位置検出手段を備えたため、より正確な自己位置の検出が可能になるという効果が得られる。
【0073】
また、この発明によれば、予め記憶された物体情報と抽出された特徴点とを比較して、相関が高い特徴点を既知と特徴点と見なして自己位置を算出するための基準特徴点とするようにしたため、より正確に自己の位置を検出することができるという効果が得られる。
また、この発明によれば、既知と見なされた特徴点が存在する画像中の未知の特徴点と既知の特徴点との相対関係を求め、該未知の特徴点を既知の特徴点として記憶することにより前記物体情報を更新するようようにしたため、地図情報及び物体情報の更新を自動的に行うことができるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の第1の実施形態の構成を示すブロック図である。
【図2】 図1に示す特徴点抽出部5及び位置検出部6の動作を示すフローチャートである。
【図3】 2つの特徴点の確からしさCAを算出する処理を示す説明図である。
【図4】 ロボットの自己位置を求める場合の座標系を示す説明図である。
【図5】 本発明の第2の実施形態の構成を示すブロック図である。
【図6】 図5に示す特徴点抽出部5及び位置検出部6の動作を示すフローチャートである。
【図7】 自己位置算出方法を示す説明図である。
【図8】 自己位置算出方法を示す説明図である。
【図9】 自己位置算出方法を示す説明図である。
【図10】 カルマンフィルタの状態モデルを示す説明図である。
【図11】 本発明の第3の実施形態の構成を示すブロック図である。
【図12】 図11に示す位置検出装置の動作を示すフローチャートである。
【図13】 第3の実施形態における自己位置検出の原理を説明する説明図である。
【図14】 第3の実施形態における自己位置検出の原理を説明する説明図である。
【図15】 第3の実施形態における自己位置検出の原理を説明する説明図である。
【符号の説明】
1・・・カメラ、
2・・・画像記憶部、
3・・・距離画像生成部、
4・・・距離画像記憶部、
5・・・特徴点抽出部、
6・・・位置検出部、
7・・・移動制御部、
8・・・物体情報記憶部。
Claims (3)
- 移動体の自己位置を検出する位置検出装置であって、
前記位置検出装置は、
前記移動体の前方視野の画像を取得する画像取得手段と、
前記画像取得手段と同一の視野を有し、前記画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、
少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量に基づいて各特徴点が静止物体であるか移動物体であるか判断し、前記静止物体であると判断された前記特徴点を基準特徴点として選択する基準特徴点選択手段と、
前記距離画像から前記基準特徴点に対応する距離を取得し、前記基準特徴点と自己位置との相対的位置の前記2フレーム間の移動量を算出し、前記移動量に基づいて現在の自己位置を検出する位置検出手段と、
を備えたことを特徴とする位置検出装置。 - 移動体の自己位置を検出する位置検出方法であって、
前記位置検出方法は、
前記移動体の前方視野の画像を取得する画像取得過程と、
前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得過程と、
少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出過程と、
前記特徴点抽出過程において抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量に基づいて各特徴点が静止物体であるか移動物体であるか判断し、前記静止物体であると判断された前記特徴点を基準特徴点として選択する基準特徴点選択過程と、
前記距離画像から前記基準特徴点に対応する距離を取得し、前記基準特徴点と自己位置との相対的位置の前記2フレーム間の移動量を算出し、前記移動量に基づいて現在の自己位置を検出する位置検出過程と、
を有することを特徴とする位置検出方法。 - 移動体の自己位置を検出するための位置検出プログラムであって、
前記位置検出プログラムは、
前記移動体の前方視野の画像を取得する画像取得処理と、
前記画像と同一の視野を有し、前記画像を取得するのと同時に距離画像を取得する距離画像取得処理と、
少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出処理と、
前記特徴点抽出処理において抽出された特徴点の2フレーム間の位置の変位量を前記距離画像に基づいて算出し、当該変位量に基づいて各特徴点が静止物体であるか移動物体であるか判断し、前記静止物体であると判断された前記特徴点を基準特徴点として選択する基準特徴点選択処理と、
前記距離画像から前記基準特徴点に対応する距離を取得し、前記基準特徴点と自己位置との相対的位置の前記2フレーム間の移動量を算出し、前記移動量に基づいて現在の自己位置を検出する位置検出処理と、
をコンピュータに行わせることを特徴とする位置検出プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001124943A JP4672175B2 (ja) | 2000-05-26 | 2001-04-23 | 位置検出装置、位置検出方法、及び位置検出プログラム |
| EP01112618.2A EP1158309B1 (en) | 2000-05-26 | 2001-05-23 | Method and Apparatus for position detection |
| US09/866,151 US7239339B2 (en) | 2000-05-26 | 2001-05-26 | Position detection apparatus, position detection method and position detection program |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000-157299 | 2000-05-26 | ||
| JP2000157299 | 2000-05-26 | ||
| JP2001124943A JP4672175B2 (ja) | 2000-05-26 | 2001-04-23 | 位置検出装置、位置検出方法、及び位置検出プログラム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010192835A Division JP5148669B2 (ja) | 2000-05-26 | 2010-08-30 | 位置検出装置、位置検出方法、及び位置検出プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002048513A JP2002048513A (ja) | 2002-02-15 |
| JP4672175B2 true JP4672175B2 (ja) | 2011-04-20 |
Family
ID=26592745
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001124943A Expired - Fee Related JP4672175B2 (ja) | 2000-05-26 | 2001-04-23 | 位置検出装置、位置検出方法、及び位置検出プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US7239339B2 (ja) |
| EP (1) | EP1158309B1 (ja) |
| JP (1) | JP4672175B2 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102252888B1 (ko) * | 2020-01-03 | 2021-05-17 | 포테닛 주식회사 | 공간 내에서 이송로봇의 위치 검출장치 및 방법 |
Families Citing this family (93)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3656910B2 (ja) * | 2002-07-22 | 2005-06-08 | 住友電気工業株式会社 | スクライブ溝の加工方法及びスクライブ装置 |
| JP2004061446A (ja) * | 2002-07-31 | 2004-02-26 | Fujitsu Ten Ltd | パターンマッチング処理方法及び画像処理装置 |
| EP1413974A1 (en) * | 2002-10-24 | 2004-04-28 | Hewlett-Packard Company | Hybrid sensing techniques for position determination |
| JP4171282B2 (ja) * | 2002-10-25 | 2008-10-22 | 富士重工業株式会社 | 地形認識装置および地形認識方法 |
| EP2418458B1 (en) * | 2003-09-19 | 2017-03-15 | Omron Corporation | Multiple sensor system |
| KR100540194B1 (ko) * | 2003-09-23 | 2006-01-10 | 한국전자통신연구원 | 차량을 이용한 알에프아이디 태그 설치 시스템 및 그 방법 |
| US9052717B1 (en) | 2004-02-11 | 2015-06-09 | Enovation Controls, Llc | Watercraft speed control device |
| US20080243321A1 (en) | 2005-02-11 | 2008-10-02 | Econtrols, Inc. | Event sensor |
| JP3879740B2 (ja) * | 2004-02-13 | 2007-02-14 | 日産自動車株式会社 | 道路領域検出装置 |
| JP2005249715A (ja) | 2004-03-08 | 2005-09-15 | Topcon Corp | 測量方法及び測量機 |
| KR100763234B1 (ko) * | 2004-06-11 | 2007-10-04 | 삼성전자주식회사 | 주행 상태를 감지하는 시스템 및 방법 |
| JP4216772B2 (ja) * | 2004-06-17 | 2009-01-28 | 株式会社東芝 | 自己位置同定装置および自己位置同定方法 |
| US20070288141A1 (en) * | 2004-06-22 | 2007-12-13 | Bergen James R | Method and apparatus for visual odometry |
| JP4488804B2 (ja) | 2004-06-23 | 2010-06-23 | 株式会社トプコン | ステレオ画像の関連付け方法及び3次元データ作成装置 |
| DE602005022460D1 (de) * | 2004-08-30 | 2010-09-02 | Commw Scient Ind Res Org | Verfahren zur automatischen 3D-Bildgebung |
| KR100569472B1 (ko) * | 2004-10-05 | 2006-04-07 | 현대자동차주식회사 | 엔진의 연료 분무 선단 속도 계측 시스템 및 방법 |
| US8000837B2 (en) | 2004-10-05 | 2011-08-16 | J&L Group International, Llc | Programmable load forming system, components thereof, and methods of use |
| US9207675B1 (en) * | 2005-02-11 | 2015-12-08 | Enovation Controls, Llc | Event sensor |
| US8306662B2 (en) | 2005-04-23 | 2012-11-06 | Lg Electronics Inc. | Position detection device for mobile robot and robot cleaner including the same |
| KR100638220B1 (ko) * | 2005-04-23 | 2006-10-27 | 엘지전자 주식회사 | 주행로봇의 위치감지장치 및 그를 구비한 로봇청소기 |
| DE102005035746B4 (de) * | 2005-07-29 | 2010-02-18 | Siemens Ag | Verfahren zur Bestimmung einer Relativposition einer mobilen Einheit durch Vergleich von Scans einer Umgebung und mobile Einheit |
| JP2007094743A (ja) * | 2005-09-28 | 2007-04-12 | Zmp:Kk | 自律移動型ロボットとそのシステム |
| JP2007114020A (ja) * | 2005-10-19 | 2007-05-10 | Aisin Aw Co Ltd | 車両の移動距離検出方法、車両の移動距離検出装置、車両の現在位置検出方法及び車両の現在位置検出装置 |
| CN100419605C (zh) * | 2005-11-09 | 2008-09-17 | 沈阳新松机器人自动化股份有限公司 | 一种现场总线位置控制装置 |
| JP5112666B2 (ja) * | 2006-09-11 | 2013-01-09 | 株式会社日立製作所 | 移動装置 |
| CN101200065B (zh) * | 2006-12-13 | 2010-10-06 | 沈阳新松机器人自动化股份有限公司 | 现场总线位置控制装置 |
| KR100912874B1 (ko) | 2007-06-28 | 2009-08-19 | 삼성전자주식회사 | 이동 로봇의 리로케이션 방법 및 장치 |
| KR100884904B1 (ko) * | 2007-09-12 | 2009-02-19 | 아주대학교산학협력단 | 평행 투영 모델을 이용한 자기위치 인식 방법 |
| US8264537B2 (en) * | 2007-09-28 | 2012-09-11 | The Mainz Group Llc | Photogrammetric networks for positional accuracy |
| JP2009115621A (ja) * | 2007-11-06 | 2009-05-28 | Toshiba Corp | 移動体画像追尾装置 |
| JP4337929B2 (ja) | 2007-12-25 | 2009-09-30 | トヨタ自動車株式会社 | 移動状態推定装置 |
| JP5349804B2 (ja) * | 2008-01-10 | 2013-11-20 | 株式会社日立産機システム | 移動ロボットシステム及びその制御方法 |
| DE102008024308B4 (de) * | 2008-05-20 | 2010-12-09 | Eads Deutschland Gmbh | Verfahren zur Detektion nichtkooperativen Luftverkehrs an Bord eines Luftfahrzeugs |
| DE102008039606A1 (de) * | 2008-08-25 | 2010-03-04 | GM Global Technology Operations, Inc., Detroit | Kraftfahrzeug mit einem Abstandssensor und einem Bilderfassungssystem |
| JP5409189B2 (ja) * | 2008-08-29 | 2014-02-05 | キヤノン株式会社 | 撮像装置及びその制御方法 |
| KR101022785B1 (ko) * | 2008-09-17 | 2011-03-17 | 포항공과대학교 산학협력단 | 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법 |
| KR101038702B1 (ko) | 2008-10-24 | 2011-06-03 | 전자부품연구원 | 로봇의 위치 검출방법 |
| JP4816748B2 (ja) | 2009-03-06 | 2011-11-16 | ソニー株式会社 | ナビゲーション装置及びナビゲーション方法 |
| JP5278878B2 (ja) * | 2009-03-23 | 2013-09-04 | 国立大学法人 宮崎大学 | 管内面形状測定装置 |
| JP4810582B2 (ja) * | 2009-03-26 | 2011-11-09 | 株式会社東芝 | 移動体画像追尾装置および方法 |
| JPWO2011145239A1 (ja) | 2010-05-19 | 2013-07-22 | 国立大学法人東京工業大学 | 位置推定装置、位置推定方法及びプログラム |
| WO2011163454A1 (en) * | 2010-06-25 | 2011-12-29 | Trimble Navigation Ltd. | Method and apparatus for image-based positioning |
| US8963954B2 (en) * | 2010-06-30 | 2015-02-24 | Nokia Corporation | Methods, apparatuses and computer program products for providing a constant level of information in augmented reality |
| JP2012034196A (ja) * | 2010-07-30 | 2012-02-16 | Olympus Corp | 撮像端末、データ処理端末、撮像方法、及びデータ処理方法 |
| JP5690539B2 (ja) | 2010-09-28 | 2015-03-25 | 株式会社トプコン | 自動離着陸システム |
| JP5618840B2 (ja) | 2011-01-04 | 2014-11-05 | 株式会社トプコン | 飛行体の飛行制御システム |
| JPWO2012133371A1 (ja) | 2011-03-28 | 2014-07-28 | 日本電気株式会社 | 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム |
| JP5775354B2 (ja) | 2011-04-28 | 2015-09-09 | 株式会社トプコン | 離着陸ターゲット装置及び自動離着陸システム |
| JP5787695B2 (ja) | 2011-09-28 | 2015-09-30 | 株式会社トプコン | 画像取得装置 |
| JP5947016B2 (ja) * | 2011-10-26 | 2016-07-06 | 株式会社ディスコ | キーパターン決定方法 |
| JP5802279B2 (ja) | 2011-11-22 | 2015-10-28 | 株式会社日立製作所 | 自律移動システム |
| JP5780142B2 (ja) * | 2011-12-07 | 2015-09-16 | 富士通株式会社 | 画像処理装置、画像処理方法 |
| US20140039675A1 (en) * | 2012-08-03 | 2014-02-06 | Nimer Mohammed Ead | Instructional humanoid robot apparatus and a method thereof |
| JP6015250B2 (ja) * | 2012-08-31 | 2016-10-26 | 富士通株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
| US9036865B2 (en) * | 2012-09-12 | 2015-05-19 | International Business Machines Corporation | Location determination for an object using visual data |
| US9396396B2 (en) * | 2012-11-06 | 2016-07-19 | Soinn Holdings Llc | Feature value extraction apparatus and place estimation apparatus |
| US9560246B2 (en) * | 2012-12-14 | 2017-01-31 | The Trustees Of Columbia University In The City Of New York | Displacement monitoring system having vibration cancellation capabilities |
| US9142063B2 (en) * | 2013-02-15 | 2015-09-22 | Caterpillar Inc. | Positioning system utilizing enhanced perception-based localization |
| JP6094279B2 (ja) * | 2013-03-14 | 2017-03-15 | 株式会社国際電気通信基礎技術研究所 | 追跡装置、追跡プログラムおよび追跡方法 |
| US9081382B2 (en) | 2013-03-15 | 2015-07-14 | Fresenius Medical Care Holdings, Inc. | Autonomous vehicle comprising extracorporeal blood treatment machine |
| JP6129981B2 (ja) * | 2013-10-01 | 2017-05-17 | 株式会社日立製作所 | 移動体位置推定装置および移動体位置推定方法 |
| TWI534453B (zh) * | 2014-02-18 | 2016-05-21 | 原相科技股份有限公司 | 相對位置定位系統與追蹤系統 |
| WO2015129152A1 (ja) * | 2014-02-26 | 2015-09-03 | 株式会社ソシオネクスト | 画像認識システムおよび半導体集積回路 |
| US10310054B2 (en) * | 2014-03-21 | 2019-06-04 | The Boeing Company | Relative object localization process for local positioning system |
| GB201409625D0 (en) * | 2014-05-30 | 2014-07-16 | Isis Innovation | Vehicle localisation |
| FR3022036B1 (fr) * | 2014-06-05 | 2016-07-15 | Aldebaran Robotics | Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif |
| DE102014212781A1 (de) | 2014-07-02 | 2016-01-07 | Continental Automotive Gmbh | Verfahren zum Ermitteln und Bereitstellen einer Landmarke zur Positionsbestimmung für ein Fahrzeug |
| JP6369897B2 (ja) * | 2014-08-07 | 2018-08-08 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
| JP6369898B2 (ja) * | 2014-08-07 | 2018-08-08 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
| US10339389B2 (en) * | 2014-09-03 | 2019-07-02 | Sharp Laboratories Of America, Inc. | Methods and systems for vision-based motion estimation |
| JP6352133B2 (ja) * | 2014-09-26 | 2018-07-04 | 株式会社Screenホールディングス | 位置検出装置、基板処理装置、位置検出方法および基板処理方法 |
| EP3155369B1 (en) * | 2015-06-26 | 2020-03-18 | SZ DJI Technology Co., Ltd. | System and method for measuring a displacement of a mobile platform |
| US9738399B2 (en) * | 2015-07-29 | 2017-08-22 | Hon Hai Precision Industry Co., Ltd. | Unmanned aerial vehicle control method and unmanned aerial vehicle using same |
| JP6556015B2 (ja) | 2015-10-09 | 2019-08-07 | ソニー株式会社 | 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム |
| CN116883522A (zh) * | 2015-12-14 | 2023-10-13 | 松下电器(美国)知识产权公司 | 三维数据编码方法、解码方法、编码装置、解码装置 |
| JP6864433B2 (ja) * | 2016-01-29 | 2021-04-28 | 東芝ライフスタイル株式会社 | 電気掃除機 |
| JP6626410B2 (ja) | 2016-06-03 | 2019-12-25 | 株式会社Soken | 自車位置特定装置、自車位置特定方法 |
| US10209081B2 (en) * | 2016-08-09 | 2019-02-19 | Nauto, Inc. | System and method for precision localization and mapping |
| JP2018051728A (ja) * | 2016-09-30 | 2018-04-05 | ファナック株式会社 | 対象物の三次元位置を検出する検出方法および検出装置 |
| JP6803745B2 (ja) * | 2016-12-28 | 2020-12-23 | 日立Geニュークリア・エナジー株式会社 | 検査装置 |
| JP6819785B2 (ja) * | 2017-07-27 | 2021-01-27 | 日本電気株式会社 | 位置推定装置、位置推定方法及びプログラム |
| US10440280B2 (en) * | 2017-09-21 | 2019-10-08 | Advanced Semiconductor Engineering, Inc. | Optical system and method for operating the same |
| DE112018006730T5 (de) | 2017-12-28 | 2020-10-01 | Sony Corporation | Steuervorrichtung und steuerverfahren, programm und mobiles objekt |
| CN108900805B (zh) * | 2018-07-11 | 2021-01-12 | 长沙理工大学 | 一种基于计算机网络的艺术设计用品移动实时监控系统 |
| CN109358315B (zh) * | 2018-10-12 | 2020-08-18 | 华中科技大学 | 一种辅助目标间接定位方法及系统 |
| KR102593422B1 (ko) * | 2018-10-17 | 2023-10-26 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 그 제어방법 |
| KR102356469B1 (ko) * | 2018-10-17 | 2022-01-28 | 현대모비스 주식회사 | 차량의 후진 주행 지원 장치 및 방법 |
| WO2020133175A1 (en) * | 2018-12-28 | 2020-07-02 | Intel Corporation | Tracking objects using sensor rotation |
| JP6704536B1 (ja) * | 2019-04-25 | 2020-06-03 | 三菱電機株式会社 | 移動量推定装置、移動量推定方法、および移動量推定プログラム |
| WO2020218644A1 (ko) * | 2019-04-25 | 2020-10-29 | 엘지전자 주식회사 | 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇 |
| JP7180739B2 (ja) * | 2019-06-19 | 2022-11-30 | 株式会社リコー | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
| CN110653837B (zh) * | 2019-10-31 | 2021-08-13 | 灵动科技(北京)有限公司 | 自主移动装置及仓储物流系统 |
| CN112025697B (zh) * | 2020-07-10 | 2022-06-17 | 浙江工业大学 | 一种全向移动机器人的积分模型预测控制方法 |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2116000B (en) * | 1982-03-02 | 1985-05-01 | Elliott Bros | Guidance system |
| JPH0820253B2 (ja) * | 1986-11-27 | 1996-03-04 | 神鋼電機株式会社 | 移動ロボツトにおける位置検出方法 |
| US5051906A (en) * | 1989-06-07 | 1991-09-24 | Transitions Research Corporation | Mobile robot navigation employing retroreflective ceiling features |
| US5819016A (en) * | 1993-10-05 | 1998-10-06 | Kabushiki Kaisha Toshiba | Apparatus for modeling three dimensional information |
| JP2501010B2 (ja) * | 1993-10-25 | 1996-05-29 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動ロボットの誘導装置 |
| JP3555159B2 (ja) * | 1994-03-02 | 2004-08-18 | 日本電気株式会社 | 3次元形状復元方法および装置 |
| JPH0843055A (ja) * | 1994-07-29 | 1996-02-16 | Canon Inc | 3次元物体形状認識方法及び装置 |
| US5777690A (en) * | 1995-01-20 | 1998-07-07 | Kabushiki Kaisha Toshiba | Device and method for detection of moving obstacles |
| JPH0933247A (ja) * | 1995-07-19 | 1997-02-07 | Mitsubishi Electric Corp | 画像物体検出装置 |
| JPH0953939A (ja) * | 1995-08-18 | 1997-02-25 | Fujitsu Ltd | 自走車の自己位置測定装置および自己位置測定方法 |
| JPH10222665A (ja) * | 1997-01-31 | 1998-08-21 | Fujitsu Ten Ltd | 画像認識装置 |
| NO312862B1 (no) * | 1997-07-15 | 2002-07-08 | Forsvarets Forsknings | Fremgangsmåte for å bestemme en geografisk posisjon av en mobilenhet i et radiosystem |
| SE511504C2 (sv) * | 1997-10-17 | 1999-10-11 | Apogeum Ab | Sätt och anordning för associering av anonyma reflektorer till detekterade vinkellägen |
| JP4005679B2 (ja) * | 1997-11-19 | 2007-11-07 | 富士重工業株式会社 | 自律走行車の周囲環境認識装置 |
| JP3850541B2 (ja) * | 1998-02-18 | 2006-11-29 | 富士重工業株式会社 | 高度計測装置 |
| AUPP299498A0 (en) * | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
| JP3596314B2 (ja) * | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
| US6678394B1 (en) * | 1999-11-30 | 2004-01-13 | Cognex Technology And Investment Corporation | Obstacle detection system |
-
2001
- 2001-04-23 JP JP2001124943A patent/JP4672175B2/ja not_active Expired - Fee Related
- 2001-05-23 EP EP01112618.2A patent/EP1158309B1/en not_active Expired - Lifetime
- 2001-05-26 US US09/866,151 patent/US7239339B2/en not_active Expired - Lifetime
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102252888B1 (ko) * | 2020-01-03 | 2021-05-17 | 포테닛 주식회사 | 공간 내에서 이송로봇의 위치 검출장치 및 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP1158309A3 (en) | 2005-02-09 |
| US7239339B2 (en) | 2007-07-03 |
| US20010055063A1 (en) | 2001-12-27 |
| EP1158309B1 (en) | 2013-08-21 |
| EP1158309A2 (en) | 2001-11-28 |
| JP2002048513A (ja) | 2002-02-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4672175B2 (ja) | 位置検出装置、位置検出方法、及び位置検出プログラム | |
| JP5148669B2 (ja) | 位置検出装置、位置検出方法、及び位置検出プログラム | |
| KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
| US8401783B2 (en) | Method of building map of mobile platform in dynamic environment | |
| KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
| KR101948728B1 (ko) | 데이터 수집 방법 및 시스템 | |
| KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
| KR101708659B1 (ko) | 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법 | |
| KR101784183B1 (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
| US9058521B2 (en) | Mobile robot and simultaneous localization and map building method thereof | |
| US20150356357A1 (en) | A method of detecting structural parts of a scene | |
| US20090210092A1 (en) | Method for self-localization of robot based on object recognition and environment information around recognized object | |
| Vidal-Calleja et al. | Active control for single camera SLAM | |
| JP7743642B2 (ja) | 荷室姿勢認識システム、方法、電子機器及び記憶媒体 | |
| JP2013025401A (ja) | 自己位置推定装置、自己位置推定方法およびプログラム | |
| Ye et al. | 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features | |
| US10977810B2 (en) | Camera motion estimation | |
| Andreasson et al. | Mini-SLAM: Minimalistic visual SLAM in large-scale environments based on a new interpretation of image similarity | |
| CN115049910B (zh) | 一种基于双目视觉里程计的足式机器人建图与导航方法 | |
| Ishihara et al. | Deep radio-visual localization | |
| KR20080029080A (ko) | 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법 | |
| Michot et al. | Bi-objective bundle adjustment with application to multi-sensor slam | |
| Zhou et al. | Information-efficient 3-D visual SLAM for unstructured domains | |
| US11080884B2 (en) | Point tracking using a trained network | |
| CN114694018B (zh) | 一种对象信息检测方法、装置和存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100405 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100830 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110111 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110119 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4672175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |