[go: up one dir, main page]

JP2013109750A - 3次元データ映像の階段認識方法 - Google Patents

3次元データ映像の階段認識方法 Download PDF

Info

Publication number
JP2013109750A
JP2013109750A JP2012162639A JP2012162639A JP2013109750A JP 2013109750 A JP2013109750 A JP 2013109750A JP 2012162639 A JP2012162639 A JP 2012162639A JP 2012162639 A JP2012162639 A JP 2012162639A JP 2013109750 A JP2013109750 A JP 2013109750A
Authority
JP
Japan
Prior art keywords
staircase
tread surface
tread
kick
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012162639A
Other languages
English (en)
Other versions
JP6073085B2 (ja
Inventor
Suk June Yoon
碩 浚 尹
Hyo Seok Huang
孝 錫 黄
Seong Hwan Ahn
成 桓 安
乘 龍 ▲ひょん▼
Seong Yong Hyung
Hyung-Sok Yeo
炯 錫 呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013109750A publication Critical patent/JP2013109750A/ja
Application granted granted Critical
Publication of JP6073085B2 publication Critical patent/JP6073085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】3次元データ映像から階段の蹴上げ面及び踏み面を検出して、階段を認識する3次元データ映像の階段認識方法を提供する。
【解決手段】3次元データ映像の階段認識方法は、映像獲得部が、階段が位置する空間の3次元データ映像を獲得する段階と、映像処理部が、前記3次元データ映像から前記階段の連続する両踏み面の間の高さを計算し、前記計算された高さによって、前記連続する両踏み面の間に位置する各ポイントを判断し、前記連続する両踏み面の間に位置する各ポイントを通じて、前記連続する両踏み面の間に位置する蹴上げ面を検出する段階と、前記3次元データ映像から前記階段の連続する両蹴上げ面の間の幅を計算し、前記計算された幅によって、前記連続する両蹴上げ面の間に位置する各ポイントを判断し、前記連続する両蹴上げ面の間に位置する各ポイントを通じて、前記連続する両蹴上げ面の間に位置する踏み面を検出する段階とを含む。
【選択図】図1

Description

本発明は、階段が位置する空間の3次元データ映像から、階段をなすデータポイントを検出する3次元データ映像の階段認識方法に関するものである。
ヒューマノイドまたは移動ロボットが階段を上がるためには、ロボットの現在位置を基準にして、階段の位置、階段の高さ及び幅などの情報を認識しなければならない。そのために、ロボットには、階段が位置する空間の3次元データ映像を獲得するための3次元センサが設置され、ロボットに設置されたマイクロコントローラを通じて、3次元データ映像を処理し、分析して階段を認識することができる。
従来の階段認識方法として、ICP(Interative Closest point)方法は、3次元データ映像から検出した3次元モデルと、既に格納された3次元モデルをマッチングする方法である。ICP方法は、前記2つの3次元モデルの間の距離が最小になるように、反復的な計算を通じて、前記2つの3次元モデルをマッチングする。したがって、ICP方法は、既に格納された3次元モデルが要求され、既に格納された3次元モデルとのマッチングのために反復的な計算が要求される。他の方法としては、3次元データ映像から頂点を通じて直線を検出し、この直線に基づいて階段を認識する方法がある。この方法は、3次元データ映像において、階段をなす連続する2つの直線は、同じ平面上に位置すると仮定して、階段の踏み面を認識する。このように、3次元データ映像から直線を検出する方法は、3次元データ映像の特性上、誤差に敏感であるため、階段認識の正確度が低下するという問題点がある。
本発明の一側面は、3次元データ映像から階段の蹴上げ面及び踏み面を検出して、階段を認識する3次元データ映像の階段認識方法を提供する。
このための本発明の一実施例による3次元データ映像の階段認識方法は、映像獲得部が、階段が位置する空間の3次元データ映像を獲得する段階と;映像処理部が、前記3次元データ映像から前記階段の連続する両踏み面の間の高さを計算し、前記計算された高さによって、前記連続する両踏み面の間に位置する各ポイントを判断し、前記連続する両踏み面の間に位置する各ポイントを通じて、前記連続する両踏み面の間に位置する蹴上げ面を検出する段階と;前記映像処理部が、前記3次元データ映像から前記階段の連続する両蹴上げ面の間の幅を計算し、前記計算された幅によって、前記連続する両蹴上げ面の間に位置する各ポイントを判断し、前記連続する両蹴上げ面の間に位置する各ポイントを通じて、前記連続する両蹴上げ面の間に位置する踏み面を検出する段階と;を含む。
前記映像処理部が、RANSACアルゴリズムを用いて、前記3次元データ映像から前記階段が位置する底平面を検出する段階をさらに含むことができる。
前記底平面を検出する段階は、次の式によって、前記底平面の式を算出できる。
Figure 2013109750

ここで、a、b、cは、前記底平面の法線ベクトルの成分であり、dは、前記底平面と原点との最短距離を示す定数である。
前記映像処理部が、前記3次元データ映像をラベリングして、前記階段領域を分離し、前記底平面と前記分離された階段領域との接線から前記階段の始めを判断して、階段認識を始める段階をさらに含むことができる。
前記蹴上げ面を検出する段階は、前記映像処理部が、前記底平面と前記階段の1番目の踏み面とが平行であることを通じて、前記1番目の踏み面の式を限定し、前記底平面から既に決まった階段高さの範囲に位置する各ポイントを通じて、前記1番目の踏み面の式を推定できる。
前記蹴上げ面を検出する段階は、次の式によって、前記1番目の踏み面の式を限定できる。
Figure 2013109750

ここで、a、b、cは、前記1番目の踏み面の法線ベクトルの成分であって、前記底平面の法線ベクトルの成分と同一であり、d’は、前記1番目の踏み面と原点との最短距離を示す変数である。
前記蹴上げ面を検出する段階は、前記映像処理部が、前記底平面の式と前記推定した1番目の踏み面の式とを比較して、前記底平面と前記推定した1番目の踏み面との間の高さを計算できる。
前記蹴上げ面を検出する段階は、前記映像処理部が、前記1番目の蹴上げ面が前記底平面、及び前記推定した1番目の踏み面と垂直であることを通じて、前記1番目の蹴上げ面の式を限定し、前記底平面と前記推定した1番目の踏み面との間に位置する各ポイントを通じて、前記1番目の蹴上げ面の式を算出できる。
前記蹴上げ面を検出する段階は、次の式によって、前記1番目の蹴上げ面の式を限定できる。
Figure 2013109750

ここで、n、m、lは、前記1番目の蹴上げ面の法線ベクトルの成分であって、前記1番目の蹴上げ面の法線ベクトルと前記底平面、及び前記推定した1番目の踏み面の法線ベクトルの内積は、0を満足し、kは、前記1番目の蹴上げ面と原点との最短距離を示す変数である。
前記蹴上げ面を検出する段階は、前記映像処理部が、前記階段の連続する下踏み面と上踏み面とが平行であることを通じて、前記上踏み面の式を限定し、前記下踏み面から既に決まった階段高さの範囲に位置する各ポイントを通じて、前記上踏み面の式を推定できる。
前記蹴上げ面を検出する段階は、次の式によって、前記上踏み面の式を限定できる。
Figure 2013109750

ここで、a、b、cは、前記上踏み面の法線ベクトルの成分であって、前記下踏み面の法線ベクトルの成分と同一であり、d’は、前記上踏み面と原点との最短距離を示す変数である。
前記蹴上げ面を検出する段階は、前記映像処理部が、前記下踏み面の式と前記推定した上踏み面の式とを比較して、前記下踏み面と前記推定した上踏み面との間の高さを計算できる。
前記蹴上げ面を検出する段階は、前記映像処理部が、前記蹴上げ面がその下の蹴上げ面と平行であることを通じて、前記蹴上げ面の式を限定し、前記下踏み面と前記推定した上踏み面との間に位置する各ポイントを通じて、前記蹴上げ面の式を算出できる。
前記蹴上げ面を検出する段階は、次の式によって、前記蹴上げ面の式を限定できる。
Figure 2013109750

ここで、n、m、lは、前記蹴上げ面の法線ベクトルの成分であって、前記その下の蹴上げ面の法線ベクトルの成分と同一であり、kは、前記蹴上げ面と原点との最短距離を示す変数である。
前記踏み面を検出する段階は、前記映像処理部が、前記階段の連続する下蹴上げ面と上蹴上げ面とが平行であることを通じて、前記上蹴上げ面の式を限定し、前記下蹴上げ面から既に決まった階段幅の範囲に位置する各ポイントを通じて、前記上蹴上げ面の式を推定できる。
前記踏み面を検出する段階は、次の式によって、前記上蹴上げ面の式を限定できる。
Figure 2013109750

ここで、n、m、lは、前記上蹴上げ面の法線ベクトルの成分であって、前記下蹴上げ面の法線ベクトルの成分と同一であり、k’は、前記上蹴上げ面と原点との最短距離を示す変数である。
前記踏み面を検出する段階は、前記映像処理部が、前記下蹴上げ面の式と前記推定した上蹴上げ面の式とを比較して、前記下蹴上げ面と前記推定した上蹴上げ面との間の幅を計算できる。
前記踏み面を検出する段階は、前記映像処理部が、前記踏み面がその下の踏み面と平行であることを通じて、前記踏み面の式を限定し、前記下蹴上げ面と前記推定した上蹴上げ面との間に位置する各ポイントを通じて、前記踏み面の式を算出できる。
前記踏み面を検出する段階は、次の式によって、前記踏み面の式を限定できる。
Figure 2013109750

ここで、a、b、cは、前記踏み面の法線ベクトルの成分であって、前記その下の踏み面の法線ベクトルの成分と同一であり、d’は、前記踏み面と原点との最短距離を示す変数である。
前記映像処理部が、前記3次元データ映像から前記階段の終わりか否かを判断して、前記階段が終わる場合、階段認識を終了し、前記階段が終わらない場合、前記階段の次の蹴上げ面及び次の踏み面を検出する段階をさらに含むことができる。
前記階段の終わりか否かを判断する段階は、前記連続する両蹴上げ面の間の幅が、既に決まった臨界値以上である場合、前記階段が終わるものと判断できる。
上述した本発明の一側面によれば、3次元データ映像から階段の蹴上げ面及び踏み面を検出して、階段を認識するので、既に格納された3次元モデルが要求されず、既に格納された3次元モデルとのマッチングのために反復的な計算が要求されないので、早い時間内に3次元データ映像から階段を認識できる。また、3次元データ映像において連続する直線を通じて、階段の蹴上げ面または踏み面を検出しないので、誤差に敏感でなく、高い正確度で3次元データ映像から階段を認識できる。
本発明の一実施例による3次元データ映像の階段認識方法の概略的なフローチャートである。 本発明の一実施例による3次元データ映像から階段の始めを判断する方法の概略的なフローチャートである。 本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法の概略的なフローチャートである。 本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法の概略的なフローチャートである。 本発明の一実施例による3次元データ映像から階段を認識するシステムの概略的なブロック図である。 本発明の一実施例による3次元データ映像から底平面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から底平面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の始めを判断する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法を概略的に説明するための図である。 本発明の一実施例による3次元データ映像から階段の終わり否かを判断する方法を概略的に説明するための図である。
以下では、添付の図面を参照して、本発明について詳細に説明する。
図1は、本発明の一実施例による3次元データ映像の階段認識方法の概略的なフローチャートである。図1を参照して説明すると、映像獲得部が、階段が位置する空間の3次元データ映像を獲得することができる(S110)。ここで、3次元データ映像は、例えば、3次元ポイントクラウド(point cloud)映像であってもよいが、これに限定されるものではなく、x、y、zの3次元座標を持つデータポイントからなる形態であれば、本発明の一実施例による3次元データ映像の階段認識方法を適用することができる。一方、3次元データ映像には、3次元座標系が存在することができ、例えば、ロボットの中心を原点にして、ロボットの正面方向をx軸、ロボットの側面方向をy軸、ロボットの上面方向をz軸に設定できる。
映像処理部は、RANSAC(Random Sample Consensus)アルゴリズムを用いて、3次元データ映像から階段が位置する底平面の式を算出することができる(S120)。RANSACアルゴリズムは、本発明が属する技術分野における通常の技術者にとって自明な事項であって、RANSACアルゴリズムに対する詳細な説明は省略する。映像処理部が、3次元データ映像から底平面の式を算出する具体的な方法は、以下で、図6A及び図6Bを参照して詳細に説明する。
図6A及び図6Bは、本発明の一実施例による3次元データ映像から底平面を検出する方法を概略的に説明するための図である。
図6A及び図6Bを参照して説明すると、図6Aに示すように、映像処理部は、RANSACアルゴリズムを用いて、3次元データ映像から階段が位置する底平面(ground plane)を検出することができ、検出された底平面に対して、次の式(1)によって、底平面の式を算出できる。
Figure 2013109750
図6Bに示すように、式(1)で、a、b、cは、底平面の法線ベクトル(v1)の成分であり、dは、底平面と原点との最短距離を示す定数である。
映像処理部が階段の始めを判断して、階段認識を始めることができる(S130)。映像処理部が、3次元データ映像から階段の始めを判断する具体的な方法は、以下で、図2及び図7を参照して詳細に説明する。
図2は、本発明の一実施例による3次元データ映像から階段の始めを判断する方法の概略的なフローチャートである。図2を参照して説明すると、映像処理部が、3次元データ映像をラベリングして、階段領域を分離する(S210)。映像処理部は、3次元データ映像をラベリングして、階段領域を分離するために、3次元データ映像から底平面を除外した各ポイントを対象としてラベリングすることができる。そして、映像処理部は、ラベリングによるポイント群集のうち、最も多いポイントを含んでいるポイント群集を階段領域と判断して、3次元データ映像から階段領域を分離できる。
映像処理部が3次元データ映像をラベリングする基本的な方法は、次の通りである。まず、映像処理部は、3次元データ映像からラベリングの対象である各ポイントのラベルとラベルインデックスを0と初期化する。そして、映像処理部は、前記全てのポイントを探索しながら、該当のポイントのラベルが0であるかを確認して、該当のポイントにラベルが割り当てられたか否かを判断する。
該当のポイントにラベルが割り当てられていない場合、映像処理部は、該当のポイントから既に決まった距離以内の各ポイントを探索する。既に決まった距離以内の各ポイントのうち、ラベルが割り当てられたポイントが存在する場合、映像処理部は、該当のポイントと既に決まった距離以内の各ポイントのうち、ラベルが割り当てられていない各ポイントに、それと同様のラベルを割り当てる。
既に決まった距離以内の各ポイントのうち、ラベルが割り当てられたポイントが存在しない場合、映像処理部は、ラベルインデックスを1だけ増加し、該当のポイントと既に決まった距離以内の各ポイントに、ラベルインデックスに該当するラベルを割り当てる。
該当のポイントにラベルが割り当てられた場合、映像処理部は、次のポイントを探索して、ラベルが割り当てられたか否かを判断する過程を繰り返す。
すなわち、2次元ラベリング方法は、該当の画素と隣接した8個の画素を探索してラベルを割り当てるが、3次元ラベリング方法は、該当のポイントから既に決まった距離以内のポイントを探索してラベルを割り当てる。
図7は、本発明の一実施例による3次元データ映像から階段の始めを判断する方法を概略的に説明するための図である。図7を参照して説明すると、映像獲得部が、階段の正面から一定の角度で3次元データ映像を獲得した場合、映像処理部は、階段の蹴上げ面及び踏み面をなすポイント群集を階段領域(stairs area)と判断できる。一方、図7は、階段の斜視図を示しているが、これは、3次元データ映像から階段領域を分離する方法の理解を助けるためのもので、実際的な階段の側壁が外部に露出する場合は少なく、一般的に映像獲得部は、階段の正面に関する3次元データ映像を獲得する。
そして、映像処理部は、底平面と分離された階段領域との接線を通じて、階段の始めを判断することができる(S220)。映像処理部は、階段の始めを判断して、階段が始まるラインから階段認識を始める。そして、映像処理部は、前記分離された階段領域に対してのみ階段認識を行う。
図7に示すように、映像処理部は、底平面と階段領域との接線を通じて、階段の始めを判断することができる。例えば、映像処理部は、3次元データ映像から階段の1番目の蹴上げ面の頂点を検出し、接線と底平面とが平行であることを通じて、前記接線の式を算出できる。このとき、検出した接線が、階段が始まるライン(start line)に該当する。
映像処理部は、階段の連続する両踏み面の間に位置する各ポイントを通じて、前記両踏み面の間に位置する蹴上げ面を検出することができる(S140)。すなわち、映像処理部は、前記両踏み面の間に位置する各ポイントが通る踏み面の式を算出することができ、このような踏み面の式は、前記両踏み面の間に位置する蹴上げ面の式に該当する。
一方、映像処理部は、前記両踏み面の間の高さを通じて、前記両踏み面の間に位置する各ポイントを判断することができ、前記両踏み面の間の高さは、前記両踏み面の式を比較して計算することができる。映像処理部が、3次元データ映像から蹴上げ面を検出する具体的な方法は、以下で、図3、図8A乃至図8Dを参照して詳細に説明する。
図3は、本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法の概略的なフローチャートである。図3を参照して説明すると、映像処理部が蹴上げ面を検出する方法は、次の通りである。まず、階段の連続する両踏み面は平行であると仮定する。したがって、映像処理部は、階段の連続する下踏み面と上踏み面が平行であることを通じて、上踏み面の式を限定することができる(S310)。ここで、前記下踏み面には、階段が位置する底平面も含まれる。上述のように、映像処理部は、RANSACアルゴリズムを用いて、3次元データ映像から底平面の式を算出することができる。
図8A乃至図8Dは、本発明の一実施例による3次元データ映像から階段の蹴上げ面を検出する方法を概略的に説明するための図である。
図8Aを参照して説明すると、階段が位置する底平面と階段の1番目の踏み面(1st tread)とが平行であるので、底平面の法線ベクトル(v1)の成分と1番目の踏み面の法線ベクトル(v2)の成分とが同一である。また、階段の全ての踏み面の法線ベクトルの成分は、底平面の法線ベクトルの成分と同一であり、各踏み面と原点との最短距離だけを異ならせる。これによって、映像処理部は、次の式(2)によって、任意の上踏み面の式を限定することができる。
Figure 2013109750

式(2)で、a、b、cは、任意の上踏み面の法線ベクトルの成分であって、その下の踏み面の法線ベクトルの成分と同一であり、d’は、任意の上踏み面と原点との最短距離を示す変数である。図8Aの場合、式(2)によって1番目の踏み面の式を限定することができ、この場合、a、b、cは、1番目の踏み面の法線ベクトルの成分を示してもよい。
そして、映像処理部は、既に決まった階段高さを用いて、前記上踏み面の式を推定することができる(S320)。ここで、映像処理部は、既に決まった階段高さの範囲として標準階段の高さを用いることができる。標準階段は、各国の建築法などによって強要されたり、推奨される階段の設計指針として、例えば、標準階段の高さは、15cm乃至20cmであるか、または標準階段の幅は、25cm乃至30cmであってもよい。
図8Bを参照して説明すると、映像処理部は、底平面から既に決まった階段高さの範囲に位置する各ポイントを通じて、1番目の踏み面の式を推定することができる。このとき、既に決まった階段の高さをhとすると、一定の誤差範囲を持つ階段高さの範囲は、h−Δe乃至h+Δeに該当する。映像処理部は、既に決まった階段高さの範囲を階段の踏み面の検索領域(tread search area)として検索を行い、具体的に、底平面から既に決まった階段高さの範囲に位置する各ポイントを、式(2)によって限定した1番目の踏み面の式に代入し、その結果によって、最も代表となるd’の値を選択することによって、1番目の踏み面の式を推定する。ここで、最も代表となるd’の値を選択する方法は、多様に存在することができ、例えば、映像処理部は、前記限定した1番目の踏み面の式の代入結果によって、最も多く出たd’の値を選択することができる。
一方、図8Bは、階段の1番目の踏み面の式を推定する方法を示しているが、このような方法によって、階段の全ての踏み面の式を推定できるのは、通常の技術者にとって自明な事項である。
映像処理部は、下踏み面の式と前記推定した上踏み面の式とを比較して、下踏み面と前記上踏み面との間の高さを計算することができる(S330)。映像処理部は、式(2)で、上踏み面と原点との最短距離を示す変数d’を選択したので、下踏み面の式と前記推定した上踏み面の式とを比較して、下踏み面と前記上踏み面との間の高さを計算することができる。例えば、映像処理部は、底平面の式と前記推定した1番目の踏み面の式とを比較して、底平面と前記1番目の踏み面との間の高さを計算することができ、底平面の各ポイントのz座標値が0であれば、dとd’との差を通じて、底平面と前記1番目の踏み面との間の高さを計算できる。
そして、映像処理部は、階段の連続する下踏み面と上踏み面との間に位置する各ポイントを通じて、前記両踏み面の間に位置する蹴上げ面を検出することができる(S340)。映像処理部は、前記蹴上げ面が、その下の蹴上げ面と平行であることを通じて、前記蹴上げ面の式を限定し、前記限定した蹴上げ面の式に、前記両踏み面の間に位置する各ポイントを代入して、前記蹴上げ面の式を正確に算出できる。
図8Cを参照して説明すると、階段の1番目の蹴上げ面(1st riser)は、連続する両踏み面、即ち、底平面及び1番目の踏み面と垂直をなす。これによって、映像処理部は、次の式(3)によって、1番目の蹴上げ面の式を限定できる。
Figure 2013109750

ここで、n、m、lは、1番目の蹴上げ面の法線ベクトルの成分であって、1番目の蹴上げ面の法線ベクトル及び前記両踏み面(ground plane、1st tread)の法線ベクトルの内積は、0を満足し、kは、1番目の蹴上げ面と原点との最短距離を示す変数である。
図8Dを参照して説明すると、1番目の蹴上げ面の法線ベクトル及び前記両踏み面の法線ベクトルの内積は、0ということと、前記両踏み面の間に位置する各ポイントを、式(3)によって限定した1番目の蹴上げ面の式に代入した結果を通じて、1番目の蹴上げ面の式を算出できる。これによって、1番目の蹴上げ面を検出できる。
1番目の蹴上げ面を検出する方法は、上述した通りであるが、2番目の蹴上げ面からは、その下の蹴上げ面と平行であることを通じて、階段の連続する両踏み面の間に位置する任意の蹴上げ面の式を限定することができる。映像処理部は、上述した式(3)によって、前記任意の蹴上げ面の式を限定することができ、前記両踏み面の間に位置する各ポイントを通じて、前記蹴上げ面の式を算出し、前記両踏み面の間に位置する蹴上げ面を検出できる。この場合、n、m、lは、前記蹴上げ面の法線ベクトルの成分であって、その下の蹴上げ面の法線ベクトルの成分と同一であり、kは、前記蹴上げ面と原点との最短距離を示す変数である。映像処理部は、前記両踏み面の間に位置する各ポイントを、前記任意の蹴上げ面の式に代入した結果を通じて、前記蹴上げ面の式を算出できる。
そして、映像処理部は、階段の連続する両蹴上げ面の間に位置する各ポイントを通じて、前記両蹴上げ面の間に位置する踏み面を検出することができる(S150)。すなわち、映像処理部は、前記両蹴上げ面の間に位置する各ポイントが通る踏み面の式を算出することができ、このような踏み面の式は、前記両蹴上げ面の間に位置する踏み面の式に該当する。
一方、映像処理部は、前記両蹴上げ面の間の幅を通じて、前記両蹴上げ面の間に位置する各ポイントを判断することができ、前記両蹴上げ面の間の幅は、前記両蹴上げ面の式を比較して計算することができる。映像処理部が、3次元データ映像から踏み面を検出する具体的な方法は、以下で、図4、図9A乃至図9Dを参照して詳細に説明する。
図4は、本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法の概略的なフローチャートである。図4を参照して説明すると、映像処理部が踏み面を検出する方法は、次の通りである。まず、階段の連続する両蹴上げ面は平行であると仮定する。したがって、映像処理部は、階段の連続する下蹴上げ面と上蹴上げ面が平行であることを通じて、上蹴上げ面の式を限定することができる(S410)。上述のように、映像処理部は、階段の1番目の蹴上げ面が、底平面、及び1番目の踏み面と垂直であることを通じて、3次元データ映像から1番目の蹴上げ面の式を算出できる。
図9A乃至図9Dは、本発明の一実施例による3次元データ映像から階段の踏み面を検出する方法を概略的に説明するための図である。
図9Aを参照して説明すると、階段の1番目の蹴上げ面(1st riser)と2番目の蹴上げ面(2nd riser)が平行であるので、1番目の蹴上げ面の法線ベクトル(v3)の成分と、2番目の蹴上げ面の法線ベクトル(v4)の成分とが同一である。また、階段の全ての蹴上げ面の法線ベクトルの成分は同一であり、各蹴上げ面と原点との最短距離だけを異ならせる。これによって、映像処理部は、次の式(4)によって、任意の上蹴上げ面の式を限定することができる。
Figure 2013109750

式(4)で、n、m、lは、任意の上蹴上げ面の法線ベクトルの成分であって、その下の蹴上げ面の法線ベクトルの成分と同一であり、k’は、任意の上蹴上げ面と原点との最短距離を示す変数である。図9Aの場合、式(4)によって、2番目の蹴上げ面の式を限定することができ、この場合、n、m、lは、2番目の蹴上げ面の法線ベクトル(v4)の成分を示してもよい。
そして、映像処理部は、既に決まった階段の幅を用いて、前記上蹴上げ面の式を推定することができる(S420)。ここで、映像処理部は、既に決まった階段の幅の範囲として、標準階段の幅を利用できるというのは、上述した階段高さの範囲と同様である。
図9Bを参照して説明すると、映像処理部は、1番目の踏み面から既に決まった階段幅の範囲に位置する各ポイントを通じて、2番目の蹴上げ面の式を推定することができる。このとき、既に決まった階段の幅をwとすると、一定の誤差範囲を持つ階段幅の範囲は、w−Δe乃至w+Δeに該当する。映像処理部は、既に決まった階段幅の範囲を、階段の蹴上げ面の検索領域(riser search area)として検索を行い、具体的に、1番目の蹴上げ面から既に決まった階段幅の範囲に位置する各ポイントを、式(4)によって限定した2番目の蹴上げ面の式に代入し、その結果によって、最も代表となるk’の値を選択することで、2番目の蹴上げ面の式を推定する。ここで、最も代表となるk’の値を選択する方法は、多様に存在することができ、例えば、映像処理部は、前記限定した2番目の蹴上げ面の式の代入結果によって、最も多く出たk’の値を選択することができる。
一方、図9Bは、階段の2番目の蹴上げ面の式を推定する方法を示しているが、このような方法によって階段の残りの蹴上げ面の式を推定できるのは、通常の技術者にとって自明な事項である。
映像処理部は、下蹴上げ面の式と前記推定した上蹴上げ面の式とを比較して、下蹴上げ面と前記上蹴上げ面との間の幅を計算することができる(S430)。映像処理部は、式(4)で、上蹴上げ面と原点との最短距離を示す変数k’を選択したので、下蹴上げ面の式と前記推定した上蹴上げ面の式とを比較して、下蹴上げ面と前記上蹴上げ面との間の幅を計算することができる。例えば、映像処理部は、1番目の蹴上げ面の式と前記推定した2番目の蹴上げ面の式とを比較して、1番目の蹴上げ面と前記2番目の蹴上げ面との間の幅を計算することができ、1番目の蹴上げ面の各ポイントのx座標の値が0であれば、kとk’との差を通じて、1番目の蹴上げ面と前記2番目の蹴上げ面との間の幅を計算することができる。
そして、映像処理部は、階段の連続する下蹴上げ面と上蹴上げ面との間に位置する各ポイントを通じて、前記両蹴上げ面の間に位置する踏み面を検出することができる(S440)。映像処理部は、前記踏み面が、その下の踏み面と平行であることを通じて、前記踏み面の式を限定し、前記限定した踏み面の式に、前記両蹴上げ面の間に位置する各ポイントを代入して、前記踏み面の式を正確に算出できる。
図9Cを参照して説明すると、1番目の踏み面は、連続する両蹴上げ面、即ち、1番目の蹴上げ面及び2番目の蹴上げ面と垂直をなす。また、1番目の踏み面は、その下の踏み面である底平面と平行である。これによって、映像処理部は、上述した式(2)によって、1番目の踏み面の式を限定することができる。この場合、a、b、cは、1番目の踏み面の法線ベクトルの成分であって、底平面の法線ベクトルの成分と同一であり、d’は、1番目の踏み面と原点との最短距離を示す変数である。
図9Dを参照して説明すると、映像処理部は、前記両蹴上げ面の間に位置する各ポイントを、式(2)によって限定した1番目の踏み面の式に代入した結果を通じて、1番目の踏み面の式を算出できる。
一方、映像処理部は、上記のような方法を通じて、階段の残りの踏み面の式を算出し、検出できる。例えば、2番目の踏み面は、1番目の踏み面と平行であることを通じて、3番目の踏み面は2番目の踏み面と平行であることを通じて、続いて、式(2)によって、階段の連続する両蹴上げ面の間に位置する任意の踏み面の式を限定することができる。そして、映像処理部は、前記両蹴上げ面の間に位置する各ポイントを、前記任意の踏み面の式に代入した結果を通じて、前記踏み面の式を算出できる。
映像処理部は、階段の終わりか否かを判断することができる(S160)。判断の結果、階段が終わる場合、映像処理部は階段の認識を終了し、判断の結果、階段が終わらない場合、映像処理部は階段の次の蹴上げ面の式及び次の踏み面の式を算出するために、S140、S150の段階を繰り返して行う。一方、次の階段の蹴上げ面及び踏み面を検出する場合、映像獲得部は、その時点で、再び階段が位置する空間の3次元データ映像を獲得することができる。映像処理部が、3次元データ映像から階段の終わりか否かを判断する具体的な方法は、以下で、図10を参照して詳細に説明する。
図10を参照して説明すると、映像獲得部は、踏み面を検出する過程で、階段の連続する両蹴上げ面の間の幅を計算することができる。このとき、計算された両蹴上げ面の間の幅dが、既に決まった臨界値以上である場合、例えば、以前の両蹴上げ面の間の幅の2倍以上である場合には、階段が終わるものと判断し、前記踏み面を階段の最後の踏み面(last tread)として認識することができる。
図5は、本発明の一実施例による3次元データ映像から階段を認識するシステムの概略的なブロック図である。図5を参照して説明すると、階段を認識するシステムは、3次元データ映像を獲得する映像獲得部510と、3次元データ映像を処理して、階段を認識する映像処理部520と、映像処理部の階段認識の結果を出力する出力部530と、を含んで構成される。映像獲得部510は、階段が位置する空間の3次元データ映像を獲得する。例えば、映像獲得部510は、3次元データ映像を獲得できるように、ステレオカメラ、TOFカメラ、LRFセンサまたはキネクトセンサなどを備えることができる。映像処理部520は、映像獲得部510が獲得した3次元データ映像を処理して、階段を認識できるように、マイクロコントローラを備えることができ、出力部530は、映像処理部の階段認識の結果を出力できるように、ディスプレイユニットを備えることができる。そして、前記階段を認識するシステムは、ヒューマノイドまたは移動ロボットなどに設置可能である。
510 映像獲得部
520 映像処理部
530 出力部

Claims (21)

  1. 映像獲得部が、階段が位置する空間の3次元データ映像を獲得する段階と、
    映像処理部が、前記3次元データ映像から前記階段の連続する両踏み面の間の高さを計算し、前記計算された高さによって、前記連続する両踏み面の間に位置する各ポイントを判断し、前記連続する両踏み面の間に位置する各ポイントを通じて、前記連続する両踏み面の間に位置する蹴上げ面を検出する段階と、
    前記映像処理部が、前記3次元データ映像から前記階段の連続する両蹴上げ面の間の幅を計算し、前記計算された幅によって、前記連続する両蹴上げ面の間に位置する各ポイントを判断し、前記連続する両蹴上げ面の間に位置する各ポイントを通じて、前記連続する両蹴上げ面の間に位置する踏み面を検出する段階と、を含む、3次元データ映像の階段認識方法。
  2. 前記映像処理部が、RANSACアルゴリズムを用いて、前記3次元データ映像から前記階段が位置する底平面を検出する段階をさらに含む、請求項1に記載の3次元データ映像の階段認識方法。
  3. 前記底平面を検出する段階は、次の式によって、前記底平面の式を算出する、請求項2に記載の3次元データ映像の階段認識方法。
    Figure 2013109750

    ここで、a、b、cは、前記底平面の法線ベクトルの成分であり、dは、前記底平面と原点との最短距離を示す定数である。
  4. 前記映像処理部が、前記3次元データ映像をラベリングして、前記階段領域を分離し、前記底平面と前記分離された階段領域との接線から前記階段の始めを判断して、階段認識を始める段階をさらに含む、請求項2に記載の3次元データ映像の階段認識方法。
  5. 前記蹴上げ面を検出する段階は、前記映像処理部が、前記底平面と前記階段の1番目の踏み面とが平行であることを通じて、前記1番目の踏み面の式を限定し、前記底平面から既に決まった階段高さの範囲に位置する各ポイントを通じて、前記1番目の踏み面の式を推定する、請求項2に記載の3次元データ映像の階段認識方法。
  6. 前記蹴上げ面を検出する段階は、次の式によって、前記1番目の踏み面の式を限定する、請求項5に記載の3次元データ映像の階段認識方法。
    Figure 2013109750
    ここで、a、b、cは、前記1番目の踏み面の法線ベクトルの成分であって、前記底平面の法線ベクトルの成分と同一であり、d’は、前記1番目の踏み面と原点との最短距離を示す変数である。
  7. 前記蹴上げ面を検出する段階は、前記映像処理部が、前記底平面の式と前記推定した1番目の踏み面の式とを比較して、前記底平面と前記推定した1番目の踏み面との間の高さを計算する、請求項5に記載の3次元データ映像の階段認識方法。
  8. 前記蹴上げ面を検出する段階は、前記映像処理部が、前記1番目の蹴上げ面が前記底平面、及び前記推定した1番目の踏み面と垂直であることを通じて、前記1番目の蹴上げ面の式を限定し、前記底平面と前記推定した1番目の踏み面との間に位置する各ポイントを通じて、前記1番目の蹴上げ面の式を算出する、請求項7に記載の3次元データ映像の階段認識方法。
  9. 前記蹴上げ面を検出する段階は、次の式によって、前記1番目の蹴上げ面の式を限定する、請求項8に記載の3次元データ映像の階段認識方法。
    Figure 2013109750

    ここで、n、m、lは、前記1番目の蹴上げ面の法線ベクトルの成分であって、前記1番目の蹴上げ面の法線ベクトルと前記底平面、及び前記推定した1番目の踏み面の法線ベクトルの内積は、0を満足し、kは、前記1番目の蹴上げ面と原点との最短距離を示す変数である。
  10. 前記蹴上げ面を検出する段階は、前記映像処理部が、前記階段の連続する下踏み面と上踏み面とが平行であることを通じて、前記上踏み面の式を限定し、前記下踏み面から既に決まった階段高さの範囲に位置する各ポイントを通じて、前記上踏み面の式を推定する、請求項1に記載の3次元データ映像の階段認識方法。
  11. 前記蹴上げ面を検出する段階は、次の式によって、前記上踏み面の式を限定する、請求項10に記載の3次元データ映像の階段認識方法。
    Figure 2013109750

    ここで、a、b、cは、前記上踏み面の法線ベクトルの成分であって、前記下踏み面の法線ベクトルの成分と同一であり、d’は、前記上踏み面と原点との最短距離を示す変数である。
  12. 前記蹴上げ面を検出する段階は、前記映像処理部が、前記下踏み面の式と前記推定した上踏み面の式とを比較して、前記下踏み面と前記推定した上踏み面との間の高さを計算する、請求項10に記載の3次元データ映像の階段認識方法。
  13. 前記蹴上げ面を検出する段階は、前記映像処理部が、前記蹴上げ面がその下の蹴上げ面と平行であることを通じて、前記蹴上げ面の式を限定し、前記下踏み面と前記推定した上踏み面との間に位置する各ポイントを通じて、前記蹴上げ面の式を算出する、請求項12に記載の3次元データ映像の階段認識方法。
  14. 前記蹴上げ面を検出する段階は、次の式によって、前記蹴上げ面の式を限定する、請求項13に記載の3次元データ映像の階段認識方法。
    Figure 2013109750

    ここで、n、m、lは、前記蹴上げ面の法線ベクトルの成分であって、前記その下の蹴上げ面の法線ベクトルの成分と同一であり、kは、前記蹴上げ面と原点との最短距離を示す変数である。
  15. 前記踏み面を検出する段階は、前記映像処理部が、前記階段の連続する下蹴上げ面と上蹴上げ面とが平行であることを通じて、前記上蹴上げ面の式を限定し、前記下蹴上げ面から既に決まった階段幅の範囲に位置する各ポイントを通じて、前記上蹴上げ面の式を推定する、請求項1に記載の3次元データ映像の階段認識方法。
  16. 前記踏み面を検出する段階は、次の式によって、前記上蹴上げ面の式を限定する、請求項15に記載の3次元データ映像の階段認識方法。
    Figure 2013109750

    ここで、n、m、lは、前記上蹴上げ面の法線ベクトルの成分であって、前記下蹴上げ面の法線ベクトルの成分と同一であり、k’は、前記上蹴上げ面と原点との最短距離を示す変数である。
  17. 前記踏み面を検出する段階は、前記映像処理部が、前記下蹴上げ面の式と前記推定した上蹴上げ面の式とを比較して、前記下蹴上げ面と前記推定した上蹴上げ面との間の幅を計算する、請求項15に記載の3次元データ映像の階段認識方法。
  18. 前記踏み面を検出する段階は、前記映像処理部が、前記踏み面がその下の踏み面と平行であることを通じて、前記踏み面の式を限定し、前記下蹴上げ面と前記推定した上蹴上げ面との間に位置する各ポイントを通じて、前記踏み面の式を算出する、請求項17に記載の3次元データ映像の階段認識方法。
  19. 前記踏み面を検出する段階は、次の式によって、前記踏み面の式を限定する、請求項18に記載の3次元データ映像の階段認識方法。
    Figure 2013109750

    ここで、a、b、cは、前記踏み面の法線ベクトルの成分であって、前記その下の踏み面の法線ベクトルの成分と同一であり、d’は、前記踏み面と原点との最短距離を示す変数である。
  20. 前記映像処理部が、前記3次元データ映像から前記階段の終わりか否かを判断して、前記階段が終わる場合、階段認識を終了し、前記階段が終わらない場合、前記階段の次の蹴上げ面及び次の踏み面を検出する段階をさらに含む、請求項1に記載の3次元データ映像の階段認識方法。
  21. 前記階段の終わりか否かを判断する段階は、前記連続する両蹴上げ面の間の幅が、既に決まった臨界値以上である場合、前記階段が終わるものと判断する、請求項20に記載の3次元データ映像の階段認識方法。
JP2012162639A 2011-11-23 2012-07-23 3次元データ映像の階段認識方法 Active JP6073085B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110122628A KR101820299B1 (ko) 2011-11-23 2011-11-23 3차원 데이터 영상의 계단 인식 방법
KR10-2011-0122628 2011-11-23

Publications (2)

Publication Number Publication Date
JP2013109750A true JP2013109750A (ja) 2013-06-06
JP6073085B2 JP6073085B2 (ja) 2017-02-01

Family

ID=48426434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012162639A Active JP6073085B2 (ja) 2011-11-23 2012-07-23 3次元データ映像の階段認識方法

Country Status (3)

Country Link
US (1) US9552640B2 (ja)
JP (1) JP6073085B2 (ja)
KR (1) KR101820299B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041142A (ja) * 2016-09-05 2018-03-15 国立大学法人 東京大学 矩形領域検出方法、矩形領域検出装置及びプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101820299B1 (ko) * 2011-11-23 2018-03-02 삼성전자주식회사 3차원 데이터 영상의 계단 인식 방법
NL2013355B1 (en) * 2014-08-22 2016-09-23 Handicare Stairlifts B V Method and system for designing a stair lift rail assembly.
CN104298998B (zh) * 2014-09-28 2017-09-08 北京理工大学 一种3d点云的数据处理方法
US10424070B2 (en) * 2016-04-21 2019-09-24 Texas Instruments Incorporated Methods and apparatus for structure from motion estimation
CN109215044B (zh) * 2017-06-30 2020-12-15 京东方科技集团股份有限公司 图像处理方法和系统、存储介质和移动系统
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
US12094195B2 (en) 2020-04-20 2024-09-17 Boston Dynamics, Inc. Identifying stairs from footfalls
US12077229B2 (en) 2020-04-22 2024-09-03 Boston Dynamics, Inc. Stair tracking for modeled and perceived terrain
KR102461438B1 (ko) * 2021-01-21 2022-11-01 주식회사 와이즈오토모티브 짐 인식 장치 및 그 동작 방법
CN115147398B (zh) * 2022-07-28 2025-11-07 南京信息工程大学 一种基于深度图像的楼梯高度检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005087452A1 (ja) * 2004-03-17 2005-09-22 Sony Corporation ロボット装置、及びその動作制御方法、並びに移動装置
JP2009237847A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653216B2 (en) 2003-12-23 2010-01-26 Carnegie Mellon University Polyhedron recognition system
JP4636016B2 (ja) * 2004-03-17 2011-02-23 ソニー株式会社 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置
US20070204241A1 (en) 2006-02-28 2007-08-30 Autodesk, Inc. Method for generating three dimensional stair objects in computer aided design drawings
US8755997B2 (en) * 2008-07-30 2014-06-17 Honeywell International Inc. Laser ranging process for road and obstacle detection in navigating an autonomous vehicle
KR101090082B1 (ko) 2009-05-29 2011-12-07 한국원자력연구원 단일 카메라 및 레이저를 이용한 계단 치수 측정 시스템 및 방법
US8329051B2 (en) 2010-12-14 2012-12-11 Lam Research Corporation Method for forming stair-step structures
WO2013013127A1 (en) 2011-07-20 2013-01-24 Goszyk Kurt A Laser obstacle detector
KR101820299B1 (ko) * 2011-11-23 2018-03-02 삼성전자주식회사 3차원 데이터 영상의 계단 인식 방법
KR102183713B1 (ko) * 2014-02-13 2020-11-26 삼성전자주식회사 3차원 반도체 장치의 계단형 연결 구조 및 이를 형성하는 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005087452A1 (ja) * 2004-03-17 2005-09-22 Sony Corporation ロボット装置、及びその動作制御方法、並びに移動装置
JP2009237847A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041142A (ja) * 2016-09-05 2018-03-15 国立大学法人 東京大学 矩形領域検出方法、矩形領域検出装置及びプログラム

Also Published As

Publication number Publication date
US9552640B2 (en) 2017-01-24
KR20130056960A (ko) 2013-05-31
US20130127996A1 (en) 2013-05-23
JP6073085B2 (ja) 2017-02-01
KR101820299B1 (ko) 2018-03-02

Similar Documents

Publication Publication Date Title
JP6073085B2 (ja) 3次元データ映像の階段認識方法
JP6983828B2 (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
US7667581B2 (en) Pedestrian detector and detecting method using change of velocity of object in image
EP1783683A1 (en) Mobile peripheral monitor
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
EP1783684A1 (en) Plane detector and detecting method
KR20130021018A (ko) 3차원 점군의 물체 분리 방법
US10650535B2 (en) Measurement device and measurement method
CN107735812A (zh) 视差图像生成设备、视差图像生成方法、视差图像生成程序、对象识别设备以及装置控制系统
US9734416B2 (en) Object detection method, information processing device, and storage medium
JP5417645B2 (ja) 距離画像における平面推定方法および距離画像カメラ
KR101090082B1 (ko) 단일 카메라 및 레이저를 이용한 계단 치수 측정 시스템 및 방법
WO2021190998A1 (en) Method, computer device and computer programme for extracting information about staircase
JP6396499B2 (ja) 三次元情報の規模測定
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
JP4797846B2 (ja) 区画線検出装置及び車線検出装置
JP5293429B2 (ja) 移動物体検出装置、及び移動物体検出方法
JP4270386B2 (ja) 移動体移動量算出装置
Woo et al. Stair-mapping with point-cloud data and stair-modeling for quadruped robot
JP5760523B2 (ja) 走路推定装置及びプログラム
JP2007241477A (ja) 画像処理装置
JP5330341B2 (ja) 車載カメラを用いた測距装置
JP5544513B2 (ja) 段差エッジ推定装置
KR101748333B1 (ko) 객체 추적 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170104

R150 Certificate of patent or registration of utility model

Ref document number: 6073085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250