JPWO2020013021A1 - Detection device, processing device, detection method, and processing program - Google Patents
Detection device, processing device, detection method, and processing program Download PDFInfo
- Publication number
- JPWO2020013021A1 JPWO2020013021A1 JP2020530127A JP2020530127A JPWO2020013021A1 JP WO2020013021 A1 JPWO2020013021 A1 JP WO2020013021A1 JP 2020530127 A JP2020530127 A JP 2020530127A JP 2020530127 A JP2020530127 A JP 2020530127A JP WO2020013021 A1 JPWO2020013021 A1 JP WO2020013021A1
- Authority
- JP
- Japan
- Prior art keywords
- point
- unit
- distance
- plane
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】互いに接触する第1物体と第2物体とを識別可能な検出装置を提供する。【解決手段】検出装置は、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出する位置検出部と、位置検出部の検出結果に基づく第1物体の物体面と、位置検出部が検出した物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別する物体識別部と、を備える。PROBLEM TO BE SOLVED: To provide a detection device capable of distinguishing a first object and a second object in contact with each other. A detection device includes a position detection unit that detects position information of each point on an object including a first object and a second object in a target region, and an object surface of the first object based on the detection result of the position detection unit. And an object identification unit that identifies at least a part of the second object in contact with the object surface with respect to the object surface based on the distance to each point on the object detected by the position detection unit.
Description
本発明は、検出装置、処理装置、検出方法、及び処理プログラムに関する。 The present invention relates to a detection device, a processing device, a detection method, and a processing program.
物体を検出する技術として、例えば下記の特許文献1に記載された技術がある。検出対象の物体は、互いに接触する第1物体および第2物体を含む場合がある。このような場合、例えば、第1物体と第2物体とを識別して検出可能であることが望まれる。例えば、床面上の人体を検出する場合、床面に接触する人体を床面と識別して高精度に検出可能であることが望まれる。
As a technique for detecting an object, for example, there is a technique described in
本発明の態様に従えば、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出する位置検出部と、位置検出部の検出結果に基づく第1物体の物体面と、位置検出部が検出した物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別する物体識別部と、を備える検出装置が提供される。 According to the aspect of the present invention, a position detection unit that detects the position information of each point on the object including the first object and the second object in the target region, and an object surface of the first object based on the detection result of the position detection unit. A detection device including the object identification unit that identifies at least a part of the second object in contact with the object surface with respect to the object surface based on the distance to each point on the object detected by the position detection unit. Provided.
本発明の態様に従えば、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく第1物体の物体面と、物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別する物体識別部、を備える処理装置が提供される。 According to the aspect of the present invention, the object surface of the first object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target region, and each point on the object. Provided is a processing device including an object identification unit that identifies at least a part of a second object in contact with the object surface with respect to the object surface based on the distance.
本発明の様態に従えば、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出することと、検出の結果に基づく第1物体の物体面と、物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別することと、を含む検出方法が提供される。 According to the mode of the present invention, the position information of each point on the object including the first object and the second object in the target region is detected, and the object surface of the first object based on the detection result and the object on the object. A detection method is provided that includes identifying at least a portion of a second object in contact with an object surface with respect to the object surface based on the distance to each point.
本発明の態様に従えば、コンピュータに、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく第1物体の物体面と、物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別すること、を実行させる処理プログラムが提供される。 According to the aspect of the present invention, the object surface of the first object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target region by the computer, and each on the object. A processing program is provided that executes identification of at least a part of the second object in contact with the object surface with respect to the object surface based on the distance from the point.
[第1実施形態]
第1実施形態について説明する。図1は、実施形態に係る検出装置を示す図である。検出装置1は、対象領域ARにおける物体Mを検出する。対象領域ARは、検出装置1による検出の対象となる領域(例、検出装置1の検出領域、視野)である。図1において、物体Mは、第1物体M1と第2物体M2とを含む。第1物体M1は、例えば、対象領域ARにおいて固定された物体(例、床、壁、道路、階段、グラウンド、建築物、構造物などの静止物体)を含む。第1物体M1は、物体面の一例である表面SF(例、床面、壁面、天井面、地面、路面、斜面、凹面や凸面のような曲率を有する曲面など)を有する。[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing a detection device according to an embodiment. The
第2物体M2は、第1物体M1に対して分離可能(例、移動可能)な物体(例、移動する物体)を含む。第2物体M2は、例えば人体、動物、又はロボットを含む。第2物体M2は、第1物体M1の表面SFに接触可能である。例えば、第2物体M2は、対象領域AR外から対象領域AR内に移動して、第1物体M1の表面SFに接触する。また、第2物体M2は、表面SFに非接触な状態(例、対象領域AR外に配置された状態)と、表面SFに接触した状態(例、対象領域AR内に配置された状態)とのいずれの状態も取り得る。 The second object M2 includes an object (eg, a moving object) that is separable (eg, movable) with respect to the first object M1. The second object M2 includes, for example, a human body, an animal, or a robot. The second object M2 can come into contact with the surface SF of the first object M1. For example, the second object M2 moves from outside the target area AR into the target area AR and comes into contact with the surface SF of the first object M1. Further, the second object M2 is in a state of not contacting the surface SF (eg, a state of being placed outside the target area AR) and a state of being in contact with the surface SF (eg, a state of being placed in the target area AR). Any of the states can be taken.
検出装置1(検出システム)は、位置検出部2と、処理装置3とを備える。位置検出部2は、対象領域ARにおける第1物体M1及び第2物体M2を含む物体M上の各点の位置情報(例、デプス)を検出する。位置検出部2は、信号(入力信号)を物体Mに入力し、物体Mから出力される信号(出力信号)を検出する。上記の信号(入力信号、出力信号)は、例えば、光(可視光、非可視光、赤外光、紫外光)、及び音波(例、超音波)から選択されるエネルギー波を含む。
The detection device 1 (detection system) includes a
位置検出部2は、検出部4(例、デプスセンサ、デプスカメラ、測距部)を含む。位置検出部2(検出部4)は、所定の点から物体Mにおける各点までのデプス(距離、奥行き、深度)を検出する。上記所定の点は、例えば、位置検出部2による検出の基準になる位置の点(例、視点、検出元の点、位置検出部2の位置の点)である。
The
図2は、第1実施形態に係る位置検出部2を示す図である。位置検出部2(検出部4)は、照射部5、光学系6、及び撮像素子7を備える。照射部5は、検出の対象領域AR(空間、検出領域)に光La(例、パターン光、照射光、パルス光)を照射(例、投影)する。光Laは、例えば赤外光を含む。光学系6は、例えば結像光学系(撮像光学系)を含む。撮像素子7は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子7は、二次元的に配列された複数の画素を有する。撮像素子7は、光学系6を介して、物体Mを含む対象領域ARを撮像する。撮像素子7は、対象領域ARにおける物体(物体M)から光Laの照射によって放射される光Lb(赤外光、戻り光)を検出する。光Lbは、例えば赤外光を含む。
FIG. 2 is a diagram showing a
検出部4は、例えば、照射部5から照射される光Laのパターン(例、強度分布)と、撮像素子7によって検出された光Lbのパターン(強度分布、撮像画像)に基づいて、撮像素子7の各画素に対応する対象領域AR上の点から、撮像素子7の各画素までのデプスを検出する。位置検出部2は、その検出結果(領域位置情報)として、対象領域ARにおけるデプスの分布を表したデプスマップ(例、デプス画像、奥行き情報、距離情報)を処理装置3(図1参照)に出力する。
The
位置検出部2は、対象領域ARにおいて移動する物体(例、移動体、第2物体M2)を検出してもよい。この場合、検出部4は、所定のサンプリング周波数で物体の検出を繰り返してもよい。検出部4は、検出を実行するごとに、各検出時の位置情報(例、デプスマップ)を生成してもよい。位置検出部2は、検出部4が生成した物体の位置情報の時間変化に基づいて、物体の移動を検出してもよい。また、位置検出部2は、検出部4による検出時刻が異なる複数の検出結果を演算(例、平均値の算出)することによって、位置情報を生成してもよい。
The
なお、位置検出部2による位置情報の検出方法は、受動型計測でもよいし能動型計測でもよく、任意に設定される。位置検出部2は、TOF(time of flight)法によってデプスを検出するデバイスでもよい。また、位置検出部2は、TOF法以外の手法でデプスを検出するデバイスでもよい。位置検出部2は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによってデプスを検出するデバイスでもよい。位置検出部2は、例えば、位相差センサを含み、位相差法によってデプスを検出するデバイスでもよい。位置検出部2は、例えば、DFD(depth from defocus)法によってデプスを検出するデバイスでもよい。
The position information detection method by the
なお、位置検出部2は、赤外光以外の光(例、可視光)を物体Mに照射し、物体Mから出射する光(例、可視光)を検出してもよい。位置検出部2は、例えばステレオカメラなどを含み、複数の視点から物体Mを検出(例、撮像)してもよい。位置検出部2は、複数の視点から物体Mを撮像した撮像画像を用いて、三角測量によってデプスを検出するデバイスでもよい。位置検出部2は、光学的な手法以外の手法(例、超音波によるスキャン)によって、デプスを検出してもよい。位置検出部2は、物体M上の各点と所定の点との距離を検出する第1検出部(例、検出部4)と、物体Mのテクスチャを検出する第2検出部(例、可視光を検出する撮像部)とを備えてもよい。
The
図1の説明に戻り、処理装置3は、位置検出部2が出力する情報(例、検出結果)を処理する情報処理装置である。処理装置3は、モデル生成部11と、面推定部12と、物体識別部13と、記憶部14とを備える。記憶部14は、例えば、不揮発性のメモリ、ハードディスク(HDD)、ソリッドステートドライブ(SSD)などである。記憶部14は、位置検出部2から出力された情報を記憶する。また、記憶部14は、処理装置3の各部で処理された情報を記憶する。
Returning to the description of FIG. 1, the processing device 3 is an information processing device that processes information (eg, detection result) output by the
モデル生成部11は、位置検出部2の検出結果を用いて、3次元のモデル情報を生成する。モデル生成部11は、例えば、対象領域ARにおける物体の少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、3次元のCGモデルデータ)を算出する。モデル情報は、対象領域ARにおける物体の形状情報を含む。モデル情報は、対象領域ARにおける物体のテクスチャ情報を含んでもよい。
The
モデル生成部11は、点群データ生成部15と、サーフェス情報生成部16とを備える。点群データ生成部15は、物体M上の各点の位置情報として点群データを生成する点群処理を実行する。点群データは、対象領域ARにおける物体M(例、第1物体M1、第2物体M2)上の複数の点の3次元座標を含む。点群データ生成部15は、位置検出部2が検出した位置情報(例、デプス)に基づいて、物体Mの点群データを算出する。点群データ生成部15は、記憶部14に記憶されている位置検出部2の検出結果を読み出して、点群データを算出する。点群データ生成部15は、物体Mの形状情報として点群データを生成してもよい。
The
図3は、第1実施形態に係る点群データ生成部による点群処理を示す図である。符号DM1は、位置検出部2の検出結果に相当するデプスマップ(デプス画像)である。デプスマップDM1は、位置検出部2によるデプスの測定値の空間分布を表す情報(例、画像)である。デプスマップDM1は、対象領域ARの各点におけるデプスを階調値で表したグレースケールの画像である。デプスマップDM1において、階調値が相対的に高い部分(例、白い部分、明るい部分)は、デプスが相対的に小さい部分(位置検出部2から相対的に近い部分)である。デプスマップDM1において、階調値が相対的に低い部分(例、黒い部分、暗い部分)は、デプスが相対的に大きい部分(位置検出部2から相対的に遠い部分)である。
FIG. 3 is a diagram showing point cloud processing by the point cloud data generation unit according to the first embodiment. Reference numeral DM1 is a depth map (depth image) corresponding to the detection result of the
点群データ生成部15(図1参照)は、記憶部14からデプスマップDM1のデータを読み出し、デプスマップDM1の各画素の階調値(デプスの測定値)に基づいて、各画素に相当する実空間上の点の3次元座標を算出し、点群データPDを生成する。以下の説明において、適宜、1つの点の三次元座標を点データと称する。点群データPDは、複数の点データを一組にしたデータである。
The point cloud data generation unit 15 (see FIG. 1) reads the data of the depth map DM1 from the
図3における符号PDは、第1物体M1における表面SFとしての平面(例、床面)および第2物体M2(例、人体の足や手)に相当する点群データを表す。ここでは、点データの代わりに各点の位置に丸印を配置することで、点群データPDを概念的に表した。また、説明の便宜上、第1物体M1における点P1を黒の丸印で表し、第2物体M2における点P2を白の丸印で表した。 Reference numeral PD in FIG. 3 represents point group data corresponding to a plane (eg, floor surface) as the surface SF of the first object M1 and the second object M2 (eg, feet and hands of the human body). Here, the point cloud data PD is conceptually represented by arranging circles at the positions of each point instead of the point data. Further, for convenience of explanation, the point P1 in the first object M1 is represented by a black circle, and the point P2 in the second object M2 is represented by a white circle.
以下の説明において、適宜、位置検出部2の検出結果(例、デプスの測定値)に対して上記の点群処理を施した処理結果を、第1点群データと称する。第1点群データは、第1物体M1に相当する点群データと、第2物体M2に相当する点群データとを含む。第1点群データにおいて、第2物体M2に相当する点群データは、第1物体M1に相当する点群データと区別されていない。例えば、第1点群データにおいて、第1物体M1と第2物体M2とは区別されておらず、第2物体M2上の点P2は、第1物体M1に属するか否かが識別されない。
In the following description, the processing result obtained by subjecting the detection result (eg, the measured value of depth) of the
第1物体M1と第2物体M2とが互いに接触する部分において、第1物体M1上の点P1と第2物体M2上の点P2とは、連続的に分布する。第1物体M1と第2物体M2とが互いに接触する部分(例、境界の部分、オーバラップ部分などを含む)において、点P1の座標は、点P2の座標との差が小さい。このため、第2物体M2は、第1物体M1と接触する部分(接触領域)において、第1物体M1に対してその接触領域を識別することが難しい場合がある。 In the portion where the first object M1 and the second object M2 are in contact with each other, the point P1 on the first object M1 and the point P2 on the second object M2 are continuously distributed. In the portion where the first object M1 and the second object M2 are in contact with each other (including, for example, a boundary portion, an overlapping portion, etc.), the coordinates of the point P1 have a small difference from the coordinates of the point P2. Therefore, it may be difficult for the second object M2 to identify the contact area with respect to the first object M1 in the portion (contact area) in contact with the first object M1.
実施形態に係る検出装置1は、第1物体M1の表面SFを平面として推定(近似)する物体面推定処理(以下、平面推定処理と称する)と、平面推定処理によって推定された表面SFに対して第2物体M2を識別(区別、分類、セグメント分割、セグメント化)する物体識別処理とを実行する。以下、図1および図4を参照して、平面推定処理および物体識別処理について説明する。図4は、第1実施形態に係る面推定部による平面推定処理、及び物体識別部による物体識別処理を示す図である。図4の符号PD1は、第1点群データに相当し、符号P3は第1点群データに含まれる点データに相当する。
The
面推定部12は、位置検出部2の検出結果に基づいて、第1物体M1における平面を推定する。面推定部12は、第1物体M1における表面SF(図1参照)を、平面として推定する(平面で近似する)。以下の説明において、適宜、面推定部12が推定した平面を推定平面と称する。図4の符号FPは、推定平面に相当する。面推定部12は、推定平面FPを表す情報(以下、推定平面情報と称する)を生成する。面推定部12は、推定平面情報を記憶部14に記憶させる。
The
面推定部12は、例えば、予め設定された算出条件を満たすように、上記の平面を推定する。上記算出条件は記憶部14に記憶されており、面推定部12は、記憶部14に記憶された算出条件を読み出し、平面推定処理を実行する。上記算出条件は、例えば、鉛直方向に対する角度が所定の範囲内である条件を含む。位置検出部2の検出結果から得られる物体の位置情報(例、点群データ)において実空間の鉛直方向に相当する方向は、位置検出部2の検出方向に基づいて予め設定される。面推定部12は、例えば、鉛直方向に対する角度が所定の範囲内(例、80°以上90°以下)である条件を満たす平面(例、水平面)を、推定平面として導出する。
The
推定平面FPの算出条件は、鉛直方向に対する角度以外の条件を含んでもよい。例えば、推定平面FPの算出条件は、面積が所定値以上である条件を含んでもよい。この場合、面推定部12は、点群データに基づいて推定平面FPの候補を導出し、この候補の面積が所定値以上である場合に、この候補を推定平面として採用(例、決定、特定)してもよい。面推定部12は、例えば、想定される第2物体M2(例、人体)のスケールに対して推定平面の候補のスケールが小さい場合に、この候補を推定平面として採用しなくてもよい。上記の所定値は、例えば、対象領域AR(例、位置検出部2の視野)のサイズに対する比率で与えられてもよい。
The calculation condition of the estimated plane FP may include a condition other than the angle with respect to the vertical direction. For example, the calculation condition of the estimated plane FP may include a condition that the area is equal to or larger than a predetermined value. In this case, the
また、面推定部12は、点群データ生成部15が生成した点群データに基づいて上記の平面を推定する。面推定部12は、点群データから選択される複数の点の3次元座標を用いて、平面を推定する。面推定部12は、例えば、最小二乗法を用いて平面を推定する。この場合、面推定部12は、選択した複数の点からの距離の二乗和が最小となる平面を、推定平面FPとする。面推定部12は、推定平面FPを表す数式を導出する。面推定部12は、推定平面FPを表す数式(例、ax+by+cz+d=0)における係数(a、b、c、f)を算出する。面推定部12は、推定平面情報として、推定平面FPを表す数式の係数を記憶部14に記憶させる。
Further, the
なお、面推定部12は、最小二乗法以外の推定法を用いて平面を推定してもよい。例えば、面推定部12は、M推定法、RAMSAC、最小メジアン法、及びトンプソン法の少なくとも1つの推定法を用いて平面を推定してもよい。また、面推定部12は、第1の推定法で推定した平面と、第2の推定法で推定した平面との比較等によって、推定平面FPを決定してもよい。
The
また、面推定部12は、上記第1点群データに含まれる複数の点の全てを選択して、選択した点を用いて上記の平面を推定してもよい。また、面推定部12は、上記第1点群データに含まれる複数の点の一部(例、部分集合)を選択して、選択した点を用いて平面を推定してもよい。面推定部12が複数の点を選択する条件は、固定でもよいし、可変でもよい。
Further, the
面推定部12は、複数の点を選択する条件を調整してもよい。例えば、面推定部12は、選択した複数の点と、推定した平面との残差に基づいて複数の点の選択を更新し、更新した複数の点に基づいて上記の平面を推定してもよい。上記の残差は、例えば、選択された各点と、推定された平面との距離の二乗平均平方根(RMS)でもよい。例えば、面推定部12は、複数の点を含む第1グループに基づいて、推定平面の候補として第1平面を推定する。また、面推定部12は、第1グループのうち第1平面との距離が相対的に大きい点を第1グループから除外した第2グループを選択してもよい。面推定部12は、第2グループに基づいて、推定平面の候補として第2平面を推定してもよい。面推定部12は、例えば、上記残差が閾値以下となるまで複数の点の選択を更新し、得られた平面を推定平面として採用してもよい。
The
物体識別部13は、物体Mの平面(例、凹凸の無い又は少ない表面SF)に接触する第2物体M2の少なくとも一部(例、上記の平面付近の部分)を、平面(例、表面SF)に対して識別する(特定する、抽出する)。物体識別部13は、対象領域ARのうち第2物体M2の少なくとも一部を識別(セグメント化、セグメント分割)する。物体識別部13は、位置検出部2が検出した物体M上の各点と面推定部12が推定した推定平面FPとの距離に基づいて、物体識別処理を実行する。物体識別部13は、面推定部12が推定した推定平面FPとの距離が閾値未満(例、1mm未満、1cm未満)である物体M上の各点を除外して、第2物体M2の位置情報(例、点データ、点群データ)を特定する(抽出する、識別する)。
The
図4において、符号FP1および符号FP2は、推定平面FPに対する距離Dが上記閾値となる平面である。平面FP1は、推定平面FPに対して第1側(例、鉛直上方側)に配置されている。平面FP2は、推定平面に対して第1側と反対の第2側(例、鉛直下方)に配置されている。物体識別部13は、平面FP1と平面FP2との間に配置される点の点データP4(点線で示す)を、例えばマスキング処理によって第2物体M2の点群データから除外(例、削除)する。このようにして、物体識別部13は、推定平面FPとの距離が閾値未満の点データP4を第1点群データPD1から除外した第2点群データPD2を生成する。第2点群データPD2は、点データP3の集合から点データP4の集合を除いた複数の点データである。また、第2点群データPD2は、点データP4と後述する点データP5とのうち点データP5を含む複数の点データである。
In FIG. 4, reference numeral FP1 and reference numeral FP2 are planes in which the distance D with respect to the estimated plane FP is the threshold value. The plane FP1 is arranged on the first side (eg, vertically upward side) with respect to the estimated plane FP. The plane FP2 is arranged on the second side (eg, vertically downward) opposite to the first side with respect to the estimated plane. The
物体識別部13は、第1点群データに含まれる点ごとに、第2物体M2に属するか否かを識別する。物体識別部13は、上記第1点群データから識別対象の点を選択する。識別対象の点は、上記第1点群データから任意に選択される点である。例えば、第1点群データに含まれる各点には番号(例、1、2、3、・・・)が割り付けられており、物体識別部13は、第1点群データから点を番号順に選択する。そして、物体識別部13は、推定平面FPと選択した識別対象の点との距離を算出する。例えば、物体識別部13は、記憶部14から推定平面情報(例、推定平面FPを表す数式の係数)を読み出し、推定平面情報が表す推定平面と選択した識別対象の点との距離を算出する。
The
物体識別部13は、算出した距離と閾値とを比較して、物体識別処理を実行する。物体識別部13は、識別対象の点が第1物体M1に属するか否か(第1物体M1上の点であるか否か)を判定する。例えば、物体識別部13は、識別対象の点と推定平面FPとの距離が閾値未満である場合、識別対象の点が第1物体M1に属すると判定する。図4において、点データP4は、物体識別処理によって第1物体M1に属すると判定された点データに相当する。
The
また、物体識別部13は、識別対象の点と推定平面との距離が閾値以上である場合、識別対象の点が第1物体M1に属さないと判定する。図4において、符号P5は、物体識別処理によって第1物体M1に属さないと判定された点データに相当する。点データP5は、第2物体M2上に属すると推定される点の点データに相当する。このように、第2物体M2に属すると推定される点データP5は、第1物体M1に属すると推定される点データP4に対して識別されて特定される。
Further, when the distance between the point to be identified and the estimated plane is equal to or greater than the threshold value, the
物体識別部13は、物体Mの識別結果を表す識別情報を生成する。物体識別部13は、識別情報として、識別対象の点が第1物体M1に属するか否かを示す情報を生成する。例えば、物体識別部13は、識別情報として第2物体M2を表す第2点群データPD2を生成する。第2点群データPD2は、第1物体M1に属すると判定された識別対象の点を第1点群データPD1から除外した点群データである。物体識別部13は、上記識別情報として、第1物体M1に属するか否かを示すフラグ(例、属性情報)を点データに付加した情報を生成してもよい。物体識別部13は、生成した識別情報を記憶部14に記憶させる。
The
なお、物体識別部13は、識別対象の点が第2物体M2に属するか否か(第2物体M2上の点であるか否か)を判定してもよい。例えば、物体識別部13は、識別対象の点と推定平面との距離が閾値未満である場合、識別対象の点が第2物体M2に属さないと判定してもよい。また、物体識別部13は、識別対象の点と推定平面との距離が閾値以上である場合、識別対象の点が第2物体M2に属すると判定してもよい。
The
また、物体識別部13は、識別情報として、識別対象の点が第2物体M2に属するか否かを示す情報を生成してもよい。物体識別部13は、識別情報として、第2物体M2に属すると判定した識別対象の点を第1点群データPD1から抽出して、第2点群データPD2を生成してもよい。物体識別部13は、上記識別情報として、第2物体M2に属するか否かを示すフラグ(例、属性情報)を点データに付加した情報を生成してもよい。
Further, the
図1のサーフェス情報生成部16は、形状情報としてサーフェス情報を算出する。以下の説明において、適宜、サーフェス情報を算出する処理をサーフェス処理と称する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、及びドローデータの少なくとも1つを含む。サーフェス情報は、物体の表面上の複数の点の座標と、複数の点間の連結情報とを含む。連結情報(例、属性情報)は、例えば、物体表面の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。また、連結情報は、例えば、物体表面(サーフェス)の輪郭に相当する複数の線を互いに関連付ける情報を含む。
The surface
サーフェス情報生成部16は、サーフェス処理において、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定する。また、サーフェス情報生成部16は、サーフェス処理において、点群データを点間の平面情報を持つポリゴンデータに変換する。サーフェス情報生成部16は、例えば最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。
In the surface processing, the surface
サーフェス情報生成部16は、物体識別部13の識別結果に基づいて、サーフェス処理を実行する。サーフェス情報生成部16は、物体識別部13が生成した識別情報を記憶部14から読み出し、識別情報に基づいてサーフェス処理を実行する。例えば、サーフェス情報生成部16は、物体識別部13が識別した第2物体M2を表す第2点群データPD2を用いて、第2物体M2上の面を推定する。サーフェス情報生成部16は、サーフェス情報の少なくとも一部として、推定した第2物体M2上の面を表す情報を生成する。サーフェス情報生成部16は、算出したサーフェス情報を記憶部14に記憶させる。
The surface
なお、上記したモデル生成部11は、モデル情報として、3次元の点座標及びその関連情報で規定された面のテクスチャ情報を生成してもよい。テクスチャ情報は、例えば、物体表面の文字や図形、模様、質感、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。モデル生成部11は、生成したテクスチャ情報を記憶部14に記憶させてもよい。
The
また、モデル生成部11は、モデル情報として、画像の空間情報(例、照明条件、光源情報)を生成してもよい。光源情報は、例えば、対象物を基準とした照明光を照射する光源の位置、この光源から対象物へ光が照射される方向(照射方向)、この光源から照射される光の波長、及びこの光源の種類のうち少なくとも1項目の情報を含む。モデル生成部11は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出してもよい。モデル生成部11は、生成(例、算出)したモデル情報の少なくとも一部を記憶部14に記憶させる。モデル生成部11は、上記モデル情報の一部を生成しなくてもよい。
In addition, the
次に、上記検出装置1の構成に基づいて、実施形態に係る検出方法について説明する。図5は、第1実施形態に係る検出方法を示すフローチャートである。図6は、第1実施形態に係る平面推定処理を示すフローチャートである。図7は、第1実施形態に係る物体識別処理を示すフローチャートである。検出装置1の構成については、適宜、図1を参照する。
Next, the detection method according to the embodiment will be described based on the configuration of the
図5のステップS1において、位置検出部2は、対象領域ARにおける物体M上の位置情報(例、デプス)を検出する。ステップS2において、処理装置3の点群データ生成部15は、物体Mの点群データを生成する。例えば、点群データ生成部15は、ステップS1で得られたデプスを用いて点群処理を実行し、第1点群データを生成する。点群データ生成部15は、記憶部14に第1点群データを記憶させる。
In step S1 of FIG. 5, the
ステップS3において、面推定部12は、第1物体M1における平面を推定する。例えば、面推定部12は、点群データ生成部15が生成した第1点群データを用いて、平面推定処理を実行する。ステップS4において、物体識別部13は、物体上の各点と推定平面との距離に基づいて、第2物体を推定平面に対して識別する。
In step S3, the
ここで、ステップS3の平面推定処理の例について、図6を参照して説明する。図6のステップS11において、面推定部12は、点集合を設定する。面推定部12は、第1点群データに含まれる複数の点の全部または一部を選択し、選択した点からなる点集合を設定する。
Here, an example of the plane estimation process in step S3 will be described with reference to FIG. In step S11 of FIG. 6, the
ステップS12において、面推定部12は、ステップS11で設定した点集合の近似平面を表す数式を導出する。近似平面は、推定平面FPの候補である。面推定部12は、最小二乗法を用いて、平面を表す数式(ax+by+cz+d=0)の係数(a、b、c、d)を決定する。面推定部12は、上記平面と点集合に含まれる各点との距離の二乗を算出し、距離の二乗の点集合における総和(以下、距離の二乗和という)が最小となるように、係数(a、b、c、d)を算出する。
In step S12, the
ステップS13において、面推定部12は、点集合に対する近似平面の残差を算出する。この残差は、例えば、ステップS12で算出した係数(a、b、c、d)によって規定される近似平面と、点集合の各点との距離のRMSである。上記残差は、近似平面と、点集合の各点との距離の二乗和でもよい。
In step S13, the
ステップS14において、面推定部12は、ステップS13で算出された残差が閾値以下であるか否かを判定する。面推定部12は、残差が閾値以下でないと判定した場合(ステップS14;No)、ステップS11に戻り、点集合の設定を行う。例えば、面推定部12は、前回選択した点集合のうち、ステップS12で導出した近似平面との距離が相対的に長い点(又は大きい点)を除外して、点集合を再設定(更新)する。面推定部12は、再設定した点集合を用いて、ステップS12からステップS14の処理を繰り返す。
In step S14, the
面推定部12は、ステップS11においてランダムにいくつかの点を選択してもよい。また、面推定部12は、ステップS12において、ステップS11で選択した点に基づいて平面(例、推定平面FPの候補)を推定してもよい。面推定部12は、ステップS13において、ステップS12で推定した平面からその隣接点までの距離を評価関数として、評価値(例、残差)を算出してもよい。面推定部12は、上述のような点のランダムな選択、選択した点を用いた平面の推定、及び推定した平面に対する評価を繰り返し、評価値が最良の候補を推定平面FPとして採用してもよい。
The
ステップS14において、面推定部12は、残差が閾値以下であると判定した場合(ステップS14;Yes)、ステップS15において近似平面を推定平面FPとして採用する。ステップS16において、面推定部12は、推定平面FPを表す推定平面情報を記憶部14に記憶させる。面推定部12は、推定平面情報として、推定平面FPを表す数式(ax+by+cz+d=0)の係数(a、b、c、d)を記憶部14に記憶させる。
In step S14, when the
次に、図5のステップS4の物体識別処理の例について、図7を参照して説明する。ステップS21において、物体識別部13は、識別対象の点を選択する。物体識別部13は、第1点群データから識別対象の点を選択する。ステップS22において、物体識別部13は、ステップS21で選択された点と推定平面FPとの距離を算出する。物体識別部13は、記憶部14から推定平面FPを表す数式の情報(例、係数)を読み出し、識別対象の点の点データ(三次元座標)と、推定平面を表す数式とから距離を算出する。
Next, an example of the object identification process in step S4 of FIG. 5 will be described with reference to FIG. 7. In step S21, the
ステップS23において、物体識別部13は、ステップS22で算出された距離は閾値未満であるか否かを判定する。物体識別部13は、算出された距離が閾値未満であると判定した場合(ステップS23;Yes)、ステップS24において、識別対象の点が第2物体M2上の点でないと識別する。物体識別部13は、ステップS24において、識別対象の点を、第2物体M2の点群データからマスキング処理等によって除外する。物体識別部13は、識別対象の点を、第2物体M2と異なる物体(例、第1物体M1)の点群データへ分類(例、登録)してもよい。また、物体識別部13は、ステップS24において、識別対象の点が第2物体M2上の点でないことを示す識別情報(例、フラグ)を生成してもよい。例えば、識別対象の点が第2物体M2上の点ではない対象外の点と識別した場合、物体識別部13は、識別情報に基づき、識別対象の点のうち該対象外の点(この場合、第2物体M2ではない点)を第2物体M2の点群データから削除する。
In step S23, the
なお、物体識別部13は、ステップS24において、識別対象の点が第1物体M1上の点であると識別してもよい。この場合、物体識別部13は、識別対象の点を第1物体M1の点群データへ分類(例、登録)してもよい。また、物体識別部13は、識別対象の点が第1物体M1上の点であることを示す識別情報(例、フラグ)を生成してもよい。
In addition, the
ステップS23において、物体識別部13は、算出された距離が閾値未満でない(閾値以上である)と判定した場合(ステップS23;No)、ステップS25において、識別対象の点が第1物体M1上の点でないと識別する。物体識別部13は、ステップS25において、識別対象の点を第1物体M1の点群データから除外する。物体識別部13は、識別対象の点を第1物体M1と異なる物体の点群データへ分類(例、登録)してもよい。物体識別部13は、ステップS25において、識別対象の点が第1物体M1上の点でないことを示す識別情報(例、フラグ)を生成してもよい。
In step S23, when the
なお、物体識別部13は、ステップS25において、識別対象の点が第2物体M2上の点であると識別してもよい。この場合、物体識別部13は、識別対象の点を第2物体M2の点群データへ分類(例、登録)してもよい。また、物体識別部13は、識別対象の点が第2物体M2上の点であることを示す識別情報(例、フラグ)を生成してもよい。
In addition, the
ステップS24の処理後またはステップS25の処理後に、ステップS26において、物体識別部13は、次の識別対象の点があるか否かを判定する。物体識別部13は、物体識別処理が予定された複数の点のうち物体識別処理が実行されていない点が存在する場合、次の識別対象の点があると判定する。物体識別部13は、次の識別対象の点があると判定した場合(ステップS26;Yes)、ステップS21に戻り、次の識別対象の点を選択する。物体識別部13は、次の識別対象の点がないと判定した場合(ステップS26;No)、物体識別処理を終了する。
After the processing of step S24 or after the processing of step S25, in step S26, the
図5のステップS5において、モデル生成部11は、ステップS4で識別された第2物体M2の位置情報に基づいて、モデル情報を生成する。例えば、モデル生成部11は、第1点群データのうち物体識別部13が識別した第2物体M2の点群データを選択的に用いて、第2物体M2のモデル情報を生成する。モデル生成部11は、モデル情報として、第2物体M2の形状情報(例、サーフェス情報)を生成する。モデル生成部11は、生成したモデル情報を記憶部14に記憶させる。
In step S5 of FIG. 5, the
なお、モデル生成部11は、第1点群データから第2点群データを除外した点群データを用いて、第1物体M1を表す形状情報を生成してもよい。また、モデル生成部11は、第1物体M1を表す第1形状情報と、第2物体M2を表す第2形状情報とを生成してもよい。モデル生成部11は、第1形状情報と第2形状情報とを合成して、第1物体M1および第2物体M2を表す形状情報を生成してもよい。
The
上述のように、実施形態に係る検出装置1は、面推定部12によって第1物体M1における平面を推定し、物体識別部13によって第2物体M2を推定平面FPに対して識別する。したがって、実施形態に係る検出装置1は、第1物体M1に接触する第2物体M2を識別することができ、例えば第2物体M2を高精度にセグメント化することに寄与する。
As described above, the
なお、第2物体M2は、人体でなくてもよい。第2物体M2は、人間以外の生物(例、動物、植物、犬、猫)でもよいし、物品(例、装置、ロボット、自動車)でもよい。第2物体M2は、対象領域ARにおいて静止する静止物でもよいし、対象領域ARにおいて移動(例、自走)する移動体でもよい。 The second object M2 does not have to be a human body. The second object M2 may be a non-human organism (eg, animal, plant, dog, cat) or an article (eg, device, robot, automobile). The second object M2 may be a stationary object that is stationary in the target area AR, or may be a moving body that moves (eg, self-propelled) in the target area AR.
また、第1物体M1は、対象領域ARにおいて静止する物体でもよいし、対象領域ARにおいて移動する物体でもよい。例えば、検出装置1は、移動する第1物体M1(例、自動車)と接触する第2物体M2(例、人体)を識別してもよい。第1物体M1において、第2物体M2と接触することが想定される表面は、平面でなくてもよく曲面でもよいし、平面と曲面とを有する複合面でもよい。例えば、第1物体M1の物体面としての表面は、階段の上面のように規則的に配置される面でもよい。また、第1物体M1の表面が凹凸を含み、面推定部12は、第1物体M1の表面を平面で近似してもよい。
Further, the first object M1 may be an object that is stationary in the target area AR or an object that is moving in the target area AR. For example, the
図1などにおいて、第2物体M2は、第2物体M2に対して鉛直方向の下方に配置される面に接触する。第2物体M2は、第2物体M2に対して鉛直方向の上方に配置される面(例、天井)に接触してもよい。また、第2物体M2は、第2物体M2に対して水平方向に配置される面(例、壁面)に接触してもよい。記憶部14は、第1物体M1が接触することが想定される面の条件(例、推定平面FPの算出条件)を予め記憶し、面推定部12は、記憶部14に記憶された面の条件に基づいて、推定平面FPを導出してもよい。第2物体M2において第1物体M1に接触する部分は、任意であり、人体の足以外の部分(例、手)でもよい。
In FIG. 1 and the like, the second object M2 comes into contact with a surface arranged downward in the vertical direction with respect to the second object M2. The second object M2 may come into contact with a surface (eg, ceiling) arranged vertically above the second object M2. Further, the second object M2 may come into contact with a surface (eg, a wall surface) arranged horizontally with respect to the second object M2. The
なお、面推定部12は、点群データを用いないで推定平面を導出してもよい。例えば、面推定部12は、位置検出部2が生成するデプスマップにおいて領域内のデプスの分布が所定の条件を満たす場合に、この領域が推定平面FPに属すると判定してもよい。例えば、面推定部12は、デプスマップにおける複数の画素を含む領域でデプスが規則的に変化する場合に、この領域が推定平面FPに属すると判定してもよい。
The
また、面推定部12は、サーフェス情報に基づいて推定平面FPを導出してもよい。例えば、面推定部12は、サーフェス情報生成部16が生成したサーフェス情報から平面で近似される表面の情報を抽出し、抽出した表面の情報を推定平面FPの候補として用いてもよい。この場合、面推定部12は、推定平面FPの候補を導出しなくてもよい。また、面推定部12は、サーフェス情報生成部16がサーフェス処理によって推定した平面の法線方向に基づいて、推定平面FPを導出してもよい。面推定部12は、サーフェス情報において法線方向が同じ又は類似する領域を推定平面として導出してもよい。面推定部12は、所定のサイズの領域における法線方向の分散が所定値未満である場合に、この領域を推定平面FPとして導出してもよい。
Further, the
なお、検出装置1の少なくとも一部は、据え置き型の装置でもよいし、携帯型の装置でもよい。位置検出部2の少なくとも一部は、処理装置3と同じボディに設けられてもよい。また、処理装置3の少なくとも一部は、位置検出部2に設けられてもよい。例えば、位置検出部2は、点群データ生成部15を備え、検出によって得られる物体の位置情報として点群データを処理装置3に出力してもよい。
At least a part of the
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図8は、本実施形態に係る検出装置を示す図である。本実施形態において、面推定部12は、例えば第2物体M2が対象領域ARに配置されていない状態における位置検出部2の検出結果に基づいて、物体Mの表面SFを物体面(この場合、平面)として推定する。物体識別部13は、第2物体M2が対象領域ARに配置されていない状態における位置検出部2の検出結果に基づいて面推定部12が推定した平面と、第2物体M2が対象領域ARに配置されている状態における位置検出部2の検出結果とに基づいて、第2物体M2を識別する。[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 8 is a diagram showing a detection device according to the present embodiment. In the present embodiment, the
図8の符号Q1は、第2物体M2が第1位置(例、対象領域ARの外部の位置)に配置された第1状態を表す。第1状態Q1は、例えば、対象領域ARに第2物体M2が配置されていない状態である。また、図8の符号Q2は、第2物体M2が第2位置に配置された第2状態を表す。第2位置は、対象領域ARの内部の位置であり、かつ上記第1位置と異なる位置である。 Reference numeral Q1 in FIG. 8 represents a first state in which the second object M2 is arranged at the first position (eg, a position outside the target area AR). The first state Q1 is, for example, a state in which the second object M2 is not arranged in the target area AR. Further, the reference numeral Q2 in FIG. 8 represents a second state in which the second object M2 is arranged at the second position. The second position is a position inside the target area AR and is a position different from the first position.
第1状態Q1において、位置検出部2は、第1物体M1の位置情報を検出する。そして、面推定部12は、第1状態Q1で検出された第1物体M1の位置情報に基づいて、第1物体M1の表面SFを平面として推定(近似)する。
In the first state Q1, the
また、第2状態Q2において、位置検出部2は、第1物体M1および第2物体M2を含む物体Mの位置情報を検出する。そして、物体識別部13は、第1状態Q1で検出された第1物体M1の位置情報に基づいて面推定部12が推定した平面と、第2状態Q2で検出された物体Mの位置情報とを用いて、第2物体M2を識別する。
Further, in the second state Q2, the
なお、第1状態Q1における検出と、第2状態Q2における検出との順番は、任意に設定される。位置検出部2は、第1状態Q1における検出を実行した後で、第2状態Q2における検出を実行してもよい。位置検出部2は、第2状態Q2における検出を実行した後で、第1状態Q1における検出を実行してもよい。この場合、面推定部12は第1状態Q1における検出の終了後に平面を推定し、物体識別部13は、面推定部12が平面を推定した後に、第2状態における検出結果を用いて第2物体M2を識別してもよい。
The order of the detection in the first state Q1 and the detection in the second state Q2 is arbitrarily set. The
なお、第2物体M2は、図8の第1状態Q1において対象領域ARの外部に配置されているが、対象領域ARにおいて第2状態Q2と異なる位置に配置されてもよい。例えば、検出装置1は、第2状態よりも第2物体M2が対象領域ARの中心から離れた位置(例、対象領域ARの端)に配置された第3状態で物体Mの位置情報を検出し、その検出結果に基づいて面推定部12が平面を推定してもよい。また、面推定部12は、第2物体M2の移動による位置検出部2の検出結果の変化に基づいて平面を推定してもよい。例えば、位置検出部2は、第2物体M2の位置が異なる複数の条件で物体Mの位置情報を検出し、面推定部12は、複数の条件で検出される物体Mの位置情報の変化(差分)に基づいて、物体Mの位置情報から第2物体M2の位置情報の少なくとも一部を除外して平面を推定してもよい。
Although the second object M2 is arranged outside the target area AR in the first state Q1 of FIG. 8, it may be arranged at a position different from the second state Q2 in the target area AR. For example, the
次に、上記検出装置1の構成に基づいて、実施形態に係る検出方法について説明する。図9は、第2実施形態に係る検出方法を示すフローチャートである。検出装置1の構成については、適宜、図1、図8を参照する。ステップS31において、位置検出部2は、第2物体M2が第1位置(例、対象領域AR外)に配置された第1状態Q1(図8参照)で対象領域ARにおける位置情報(例、デプス)を検出する。
Next, the detection method according to the embodiment will be described based on the configuration of the
ステップS32において、処理装置3は、ステップS31で得られる位置検出部2の検出結果からノイズを除去する。ノイズを除去するノイズ除去処理は、例えば、位置検出部2が生成するデプスマップから空間的なノイズを除去する処理を含む。例えば、処理装置3は、デプスマップにおいて隣り合う第1領域(例、第1画素)と第2領域(例、第2画素)とでデプスの差が閾値を超える場合に、第1領域におけるデプスまたは第2領域におけるデプスがノイズであると判定する。処理装置3は、第1領域におけるデプスがノイズであると判定した場合に、第1領域の周囲の領域(例、第3画素、第4画素)のデプスを用いた補間などによって第1領域のデプスを推定し、第1領域のデプスを推定したデプスで更新(置換、補正)することによって、空間的なノイズを除去する。
In step S32, the processing device 3 removes noise from the detection result of the
また、ノイズを除去するノイズ除去処理は、例えば、位置検出部2が生成するデプスマップから時間的なノイズ(例、時間的に変化するノイズ)を除去する処理を含む。例えば、位置検出部2は、所定のサンプリング周波数で検出を繰り返し、処理装置3は、検出のタイミングが異なる位置検出部2の検出結果(例、デプスマップ)を比較する。例えば、処理装置3は、第1フレームにおけるデプスマップと、第1フレームの次の第2フレームにおけるデプスマップとで、各画素におけるデプスの変化量(時間変化量)を算出する。処理装置3は、各画素におけるデプスの変化量が所定の条件を満たす場合、この画素の第1フレームにおけるデプスまたは第2フレームにおけるデプスがノイズであると判定する。処理装置3は、第2フレームにおけるデプスがノイズであると判定した場合に、第1フレームにおけるデプスと第2フレームの次の第3フレームにおけるデプスとを用いた補間などによって第2フレームのデプスを推定する。処理装置3は、ノイズに対応する画素のデプスを推定したデプスで更新(置換、補正)することによって、時間的なノイズを除去する。
Further, the noise removing process for removing noise includes, for example, a process for removing temporal noise (eg, noise that changes with time) from the depth map generated by the
なお、ノイズ除去処理は、空間的なノイズを除去する処理または時間的なノイズを除去する処理を含まなくてもよい。また、ノイズ除去処理は、処理装置3以外の部分(例、位置検出部2)で実行されてもよい。また、検出装置1は、ノイズ除去処理を実行しなくてもよい。
The noise removal process may not include a process for removing spatial noise or a process for removing temporal noise. Further, the noise removal process may be executed in a portion other than the processing device 3 (eg, the position detection unit 2). Further, the
図9のステップS33において、点群データ生成部15は、第3点群データを生成する。例えば、点群データ生成部15は、ステップS32においてノイズが除去されたデプスマップに対して点群処理を実行して、第3点群データを生成する。点群データ生成部15は、生成した第3点群データを記憶部14に記憶させる。ステップS34において、面推定部12は、平面を推定する。例えば、面推定部12は、記憶部14から第3点群データを読み出し、第3点群データに基づいて推定平面FPを導出する。面推定部12は、導出した推定平面FPを表す情報を記憶部14に記憶させる(例、初期状態の登録)。
In step S33 of FIG. 9, the point cloud
ステップS35において、位置検出部2は、第2物体M2が対象領域AR内の第2位置に配置された第2状態Q2(図8参照)で、対象領域ARにおける物体Mの位置情報(例、デプス)を検出する。ステップS37において、処理装置3は、ステップS36で得られる位置検出部2の検出結果からノイズを除去する。ステップS37の処理は、ステップS32の処理と同様である。ステップS38において、点群データ生成部15は、第4点群データを生成する。例えば、点群データ生成部15は、ステップS37においてノイズが除去されたデプスマップに対して点群処理を実行して、第4点群データを生成する。点群データ生成部15は、生成した第4点群データを記憶部14に記憶させる。
In step S35, the
ステップS39からステップS44の処理は、物体識別処理に相当する。ステップS39において、物体識別部13は、第4点群データから識別対象の点を設定(例、選択)する。ステップS40において、物体識別部13は、識別対象の点と、ステップS35で推定された推定平面FPとの距離を算出する。物体識別部13は、記憶部14から推定平面FPを表す数式の情報(例、係数)を読み出し、識別対象の点の点データ(三次元座標)と、推定平面を表す数式とから距離を算出する。
The processing of steps S39 to S44 corresponds to the object identification processing. In step S39, the
ステップS41において、物体識別部13は、ステップS30で算出された距離が閾値未満であるか否かを判定する。物体識別部13は、算出された距離が閾値以上であると判定した場合(ステップS41;Yes)、ステップS42において、識別対象の点を第5点群データに登録する。物体識別部13は、算出された距離が閾値以上でない(閾値未満である)と判定した場合(ステップS41;No)、又はステップS42の処理後に、ステップS42において、次の識別対象の点があるか否かを判定する。物体識別部13は、物体識別処理が予定された複数の点のうち物体識別処理が実行されていない点が存在する場合、次の識別対象の点があると判定する。物体識別部13は、次の識別対象の点があると判定した場合(ステップS43;Yes)、ステップS39に戻り、次の識別対象の点を選択する。
In step S41, the
物体識別部13は、次の識別対象の点がないと判定した場合(ステップS43;No)、第5点群データを記憶部14に記憶させ、物体識別処理を終了する。第5点群データは、第4点群データから推定平面FPの近傍の点を除外した点群データである。第5点群データは、推定平面FPに対して識別された第2物体M2を表す点群データとして利用可能である。
When the
面推定部12は、第2物体M2の移動による位置検出部2の検出結果の変化に基づいて平面を推定してもよい。例えば、第2物体M2が第1位置から第2位置へ移動した際に、位置検出部2の検出結果の変化に基づく点群データは、上記第3点群データから上記第4点群データへ変化する。第3点群データが示す形状と、第4点群データが示す形状とで変化量が閾値未満である部分は、例えば、対象領域ARにおいて静止した物体に属すると推定される。面推定部12は、第3点群データが示す形状と、第4点群データが示す形状とで変化量が閾値未満である部分を抽出し、抽出した部分における平面を推定平面として導出してもよい。
The
なお、図8では、第2物体M2が配置される第1位置が対象領域AR外であるとしたが、第1位置は、対象領域AR内でもよい。また、第1位置に対応する位置検出部2の検出処理(例、図9のステップS31)は、第2位置に対応する位置検出部2の検出処理(例、図9のステップS36)の終了後に実行されてもよい。ステップS32からステップS34の処理は、ステップS31の処理が終了してから、物体識別処理(例、ステップS39からステップS44)が開始されるまでの任意のタイミングで実行されてもよい。また、ステップS37からステップS38の処理は、ステップS36の処理が終了してから、物体識別処理(例、ステップS39からステップS44)が開始されるまでの任意のタイミングで実行されてもよい。
In FIG. 8, the first position where the second object M2 is arranged is outside the target area AR, but the first position may be inside the target area AR. Further, the detection process of the
[第3実施形態]
第3実施形態について説明する。本実施形態において、検出装置1の構成については適宜図1を参照する。本実施形態に係る物体識別部13(図1参照)は、位置検出部2が検出した物体M上の点と、面推定部12が推定した物体面(この場合、平面)との距離を強調した評価値を算出し、評価値に基づいて第2物体M2の位置情報を識別する。[Third Embodiment]
The third embodiment will be described. In the present embodiment, FIG. 1 is appropriately referred to for the configuration of the
図10は、本実施形態に係る物体識別部13による物体識別処理を示す図である。図10のXYZ直交座標系において、Y方向は、推定平面FPに垂直な方向である。また、X方向およびZ方向は、それぞれ推定平面FPに平行、かつ、互いに垂直な方向である。例えば、Y方向は実空間の鉛直方向に対応し、X方向およびZ方向は、それぞれ実空間の水平方向に対応する。
FIG. 10 is a diagram showing an object identification process by the
物体識別部13は、Z方向に領域を分割し、分割した領域ごとに第2物体M2の位置情報を識別する。図10における符号PDmは、分割された領域の1つ(Zm≦Z<Zm+1の領域、mは正の整数)における物体Mの点群データである。物体識別部13は、点群データPDmを二次元領域における点データとして(例、Z座標の値を無視して)、物体識別処理を実行する。物体識別部13は、m=1、2、・・・について、分割された領域に対する物体識別処理を順に行うことによって、所定の領域(例、対象領域AR)に関する物体Mの点群データから第2物体M2の点群データを識別する。The
図10の符号Piは、点群データPDmに含まれる1つの点を表す。添え字のiは各点に割り付けられた番号(例、i=1、2、・・・)である。また、Xiは点PiのX座標であり、Yiは点PiのY座標である。Y0は、推定平面FPのY座標であり、hiは、点Piと推定平面FPとの距離(hi=Yi−Y0、推定平面FPからの高さ)である。符号Q3は、物体M2の一部(例、人体の踵)を表す領域である。Sign P i in FIG. 10 represents one point included in the point cloud data PD m. The subscript i is a number assigned to each point (eg, i = 1, 2, ...). Further, X i is the X-coordinate of the point P i, Y i is the Y coordinate of the point P i. Y 0 is the Y coordinate of the estimated plane FP, h i is the distance between the point P i and the estimated plan FP (h i = Y i -Y 0, the height from the estimated plane FP). Reference numeral Q3 is a region representing a part of the object M2 (eg, the heel of the human body).
また、diは点Piに対する評価値である。例えば、領域Q3(図10に円で示す拡大図参照)において、djは、点Pjに対する評価値である。物体識別部13は、評価値diとして、点Piと推定平面FPとの距離hiに基づいて距離hiを増加させた値を算出する。diを算出する評価関数は、例えば図10の式(1)で表される。式(1)において、V1は閾値(第2閾値)である。閾値V1は、任意に設定される値である。閾値V1は、例えば、第1閾値(例、図4の距離D)以下の値(例、0)に設定される。Also, d i is the evaluation value for the point P i. For example, in the region Q3 (see the enlarged view shown by the circle in FIG. 10), d j is an evaluation value with respect to the point P j.
物体識別部13は、物体Mにおける第1点と推定平面FPとの第1距離、及び第1点の周囲の第2点と推定平面FPとの第2距離に基づいて、第1点に関する評価値を算出する。第1点は、例えば点Piであり、第2点は例えば点Pi−1および点Pi+1である。第1距離は、例えば点Piと推定平面FPとの距離hiであり、第2距離は、点Pi−1と推定平面FPとの距離hi−1、及び点Pi+1と推定平面FPとの距離hi+1である。式(1)において、fiは、距離(hi)に対する増加量である。The
図10の式(1)に示すように、物体識別部13は、第2距離(hi−1、hi+1)が閾値V1(第2閾値)以下である場合(hi−1≦V1 and hi+1≦V1)に、点Piに対する評価値diを第1距離(hi)とする。物体識別部13は、第2距離(hi−1、hi+1)が閾値V1(第2閾値)よりも大きい場合(hi−1>V1, or hi+1>V1)に、点Piに対する評価値diとして、第2距離に基づいて第1距離を増加させた値(hi+fi)を算出する。As shown in the equation (1) of FIG. 10, the
物体識別部13は、第2距離(hi−1、hi+1)が第2閾値(V1)よりも大きい場合に、評価値として、第2距離に対して減少する値(fi)を第1距離(hi)に加算した値を算出する。増加量fiは、第2距離をパラメータとする関数である。増加量fiは、第2距離の減少に対して、値が増加する関数(傾きが負の関数、負の相関を持つ関数)である。増加量fiは、例えば下記の式(2)で表される。
fi=(1/hi−1)+(1/hi+1) ・・・式(2)
f i = (1 / h i-1 ) + (1 / h i + 1 ) ... Equation (2)
図10の符号Q4は、領域Q3に対応する各点の評価値diを示す領域である。領域Q4において、各点の評価値diは黒丸で表され、各点の距離hiは白丸で表される。点Pj−2、点Pj−1は、推定平面FPから十分に離れた点である。例えば、点Pj−1と推定平面FPとの距離hj−1(領域Q4の点Pj-1に対応する白丸参照)は、第2物体M2に属するか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも大きい。また、点Pj、点Pj+1、及び点Pj+2は、推定平面FPの近傍の点である。例えば、点Pjと推定平面FPとの距離hj(領域Q4の点Pjに対応する白丸参照)は、第2物体M2に属するか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも小さい。Code Q4 in FIG. 10 is a region showing the evaluation value d i of each point corresponding to the region Q3. In the region Q4, the evaluation value d i of each point is represented by a black circle, the distance h i of each point is represented by a white circle. The points P j -2 and the points P j -1 are points sufficiently separated from the estimated plane FP. For example, the distance h j-1 between the point P j-1 and the estimated plane FP (see the white circle corresponding to the point P j-1 in the region Q4) is used to determine whether or not it belongs to the second object M2. Greater than one threshold (eg, D in region Q4). Further, the point P j , the point P j + 1 , and the point P j + 2 are points in the vicinity of the estimated plane FP. For example, the distance h j between the point P j and the estimated plane FP (see the white circle corresponding to the point P j in the region Q4) is the first threshold value (eg, region) used to determine whether or not it belongs to the second object M2. It is smaller than D) of Q4.
ここで、点Pj−1を第1点とし、その周囲の第2点を点Pj−2および点Pjとする。第2点(点Pj−2および点Pj)は、例えば点群データPDmにおいて、第1点(点Pj−1)との距離が最も短い点、及びその次に距離が短い点である。物体識別部13は、第2点(点Pj−2)に関する第2距離(hj−2)がV1よりも大きい(hj−2>V1)ので、評価値dj−1としてhj−1+fj−1を算出する。評価値di−1は、点Pi−1が推定平面FPから十分に離れた点であるので、増加量fiが小さいが距離hiが大きく、第2物体M2であるか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも大きくなる。物体識別部13は、評価値di−1が第1閾値(D)以上であるか否かを判定する。物体識別部13は、評価値di−1が第1閾値(D)以上であると判定し、点Pi−1が第2物体M2上の点であると識別する(第1物体M1上の点でない識別する)。Here, the point P j-1 is set as the first point, and the second points around the point P j-1 are set as the point P j-2 and the point P j . The second point (point P j-2 and point P j ) is, for example, the point where the distance from the first point (point P j-1 ) is the shortest in the point cloud data PD m , and the point where the distance is the next shortest. Is. Since the second distance (h j-2 ) with respect to the second point (point P j-2 ) is larger than V1 (h j-2 > V1) in the object identification unit 13, the evaluation value d j-1 is h j. -1 + f j-1 is calculated. Evaluation value d i-1, since in that point P i-1 is sufficiently distant from the estimated plane FP, but the increase f i is smaller distance h i is large, is whether a second object M2 It is larger than the first threshold value (eg, D in region Q4) used for the determination. The
次に、点Pjを第1点とし、その周囲の第2点を点Pj−1および点Pj+1とする。物体識別部13は、第2点(点Pj−1)に関する第2距離(hj−1)がV1よりも大きい(hj−1>V1)ので、評価値djとしてhj+fjを算出する。評価値diは、点Piが推定平面FPの近傍の点であるので、距離hiが小さいが増加量fiが大きく、第2物体M2であるか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも大きくなる。物体識別部13は、評価値diが第1閾値(D)以上であるか否かを判定する。物体識別部13は、評価値diが第1閾値(D)以上であると判定し、点Piが第2物体M2上の点であると識別する(第1物体M1上の点でない識別する)。Next, let the point P j be the first point, and the second points around it be the point P j-1 and the point P j + 1 . Since the second distance (h j-1 ) with respect to the second point (point P j-1 ) of the
次に、点Pj+1を第1点とし、その周囲の第2点を点Pjおよび点Pj+2とする。物体識別部13は、第2点(点Pj、点Pj+2)の第2距離(距離hj、距離hj+2)がV1以下(hj≦V1 and hj+2≦V1)ので、評価値dj+1をhj+1とする。物体識別部13は、評価値di+1が第1閾値(D)以上であるか否かを判定する。物体識別部13は、評価値di+1が第1閾値(D)未満であると判定し、点Pi+1が第2物体M2上の点でないと識別する(第1物体M1上の点である識別する)。Next, the point P j + 1 is set as the first point, and the second points around it are set as the point P j and the point P j + 2 .
本実施形態に係る物体識別部13は、第1点(例、Pj)の周囲の第2点(例、Pi−1、Pi+1)と面推定部12が推定した平面(推定平面FP)との第2距離(例、hi−1、hi+1)に基づいて評価値(例、dj)を算出し、評価値(例、dj)と第1閾値(D)とを比較して第1点が第2物体に属するか否かを判定する。したがって、本実施形態に係る検出装置1は、推定平面FPの近傍の点(例、Pj)を、推定平面FP上の点と区別して第2物体M2に属する点として識別することができる。このように、物体識別部13は、推定平面FPの近傍の点と推定平面FP上の点とを高精度に識別して分離可能であり、検出装置1は、例えば第2物体M2の形状を高精度に検出可能である。
なお、物体識別部13は、推定平面FPからの距離(hi)が所定の範囲内の点に対して、距離を強調した評価値を算出し、算出した評価値と第1閾値と比較して第2物体M2の位置情報を識別する処理を実行してもよい。例えば、物体識別部13は、推定平面FPからの距離(hi)が第1閾値(例、D)よりも大きい点については評価値を導出しなくてもよい。また、物体識別部13は、第2閾値(例、V1)よりも小さい第4閾値を用いて、推定平面FPからの距離(hi)が第4閾値よりも小さい点については評価値を導出しなくてもよい。物体識別部13は、例えば、推定平面FPからの距離(hi)が第4閾値未満の点を、第2物体M2上の点ではない(第1物体M1上の点である)と識別してもよい。Incidentally, the
なお、評価値を算出する評価関数(例、式(1))は、図10で説明した形態に限定されず適宜変更可能である。例えば、評価値diは、式(1)において距離hiに増加量fiを加算した値であるが、距離hiに係数を乗算した値でもよい。また、増加量fiは、(1/hi−1)+(1/hi+1)以外の関数で与えられてもよい。The evaluation function (eg, equation (1)) for calculating the evaluation value is not limited to the form described with reference to FIG. 10, and can be changed as appropriate. For example, the evaluation value d i is a value obtained by adding the increment f i to the distance h i in the formula (1), the coefficient may be a value obtained by multiplying the a distance h i. Also, increment f i may be given by a function other than (1 / h i-1) + (1 / h i + 1).
なお、物体識別部13は、式(1)のように距離hiに基づいて評価値diを1次評価値として算出し、式(1)における距離hiの代わりに1次評価値を用いることで2次評価値を算出してもよい(例、物体識別部13は評価値を再計算してもよい)。物体識別部13は、このような評価値の再計算によってk次評価値(kは2以上の整数)を導出し、k次評価値と閾値(例、第1閾値、図4のD)との比較によって、第2物体M2の位置情報を識別してもよい。例えば、図10の領域Q4に示した点Pjの1次評価値(hj+fj)がhjよりも大きくなり、点Pjの1次評価値を用いて点Pj+1の2次評価値を算出すると、点Pj+1の2次評価値が第1閾値(例、領域Q4のD)以上となることで、点Pj+1は第2物体M2上の点として識別可能な場合がある。この場合、推定平面FPの近傍の点(例、点Pj+1)が第2物体M2上の点として認識され、例えば第2物体M2の形状を高精度に検出可能である。Incidentally, the
[第4実施形態]
第4実施形態について説明する。本実施形態において、検出装置1の構成については適宜図1を参照する。本実施形態において、第2物体M2上の点であるか否かの判定に用いられる閾値(例、図4の距離D)は、可変値である。物体識別部13(図1参照)は、位置検出部2が検出した物体M上の第1点と、その周囲の第2点とに基づいて閾値を設定し、設定した閾値を用いて第1点が第2物体M2上の点であるか否かを識別(判定)する。[Fourth Embodiment]
A fourth embodiment will be described. In the present embodiment, FIG. 1 is appropriately referred to for the configuration of the
図11は、本実施形態に係る物体識別部13による物体識別処理を示す図である。図11において、図10と同様の要素については同じ符号を付してその説明を簡略化あるいは省略する。物体識別部13は、図10と同様に、Z方向に領域を分割し、分割した領域ごとに第2物体M2の位置情報を識別する。物体識別部13は、領域を分割しないで物体識別処理を実行してもよい。
FIG. 11 is a diagram showing an object identification process by the
領域Q5において、符号Viは、物体識別部13が設定する閾値(第3閾値)である。物体識別部13は、位置検出部2が検出した物体Mにおける第1点(例、点Pj)の周囲の第2点(例、点Pj−1、点Pj+1)と面推定部12が推定した物体面(この場合、平面)(推定平面FP)との距離に基づいて閾値Viを設定する。閾値Viは、第1距離(例、hj)と第2距離(例、hj−1とhj+1との一方又は双方)を変数とする関数である。閾値Viは、例えば、第1距離と第2距離とに重み付けした値(加重平均)であり、下記の式(3)で表される。式(3)のC1、C2、及びC3は、係数(重み付け係数)である。C1、C2、及びC3は、互いに異なる値でもよいし、少なくとも2つが同じ値でもよい。
Vi=C1hi−1+C2hi+C3hi+1 ・・・式(3)In the region Q5, the code V i is the threshold set by the object identification unit 13 (third threshold value). The
V i = C 1 h i-1 + C 2 h i + C 3 h i + 1 ... Equation (3)
物体識別部13は、第1点(例、点Pi)と面推定部12が推定した平面(推定平面FP)との距離(例、距離hi)と第3閾値(例、閾値Vi)とを比較して、第1点が第2物体M2に属するか否かを判定する。物体識別部13は、距離hiが閾値Vi以上である場合、点Piが第2物体M2上の点である(第1物体M1上の点でない)と識別する。例えば、推定平面FPの近傍の点(例、点Pj)は、推定平面FPとの距離(例、距離hj)に対して閾値(例、閾値Vj)が小さくなる。したがって、物体識別部13は、推定平面FPの近傍の点(例、点Pj)を第2物体M2上の点として識別する。また、第1点(例、点Pi)が推定平面FP上の点である場合、閾値Viは小さいがh(i)が0となる。このように、物体識別部13は、距離hiが閾値Vi未満である場合、点Piが第2物体M2上の点でない(第1物体M1上の点である)と識別する。このように、物体識別部13は、推定平面FPの近傍の点と推定平面FP上の点とを高精度に識別可能であり、検出装置1は、例えば第2物体M2の形状を高精度に検出可能である。
図10および図11で説明したように、物体識別部13は、第1点(例、点Pi)と推定平面FPとの距離(例、hi)に基づく値(例、距離hi、評価値di)と、閾値との相対値(例、コントラスト)を調整して、第1点(例、点Pi)が第2物体M2上の点であるか否かを識別してもよい。なお、処理装置3は、上記相対値(例、コントラスト)を強調する第1モードと、上記相対値(例、コントラスト)を強調しない第2モードとを有してもよい。処理装置3は、例えばユーザの指定によって、上記第1モードと第2モードとを切替可能に構成してもよい。また、処理装置3は、上記第1モードまたは第2モードを有さなくてもよい。As described in FIGS. 10 and 11, the
また、図10および図11で説明したように、物体識別部13は、分割された領域(例、Zm≦Z<Zm+1の領域)ごとに物体識別処理を実行する場合、例えば第1点の周囲の第2点を探索する処理の負荷が低減される。また、物体識別部13は、分割された領域の点群データPDmに含まれる点のデータを二次元データ(二次元座標)として物体識別処理を実行する場合、例えば距離を算出する処理の負荷が低減される。Further, as described with reference to FIGS. 10 and 11, when the
なお、物体識別部13は、全体の領域に対して一括して(例、領域を分割せずに)物体識別処理を実行してもよい。また、物体識別部13は、点群データPDに含まれる点のデータを三次元データ(三次元座標)として物体識別処理を実行してもよい。この場合、物体識別部13は、例えば、第1点の周囲の第2点(例、最近点)を高精度に特定することができる。また、物体識別部13は、例えば、各点と推定平面FPとの距離を高精度に算出して第2物体M2に属する点を識別することができる。また、第2点の数は、図10および図11において2つであるが、1つでもよいし、3つ以上でもよい。
The
なお、物体識別部13は、推定平面FPからの距離hiが所定の範囲内の点に対して第3閾値を設定し、距離hiと設定した第3閾値と比較して第2物体M2の位置情報を識別する処理を実行してもよい。更に、例えば、物体識別部13は、推定平面FPからの距離(hi)が第1閾値(例、D)よりも大きい点については、第1閾値を用いて物体識別処理を実行し、第3閾値を算出しなくてもよい。また、物体識別部13は、第1閾値(例、D)よりも小さい第5閾値を用いて、推定平面FPからの距離(hi)が第5閾値よりも小さい点については第3閾値を導出しなくてもよい。物体識別部13は、例えば、推定平面FPからの距離(hi)が第5閾値未満の点を、第2物体M2上の点ではない(第1物体M1上の点である)と識別してもよい。また、第3閾値を算出する関数は、式(3)の関数に限定されず、適宜変更可能である。Incidentally, the
なお、物体識別部13は、図4の物体識別処理と、図10の物体識別処理と、図11の物体識別処理との少なくとも2つを組み合わせた処理によって、第2物体M2の位置情報を識別してもよい。例えば、物体識別部13は、上記したような複数の閾値を用いて、いずれの物体識別処理を実行するかを決定してもよい。また、物体識別部13は、図10のように算出した評価値diと、図11のように設定した閾値Viとの比較によって、第2物体M2の位置情報を識別してもよい。The
[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、第5実施形態に係る検出装置を示す図である。本実施形態に係る検出装置1は、例えばユーザから指定される条件に基づいて、第1物体M1における表面SFを物体面(この場合、平面)として推定する。[Fifth Embodiment]
A fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 12 is a diagram showing a detection device according to a fifth embodiment. The
検出装置1は、入力部21と、表示部22とを備える。入力部21は、処理装置3に対する各種情報(例、データ、指令)の入力を受け付ける。入力部21は、第1物体M1の面を指定する情報(例、物体面に関する初期状態の情報)の入力を受け付ける。ユーザは、入力部21を操作することによって、処理装置3に対して各種情報を入力可能である。入力部21は、例えば、キーボード、マウス、トラックボール、タッチパネル、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。表示部22は、処理装置3から出力される画像のデータに基づいて、この画像を表示する。表示部22は、例えば、液晶ディスプレイを含む。表示部22および入力部21は、タッチパネルなどでもよい。
The
次に、本実施形態に係る平面推定処理について説明する。本実施形態において、位置検出部2は、図8で説明したように第2物体M2が第1位置(例、対象領域AR外)に配置された第1状態Q1と、第2物体M2が第1位置と異なる第2位置(例、対象領域内)に配置された第2状態とのそれぞれにおいて、対象領域ARにおける物体Mの位置情報(例、デプス)を検出する。面推定部12は、第1状態Q1に対応する位置検出部2の検出結果(例、デプスの測定値)に基づいて、平面推定処理を実行する。
Next, the plane estimation process according to the present embodiment will be described. In the present embodiment, in the
図13は、第5実施形態に係る平面推定処理を示す図である。図3のデプスマップDM1では第2物体M2に対する検出結果が含まれるのに対して、図13のデプスマップDM3では第2物体M2に対する検出結果が含まれていない。点群データ生成部15は、デプスマップDM3に対して点群処理を実行し、第3点群データを生成する。面推定部12は、第3点群データに基づいて平面を推定する。例えば、面推定部12は、推定平面FPの候補として、平面FP3、平面FP4、及び平面FP5を推定する。例えば、平面FP3および平面FP4は、それぞれ、第2物体M2が配置されることが想定される空間の周囲の壁面である。平面FP4は、例えば、上記空間の床面、地面、又は路面である。
FIG. 13 is a diagram showing a plane estimation process according to the fifth embodiment. The depth map DM1 of FIG. 3 includes the detection result for the second object M2, whereas the depth map DM3 of FIG. 13 does not include the detection result for the second object M2. The point cloud
処理装置3は、平面FP3、平面FP4、及び平面FP5を表す画像Imを表示部22に表示する。入力部21は、第1物体M1の面を指定する情報として、推定平面の候補(平面FP3、平面FP4、平面FP5)のうち平面を指定(例、選択)する情報の入力を受け付ける。ユーザは、例えば、入力部21としてマウスを操作することによって、表示部22上においてポインタPTを所望の平面(例、平面FP4)上に移動させ、クリック動作などによって平面を指定する。
The processing device 3 displays an image Im representing the plane FP3, the plane FP4, and the plane FP5 on the
入力部21は、ユーザから入力された情報(例、マウスの移動情報、クリックの有無の情報)を処理装置3に出力する。処理装置3(面推定部12)は、入力部21から出力された情報に基づいて、指定された平面(例、平面FP4)を特定する。面推定部12は、ユーザが指定する平面として特定された平面を推定平面FPとして採用し、推定平面FPを表す情報を記憶部14に記憶させる。
The
また、点群データ生成部15は、第2状態Q2に対応する位置検出部2の検出結果(例、デプスの測定値、図3のデプスマップDM1)に対して点群処理を実行し、第4点群データを生成する。物体識別部13は、第3点群データから得られる推定平面FPと、第4点群データとに基づいて、物体識別処理を実行する。
Further, the point cloud
なお、第1物体M1の面を指定する情報は、対象領域ARにおける第2物体M2に対する第1物体M1の位置(例、相対位置)を指定する情報を含んでもよい。例えば、第2物体M2に対する第1物体M1の位置は、第2物体M2が存在する位置に基づき設定される第1物体M1が存在する位置でもよい。また、第2物体M2に対する第1物体M1の位置は、第2物体M2が配置される予定の位置に基づき設定される第1物体M1が存在する位置でもよい。また、第1物体M1の面を指定する情報は、対象領域ARにおける第2物体M2に対する第1物体M1の方向を指定する情報を含んでもよい。例えば、第2物体M2に対する第1物体M1の方向は、第2物体M2が存在する位置に対して第1物体M1が存在する方向でもよい。また、第2物体M2に対する第1物体M1の方向は、第2物体M2が配置される予定の位置に対して第1物体M1が存在する方向でもよい。 The information for designating the surface of the first object M1 may include information for designating the position (eg, relative position) of the first object M1 with respect to the second object M2 in the target area AR. For example, the position of the first object M1 with respect to the second object M2 may be the position where the first object M1 exists, which is set based on the position where the second object M2 exists. Further, the position of the first object M1 with respect to the second object M2 may be the position where the first object M1 is set based on the position where the second object M2 is scheduled to be arranged. Further, the information for designating the surface of the first object M1 may include information for designating the direction of the first object M1 with respect to the second object M2 in the target area AR. For example, the direction of the first object M1 with respect to the second object M2 may be the direction in which the first object M1 exists with respect to the position where the second object M2 exists. Further, the direction of the first object M1 with respect to the second object M2 may be the direction in which the first object M1 exists with respect to the position where the second object M2 is scheduled to be arranged.
なお、面推定部12は、予め設定された算出条件に基づいて上記の平面を推定してもよい。入力部21は、算出条件を設定する際の情報の入力に用いられてもよい。検出装置1は、入力部21と表示部22との一方または双方を備えなくてもよい。例えば、入力部21は検出装置1に外付け可能なデバイスであって、検出装置1は、入力部21が取り付けられていない状態で提供されてもよい。また、表示部22は検出装置1に外付け可能なデバイスであって、検出装置1は、表示部22が取り付けられていない状態で提供されてもよい。
The
[第6実施形態]
第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図14は、第6実施形態に係る検出装置を示す図である。本実施形態に係る検出装置1は、対象領域ARにおける鉛直方向を検出する方向検出部23を備える。面推定部12は、方向検出部23が検出した鉛直方向の下方の物体面(この場合、平面)を推定平面として推定する。[Sixth Embodiment]
The sixth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 14 is a diagram showing a detection device according to a sixth embodiment. The
方向検出部23は、例えば、加速度センサ、地磁気センサ、及び慣性計測センサ(IMU)の少なくとも1つを含む。方向検出部23は、重力加速度の向きを検出する。方向検出部23は、検出装置1(例、位置検出部2)の姿勢を検出してもよい。面推定部12は、方向検出部23の検出結果に基づいて、点群データにおいて鉛直方向の下方に相当する向き(例、ベクトル)を算出する。面推定部12は、算出した向きを法線方向とする平面を推定平面FPとして導出する。
The
[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図15は、第7実施形態に係る検出装置を示す図である。本実施形態において、処理装置3は、レンダリング処理部24を備える。[7th Embodiment]
A seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 15 is a diagram showing a detection device according to a seventh embodiment. In the present embodiment, the processing device 3 includes a
レンダリング処理部24は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部24は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部24は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。
The
レンダリング処理部24は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部24は、例えば、描画処理によって、モデル情報(例、形状情報)から推定画像を再構成できる。レンダリング処理部24は、例えば、算出した推定画像のデータを記憶部56に記憶させる。
In the drawing process, the
また、レンダリング処理部24は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部24は、推定画像上の物体の表面に、対象物と別のテクスチャを貼り付けた推定画像を算出することができる。レンダリング処理部24は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部24は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。
Further, in the texture mapping process, the
処理装置3は、レンダリング処理部24が生成した推定画像を、表示部22に表示させる。例えば、レンダリング処理部24は、ユーザが入力部21を用いて指定する条件(例、視点の位置、視点の方向)に基づいて描画処理を実行して推定画像を生成し、推定画像を表示部22に表示させる。ユーザは、指定した条件で生成される推定画像を表示部22上でみることができる。
The processing device 3 causes the
実施形態において、物体識別部13は、第2物体M2を第1物体M1に対して識別可能であるので、モデル生成部11は、例えば第2物体M2を高精度にセグメント化して形状情報を生成することができる。レンダリング処理部24は、第2物体M2が高精度にセグメント化されて生成される形状情報に基づいて推定画像を生成するので、例えば、推定画像において第2物体M2を高精度に表すことができる。
In the embodiment, since the
なお、処理装置3は、レンダリング処理部24を備えなくてもよい。レンダリング処理部24は、処理装置3の外部に設けられてもよい。処理装置3は、物体識別部13の識別結果に基づいてモデル生成部11が生成したモデル情報を、処理装置3の外部に設けられるレンダリング処理部24に出力してもよい。
The processing device 3 does not have to include the
[第8実施形態]
第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図16は、第8実施形態に係る検出装置を示す図である。本実施形態において、処理装置3は、姿勢推定部25を備える。姿勢推定部25は、物体識別部13の識別結果に基づいてモデル生成部11が生成するモデル情報を用いて、第2物体M2の姿勢を推定する(姿勢解析処理)。ここでは、第2物体M2が人体であり、物体面としての表面SFが床面であるとする。[8th Embodiment]
An eighth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 16 is a diagram showing a detection device according to an eighth embodiment. In the present embodiment, the processing device 3 includes a
姿勢推定部25は、人体M2の特徴的な部分(例、特徴部分、特徴点)の位置情報を生成する。人体M2の特徴部分は、例えば、人体M2のうち他の部分と区別可能な部分である。人体M2の特徴部分は、例えば、人体の末端部(例、足先)、関節(例、膝)、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。特徴部分の位置情報は、例えば、特徴部分を代表する点の座標(例、3次元座標)を含む。
The
姿勢推定部25は、例えば、モデル生成部11(例、点群データ生成部15)が生成した形状情報(例、点群データ)を用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部分の位置情報を生成する。姿勢推定部25は、上記の認識処理によって、特徴部分を表す点の座標を算出し、複数の特徴部位(例、足先、膝、股関節)の相対位置によって、人体の少なくとも一部(例、脚部)の姿勢を推定する。
The
人体M2が床面SF上で歩行する場合、例えば、床面SFに接した足の足先(足首から先の部分)が床面SFの近くに配置される状態がある。最初に、実施形態に係る面推定部12は、位置検出部2が検出した上記の位置情報を用いて床面SFを平面で推定する。その後、物体識別部13は、面推定部12が推定した床面SFとの距離が閾値以上の部分と、面推定部12が推定した床面SFとの距離が閾値未満の部分(床面近傍の部分)とのコントラストを強調する。モデル生成部11は、物体識別部13の識別結果を用いることで、足部の抽出誤差を小さくして分離精度を向上させることができる。モデル生成部11は、例えば、人体M2のうち床面SFと接触する部分(例、手先、足先)の高精度な形状情報を生成することができる。姿勢推定部25は、高精度な形状情報に基づいて人体M2の特徴部分を高精度に抽出することができ、人体M2の姿勢を高精度に推定することができる。
When the human body M2 walks on the floor surface SF, for example, there is a state in which the toes (the portion from the ankle to the tip) of the foot in contact with the floor surface SF are arranged near the floor surface SF. First, the
姿勢推定部25は、人体M2の動作(例、運動)を検出(例、推定)してもよい。姿勢推定部25は、フェンシング、野球、サッカー、ゴルフ、剣道、アメリカンフットボール、アイスホッケー、体操などのスポーツ、ダンス、芸能、ランニング、エクササイズ、ヨガ、ボディビル、ファッションショーなどのウォーキングもしくはポージング、ゲーム、人物認証、又は仕事において人体M2の動作を検出してもよい。例えば、姿勢推定部25は、人体M2の姿勢に基づいて、人体M2が歩行する動作を検出してもよい。
The
なお、処理装置3は、姿勢推定部25を備えなくてもよい。姿勢推定部25は、処理装置3の外部に設けられてもよい。処理装置3は、物体識別部13の識別結果に基づいてモデル生成部11が生成したモデル情報を、処理装置3の外部に設けられる姿勢推定部25に出力してもよい。
The processing device 3 does not have to include the
上述の実施形態において、処理装置3は、例えばコンピュータシステムを含む。処理装置3は、記憶部14に記憶されている処理プログラム(検出プログラム)を読み出し、この処理プログラムに従って各種の処理を実行する。この処理プログラムは、コンピュータに、対象領域ARにおける第1物体M1及び第2物体M2を含む物体M上の各点の位置情報を検出した検出結果に基づく第1物体M1の物体面(推定平面FP)と、物体M上の各点との距離に基づいて、物体面(推定平面FP)に接触する第2物体M2の少なくとも一部を物体面(推定平面FP)に対して識別すること、を実行させる。この処理プログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。
In the above-described embodiment, the processing device 3 includes, for example, a computer system. The processing device 3 reads a processing program (detection program) stored in the
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。例えば、検出装置1は、位置検出部2と面推定部12と物体識別部13とを備える場合、第2物体M2を第1物体M1と識別して検出可能である。検出装置1は、位置検出部2と面推定部12と物体識別部13とを除いた部分の少なくとも一部を備えなくてもよい。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。検出装置1は、位置検出部2と面推定部12と物体識別部13との他に、所定の処理を実行する部分を備えてもよい。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. For example, when the
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、日本特許出願である特願2018−133517、及び、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, to the extent permitted by law, the disclosure of Japanese Patent Application No. 2018-133517 and all the documents cited in the above-described embodiments will be incorporated as part of the description of the main text.
1・・・検出装置、2・・・位置検出部、3・・・処理装置、4・・・検出部、M・・・物体、M1・・・第1物体、M2・・・第2物体、12・・・面推定部、13・・・物体識別部、14・・・記憶部、15・・・点群データ生成部、21・・・入力部、22・・・表示部、AR・・・対象領域、FP・・・推定平面 1 ... Detection device, 2 ... Position detection unit, 3 ... Processing device, 4 ... Detection unit, M ... Object, M1 ... First object, M2 ... Second object , 12 ... plane estimation unit, 13 ... object identification unit, 14 ... storage unit, 15 ... point cloud data generation unit, 21 ... input unit, 22 ... display unit, AR ...・ ・ Target area, FP ・ ・ ・ Estimated plane
Claims (19)
前記位置検出部の検出結果に基づく前記第1物体の物体面と、前記位置検出部が検出した前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別する物体識別部と、を備える検出装置。A position detection unit that detects the position information of each point on the object including the first object and the second object in the target area, and
At least of the second object in contact with the object surface based on the distance between the object surface of the first object based on the detection result of the position detection unit and each point on the object detected by the position detection unit. A detection device including an object identification unit that identifies a part of the object surface.
前記点群データ生成部が生成した点群データに基づいて前記物体面を求める、
請求項1に記載の検出装置。A point cloud data generation unit that generates point cloud data as position information of each point on the object is provided.
The object surface is obtained based on the point cloud data generated by the point cloud data generation unit.
The detection device according to claim 1.
前記点群データ生成部は、前記検出部の検出結果に基づいて前記点群データを生成する、
請求項2に記載の検出装置。The position detection unit includes a detection unit that detects the distance between each point on the object and a predetermined point as position information of each point on the object.
The point cloud data generation unit generates the point cloud data based on the detection result of the detection unit.
The detection device according to claim 2.
請求項1から請求項3のいずれか一項に記載の検出装置。The object identification unit identifies a point at which the distance from the object surface is equal to or greater than a predetermined value from the second object.
The detection device according to any one of claims 1 to 3.
請求項1から請求項4のいずれか一項に記載の検出装置。The object identification unit determines the first distance between the first point and the object surface of the object based on the second distance between the second point around the first point and the object surface. Is calculated, and the evaluation value is compared with the first threshold value to determine whether or not the first point belongs to the second object.
The detection device according to any one of claims 1 to 4.
請求項5に記載の検出装置。When the second distance is larger than the second threshold value, the object identification unit calculates, as the evaluation value, a value obtained by increasing the first distance based on the second distance.
The detection device according to claim 5.
請求項6に記載の検出装置。When the second distance is larger than the second threshold value, the object identification unit calculates, as the evaluation value, a value obtained by adding a value that decreases with respect to the second distance to the first distance.
The detection device according to claim 6.
請求項1から請求項7のいずれか一項に記載の検出装置。The object identification unit sets a third threshold value based on the distance between the second point around the first point in the object and the object surface, and the distance between the first point and the object surface and the third object surface. It is determined whether or not the first point belongs to the second object by comparing with the threshold value.
The detection device according to any one of claims 1 to 7.
前記方向検出部が検出した鉛直方向の下方の面を前記物体面とする、
請求項1から請求項8のいずれか一項に記載の検出装置。A direction detection unit for detecting the vertical direction in the target region is provided.
The lower surface in the vertical direction detected by the direction detection unit is defined as the object surface.
The detection device according to any one of claims 1 to 8.
請求項1から請求項9のいずれか一項に記載の検出装置。Derivation of the mathematical formula representing the object surface,
The detection device according to any one of claims 1 to 9.
請求項10に記載の検出装置。The object identification unit calculates the distance between the object surface and each point on the object by using the mathematical formula.
The detection device according to claim 10.
前記物体面は、前記入力部に入力された情報に基づいて決まるものである、
請求項1から請求項11のいずれか一項に記載の検出装置。It is provided with an input unit that accepts input of information that specifies the surface of the first object.
The object surface is determined based on the information input to the input unit.
The detection device according to any one of claims 1 to 11.
請求項1から請求項12のいずれか一項に記載の検出装置。The object surface is determined based on a change in the detection result of the position detection unit due to the movement of the second object.
The detection device according to any one of claims 1 to 12.
請求項1から請求項13のいずれか一項に記載の検出装置。A model generation unit that generates model information including shape information of the second object based on the position information of the second object identified by the object identification unit is provided.
The detection device according to any one of claims 1 to 13.
前記第2物体は人体を含み、
前記物体識別部は、前記人体のうち前記物体面に接触する部位の位置情報を識別する、
請求項1から請求項14のいずれか一項に記載の検出装置。The object surface includes a floor surface or the ground in the target area.
The second object includes the human body
The object identification unit identifies the position information of a portion of the human body that comes into contact with the object surface.
The detection device according to any one of claims 1 to 14.
前記検出の結果に基づく前記第1物体の物体面と、前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別することと、を含む検出方法。To detect the position information of each point on the object including the first object and the second object in the target area, and
At least a part of the second object in contact with the object surface is identified with respect to the object surface based on the distance between the object surface of the first object and each point on the object based on the detection result. And how to detect, including.
対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく前記第1物体の物体面と、前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別すること、を実行させる処理プログラム。On the computer
Based on the distance between the object surface of the first object and each point on the object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target area, the said A processing program that executes identification of at least a part of the second object in contact with the object surface with respect to the object surface.
前記位置情報に基づいて前記第1物体と前記第2物体とを識別する識別部と、を備える検出装置。A detection unit that detects the position information of each point on the object including the first object and the second object in the target area, and
A detection device including an identification unit that identifies the first object and the second object based on the position information.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018133517 | 2018-07-13 | ||
JP2018133517 | 2018-07-13 | ||
PCT/JP2019/026217 WO2020013021A1 (en) | 2018-07-13 | 2019-07-02 | Detecting device, processing device, detecting method, and processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020013021A1 true JPWO2020013021A1 (en) | 2021-08-02 |
JP7200994B2 JP7200994B2 (en) | 2023-01-10 |
Family
ID=69142427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020530127A Active JP7200994B2 (en) | 2018-07-13 | 2019-07-02 | Processing device, detection device, processing method, and processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7200994B2 (en) |
WO (1) | WO2020013021A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112021001777T5 (en) | 2020-03-23 | 2023-01-12 | Fanuc Corporation | Image processing device and image processing method |
JP7424348B2 (en) | 2021-05-31 | 2024-01-30 | セイコーエプソン株式会社 | Detection method and detection system |
JP2024052374A (en) * | 2022-09-30 | 2024-04-11 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143659A (en) * | 1996-11-06 | 1998-05-29 | Komatsu Ltd | Object detector |
US7995055B1 (en) * | 2007-05-25 | 2011-08-09 | Google Inc. | Classifying objects in a scene |
JP2013042411A (en) * | 2011-08-18 | 2013-02-28 | Ricoh Co Ltd | Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon |
JP2016170610A (en) * | 2015-03-12 | 2016-09-23 | セコム株式会社 | 3D model processing apparatus and camera calibration system |
JP2017167671A (en) * | 2016-03-14 | 2017-09-21 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2017217268A (en) * | 2016-06-08 | 2017-12-14 | パラマウントベッド株式会社 | Rehabilitation support control device and computer program |
WO2017217268A1 (en) * | 2016-06-17 | 2017-12-21 | コニカミノルタ株式会社 | Image processing device, image processing method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6519505B2 (en) * | 2016-03-15 | 2019-05-29 | オムロン株式会社 | Object detection apparatus, object detection method, and program |
JP2018049498A (en) * | 2016-09-23 | 2018-03-29 | キヤノン株式会社 | Image processing apparatus, operation detection method, computer program, and storage medium |
-
2019
- 2019-07-02 WO PCT/JP2019/026217 patent/WO2020013021A1/en active Application Filing
- 2019-07-02 JP JP2020530127A patent/JP7200994B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143659A (en) * | 1996-11-06 | 1998-05-29 | Komatsu Ltd | Object detector |
US7995055B1 (en) * | 2007-05-25 | 2011-08-09 | Google Inc. | Classifying objects in a scene |
JP2013042411A (en) * | 2011-08-18 | 2013-02-28 | Ricoh Co Ltd | Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon |
JP2016170610A (en) * | 2015-03-12 | 2016-09-23 | セコム株式会社 | 3D model processing apparatus and camera calibration system |
JP2017167671A (en) * | 2016-03-14 | 2017-09-21 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2017217268A (en) * | 2016-06-08 | 2017-12-14 | パラマウントベッド株式会社 | Rehabilitation support control device and computer program |
WO2017217268A1 (en) * | 2016-06-17 | 2017-12-21 | コニカミノルタ株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2020013021A1 (en) | 2020-01-16 |
JP7200994B2 (en) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101650799B1 (en) | Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose | |
US9330307B2 (en) | Learning based estimation of hand and finger pose | |
US8824781B2 (en) | Learning-based pose estimation from depth maps | |
US9159134B2 (en) | Method and apparatus for estimating a pose | |
US9842405B2 (en) | Visual target tracking | |
US8565476B2 (en) | Visual target tracking | |
CN107392086B (en) | Human body posture assessment device, system and storage device | |
US20100195867A1 (en) | Visual target tracking using model fitting and exemplar | |
JP7200994B2 (en) | Processing device, detection device, processing method, and processing program | |
JP5868426B2 (en) | How to estimate the orientation of a stationary person | |
US20220206156A1 (en) | Correction method, non-transitory computer-readable storage medium for storing correction program, and information processing device | |
US20130069939A1 (en) | Character image processing apparatus and method for footskate cleanup in real time animation | |
US11885611B2 (en) | Detection device, processing device, equipment, detection method, and detection program | |
JP2009288917A (en) | Information processor, information processing method and program | |
JP7024876B2 (en) | Detection device, processing device, detection method, and processing program | |
US20250005073A1 (en) | Image processing apparatus, and image processing method | |
JP7647032B2 (en) | DETECTION APPARATUS, PROCESSING APPARATUS, AND PROCESSING PROGRAM | |
JP2004258931A (en) | Image processing method, image processor, and image processing program | |
JP7147848B2 (en) | Processing device, posture analysis system, processing method, and processing program | |
JP7234595B2 (en) | Detection device, processing device, detection method, and processing program | |
Dunn | Video-based step measurement in sport and daily living | |
Tanathong et al. | Speeding up the KLT tracker for real-time image georeferencing using GPS/INS data | |
KR20240057549A (en) | System for deep learning based gesture recognition through time-of-flight sensor | |
HK1173829B (en) | Moving object segmentation using depth images | |
HK1173829A (en) | Moving object segmentation using depth images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7200994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |