[go: up one dir, main page]

JPWO2020013021A1 - Detection device, processing device, detection method, and processing program - Google Patents

Detection device, processing device, detection method, and processing program Download PDF

Info

Publication number
JPWO2020013021A1
JPWO2020013021A1 JP2020530127A JP2020530127A JPWO2020013021A1 JP WO2020013021 A1 JPWO2020013021 A1 JP WO2020013021A1 JP 2020530127 A JP2020530127 A JP 2020530127A JP 2020530127 A JP2020530127 A JP 2020530127A JP WO2020013021 A1 JPWO2020013021 A1 JP WO2020013021A1
Authority
JP
Japan
Prior art keywords
point
unit
distance
plane
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020530127A
Other languages
Japanese (ja)
Other versions
JP7200994B2 (en
Inventor
源洋 中川
源洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2020013021A1 publication Critical patent/JPWO2020013021A1/en
Application granted granted Critical
Publication of JP7200994B2 publication Critical patent/JP7200994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】互いに接触する第1物体と第2物体とを識別可能な検出装置を提供する。【解決手段】検出装置は、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出する位置検出部と、位置検出部の検出結果に基づく第1物体の物体面と、位置検出部が検出した物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別する物体識別部と、を備える。PROBLEM TO BE SOLVED: To provide a detection device capable of distinguishing a first object and a second object in contact with each other. A detection device includes a position detection unit that detects position information of each point on an object including a first object and a second object in a target region, and an object surface of the first object based on the detection result of the position detection unit. And an object identification unit that identifies at least a part of the second object in contact with the object surface with respect to the object surface based on the distance to each point on the object detected by the position detection unit.

Description

本発明は、検出装置、処理装置、検出方法、及び処理プログラムに関する。 The present invention relates to a detection device, a processing device, a detection method, and a processing program.

物体を検出する技術として、例えば下記の特許文献1に記載された技術がある。検出対象の物体は、互いに接触する第1物体および第2物体を含む場合がある。このような場合、例えば、第1物体と第2物体とを識別して検出可能であることが望まれる。例えば、床面上の人体を検出する場合、床面に接触する人体を床面と識別して高精度に検出可能であることが望まれる。 As a technique for detecting an object, for example, there is a technique described in Patent Document 1 below. The object to be detected may include a first object and a second object that are in contact with each other. In such a case, for example, it is desired that the first object and the second object can be identified and detected. For example, when detecting a human body on the floor surface, it is desired that the human body in contact with the floor surface can be identified from the floor surface and can be detected with high accuracy.

特開2010−134546号公報Japanese Unexamined Patent Publication No. 2010-134546

本発明の態様に従えば、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出する位置検出部と、位置検出部の検出結果に基づく第1物体の物体面と、位置検出部が検出した物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別する物体識別部と、を備える検出装置が提供される。 According to the aspect of the present invention, a position detection unit that detects the position information of each point on the object including the first object and the second object in the target region, and an object surface of the first object based on the detection result of the position detection unit. A detection device including the object identification unit that identifies at least a part of the second object in contact with the object surface with respect to the object surface based on the distance to each point on the object detected by the position detection unit. Provided.

本発明の態様に従えば、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく第1物体の物体面と、物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別する物体識別部、を備える処理装置が提供される。 According to the aspect of the present invention, the object surface of the first object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target region, and each point on the object. Provided is a processing device including an object identification unit that identifies at least a part of a second object in contact with the object surface with respect to the object surface based on the distance.

本発明の様態に従えば、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出することと、検出の結果に基づく第1物体の物体面と、物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別することと、を含む検出方法が提供される。 According to the mode of the present invention, the position information of each point on the object including the first object and the second object in the target region is detected, and the object surface of the first object based on the detection result and the object on the object. A detection method is provided that includes identifying at least a portion of a second object in contact with an object surface with respect to the object surface based on the distance to each point.

本発明の態様に従えば、コンピュータに、対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく第1物体の物体面と、物体上の各点との距離に基づいて、物体面に接触する第2物体の少なくとも一部を物体面に対して識別すること、を実行させる処理プログラムが提供される。 According to the aspect of the present invention, the object surface of the first object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target region by the computer, and each on the object. A processing program is provided that executes identification of at least a part of the second object in contact with the object surface with respect to the object surface based on the distance from the point.

第1実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 1st Embodiment. 第1実施形態に係る位置検出部を示す図である。It is a figure which shows the position detection part which concerns on 1st Embodiment. 第1実施形態に係る点群処理を示す図である。It is a figure which shows the point cloud processing which concerns on 1st Embodiment. 第1実施形態に係る平面推定処理、及び物体識別処理を示す図である。It is a figure which shows the plane estimation process and object identification process which concerns on 1st Embodiment. 第1実施形態に係る検出方法を示すフローチャートである。It is a flowchart which shows the detection method which concerns on 1st Embodiment. 第1実施形態に係る平面推定処理を示すフローチャートである。It is a flowchart which shows the plane estimation process which concerns on 1st Embodiment. 第1実施形態に係る物体識別処理を示すフローチャートである。It is a flowchart which shows the object identification process which concerns on 1st Embodiment. 第2実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 2nd Embodiment. 第2実施形態に係る検出方法を示すフローチャートである。It is a flowchart which shows the detection method which concerns on 2nd Embodiment. 第3実施形態に係る物体識別処理を示す図である。It is a figure which shows the object identification process which concerns on 3rd Embodiment. 第4実施形態に係る物体識別処理を示す図である。It is a figure which shows the object identification process which concerns on 4th Embodiment. 第5実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 5th Embodiment. 第5実施形態に係る平面推定処理を示す図である。It is a figure which shows the plane estimation process which concerns on 5th Embodiment. 第6実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 6th Embodiment. 第7実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 7th Embodiment. 第8実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 8th Embodiment.

[第1実施形態]
第1実施形態について説明する。図1は、実施形態に係る検出装置を示す図である。検出装置1は、対象領域ARにおける物体Mを検出する。対象領域ARは、検出装置1による検出の対象となる領域(例、検出装置1の検出領域、視野)である。図1において、物体Mは、第1物体M1と第2物体M2とを含む。第1物体M1は、例えば、対象領域ARにおいて固定された物体(例、床、壁、道路、階段、グラウンド、建築物、構造物などの静止物体)を含む。第1物体M1は、物体面の一例である表面SF(例、床面、壁面、天井面、地面、路面、斜面、凹面や凸面のような曲率を有する曲面など)を有する。
[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing a detection device according to an embodiment. The detection device 1 detects the object M in the target area AR. The target area AR is an area (eg, a detection area of the detection device 1 and a visual field) to be detected by the detection device 1. In FIG. 1, the object M includes a first object M1 and a second object M2. The first object M1 includes, for example, an object fixed in the target area AR (eg, a stationary object such as a floor, a wall, a road, a staircase, a ground, a building, or a structure). The first object M1 has a surface SF (eg, a floor surface, a wall surface, a ceiling surface, a ground surface, a road surface, a slope, a curved surface having a curvature such as a concave surface or a convex surface) which is an example of an object surface.

第2物体M2は、第1物体M1に対して分離可能(例、移動可能)な物体(例、移動する物体)を含む。第2物体M2は、例えば人体、動物、又はロボットを含む。第2物体M2は、第1物体M1の表面SFに接触可能である。例えば、第2物体M2は、対象領域AR外から対象領域AR内に移動して、第1物体M1の表面SFに接触する。また、第2物体M2は、表面SFに非接触な状態(例、対象領域AR外に配置された状態)と、表面SFに接触した状態(例、対象領域AR内に配置された状態)とのいずれの状態も取り得る。 The second object M2 includes an object (eg, a moving object) that is separable (eg, movable) with respect to the first object M1. The second object M2 includes, for example, a human body, an animal, or a robot. The second object M2 can come into contact with the surface SF of the first object M1. For example, the second object M2 moves from outside the target area AR into the target area AR and comes into contact with the surface SF of the first object M1. Further, the second object M2 is in a state of not contacting the surface SF (eg, a state of being placed outside the target area AR) and a state of being in contact with the surface SF (eg, a state of being placed in the target area AR). Any of the states can be taken.

検出装置1(検出システム)は、位置検出部2と、処理装置3とを備える。位置検出部2は、対象領域ARにおける第1物体M1及び第2物体M2を含む物体M上の各点の位置情報(例、デプス)を検出する。位置検出部2は、信号(入力信号)を物体Mに入力し、物体Mから出力される信号(出力信号)を検出する。上記の信号(入力信号、出力信号)は、例えば、光(可視光、非可視光、赤外光、紫外光)、及び音波(例、超音波)から選択されるエネルギー波を含む。 The detection device 1 (detection system) includes a position detection unit 2 and a processing device 3. The position detection unit 2 detects the position information (eg, depth) of each point on the object M including the first object M1 and the second object M2 in the target area AR. The position detection unit 2 inputs a signal (input signal) to the object M, and detects a signal (output signal) output from the object M. The above signals (input signal, output signal) include, for example, an energy wave selected from light (visible light, invisible light, infrared light, ultraviolet light) and sound waves (eg, ultrasonic waves).

位置検出部2は、検出部4(例、デプスセンサ、デプスカメラ、測距部)を含む。位置検出部2(検出部4)は、所定の点から物体Mにおける各点までのデプス(距離、奥行き、深度)を検出する。上記所定の点は、例えば、位置検出部2による検出の基準になる位置の点(例、視点、検出元の点、位置検出部2の位置の点)である。 The position detection unit 2 includes a detection unit 4 (eg, a depth sensor, a depth camera, a distance measuring unit). The position detection unit 2 (detection unit 4) detects the depth (distance, depth, depth) from a predetermined point to each point on the object M. The predetermined point is, for example, a point at a position that serves as a reference for detection by the position detection unit 2 (eg, a viewpoint, a point at the detection source, a point at the position of the position detection unit 2).

図2は、第1実施形態に係る位置検出部2を示す図である。位置検出部2(検出部4)は、照射部5、光学系6、及び撮像素子7を備える。照射部5は、検出の対象領域AR(空間、検出領域)に光La(例、パターン光、照射光、パルス光)を照射(例、投影)する。光Laは、例えば赤外光を含む。光学系6は、例えば結像光学系(撮像光学系)を含む。撮像素子7は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子7は、二次元的に配列された複数の画素を有する。撮像素子7は、光学系6を介して、物体Mを含む対象領域ARを撮像する。撮像素子7は、対象領域ARにおける物体(物体M)から光Laの照射によって放射される光Lb(赤外光、戻り光)を検出する。光Lbは、例えば赤外光を含む。 FIG. 2 is a diagram showing a position detection unit 2 according to the first embodiment. The position detection unit 2 (detection unit 4) includes an irradiation unit 5, an optical system 6, and an image pickup device 7. The irradiation unit 5 irradiates (eg, projects) light La (eg, pattern light, irradiating light, pulsed light) on the detection target area AR (space, detection area). Light La includes, for example, infrared light. The optical system 6 includes, for example, an imaging optical system (imaging optical system). The image sensor 7 includes, for example, a CMOS image sensor or a CCD image sensor. The image pickup device 7 has a plurality of pixels arranged two-dimensionally. The image sensor 7 images the target region AR including the object M via the optical system 6. The image sensor 7 detects light Lb (infrared light, return light) emitted by irradiation of light La from an object (object M) in the target region AR. The light Lb includes, for example, infrared light.

検出部4は、例えば、照射部5から照射される光Laのパターン(例、強度分布)と、撮像素子7によって検出された光Lbのパターン(強度分布、撮像画像)に基づいて、撮像素子7の各画素に対応する対象領域AR上の点から、撮像素子7の各画素までのデプスを検出する。位置検出部2は、その検出結果(領域位置情報)として、対象領域ARにおけるデプスの分布を表したデプスマップ(例、デプス画像、奥行き情報、距離情報)を処理装置3(図1参照)に出力する。 The detection unit 4 is based on, for example, a pattern of light La emitted from the irradiation unit 5 (eg, intensity distribution) and a pattern of light Lb detected by the image sensor 7 (intensity distribution, captured image). The depth from the point on the target region AR corresponding to each pixel of 7 to each pixel of the image sensor 7 is detected. As the detection result (area position information), the position detection unit 2 transmits a depth map (eg, depth image, depth information, distance information) showing the depth distribution in the target area AR to the processing device 3 (see FIG. 1). Output.

位置検出部2は、対象領域ARにおいて移動する物体(例、移動体、第2物体M2)を検出してもよい。この場合、検出部4は、所定のサンプリング周波数で物体の検出を繰り返してもよい。検出部4は、検出を実行するごとに、各検出時の位置情報(例、デプスマップ)を生成してもよい。位置検出部2は、検出部4が生成した物体の位置情報の時間変化に基づいて、物体の移動を検出してもよい。また、位置検出部2は、検出部4による検出時刻が異なる複数の検出結果を演算(例、平均値の算出)することによって、位置情報を生成してもよい。 The position detection unit 2 may detect a moving object (eg, a moving object, a second object M2) in the target area AR. In this case, the detection unit 4 may repeat the detection of the object at a predetermined sampling frequency. The detection unit 4 may generate position information (eg, depth map) at each detection each time the detection is executed. The position detection unit 2 may detect the movement of the object based on the time change of the position information of the object generated by the detection unit 4. Further, the position detection unit 2 may generate position information by calculating a plurality of detection results (eg, calculation of an average value) having different detection times by the detection unit 4.

なお、位置検出部2による位置情報の検出方法は、受動型計測でもよいし能動型計測でもよく、任意に設定される。位置検出部2は、TOF(time of flight)法によってデプスを検出するデバイスでもよい。また、位置検出部2は、TOF法以外の手法でデプスを検出するデバイスでもよい。位置検出部2は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによってデプスを検出するデバイスでもよい。位置検出部2は、例えば、位相差センサを含み、位相差法によってデプスを検出するデバイスでもよい。位置検出部2は、例えば、DFD(depth from defocus)法によってデプスを検出するデバイスでもよい。 The position information detection method by the position detection unit 2 may be passive measurement or active measurement, and is arbitrarily set. The position detection unit 2 may be a device that detects the depth by the TOF (time of flight) method. Further, the position detection unit 2 may be a device that detects the depth by a method other than the TOF method. The position detection unit 2 may include, for example, a laser scanner (eg, a laser rangefinder) and may be a device that detects the depth by laser scanning. The position detection unit 2 may be, for example, a device including a phase difference sensor and detecting the depth by the phase difference method. The position detection unit 2 may be, for example, a device that detects the depth by the DFD (depth from defocus) method.

なお、位置検出部2は、赤外光以外の光(例、可視光)を物体Mに照射し、物体Mから出射する光(例、可視光)を検出してもよい。位置検出部2は、例えばステレオカメラなどを含み、複数の視点から物体Mを検出(例、撮像)してもよい。位置検出部2は、複数の視点から物体Mを撮像した撮像画像を用いて、三角測量によってデプスを検出するデバイスでもよい。位置検出部2は、光学的な手法以外の手法(例、超音波によるスキャン)によって、デプスを検出してもよい。位置検出部2は、物体M上の各点と所定の点との距離を検出する第1検出部(例、検出部4)と、物体Mのテクスチャを検出する第2検出部(例、可視光を検出する撮像部)とを備えてもよい。 The position detection unit 2 may irradiate the object M with light other than infrared light (eg, visible light) and detect the light emitted from the object M (eg, visible light). The position detection unit 2 may include, for example, a stereo camera or the like, and may detect (eg, image) an object M from a plurality of viewpoints. The position detection unit 2 may be a device that detects the depth by triangulation using captured images obtained by capturing the object M from a plurality of viewpoints. The position detection unit 2 may detect the depth by a method other than the optical method (eg, scanning by ultrasonic waves). The position detection unit 2 includes a first detection unit (eg, detection unit 4) that detects the distance between each point on the object M and a predetermined point, and a second detection unit (eg, visible) that detects the texture of the object M. An imaging unit) that detects light) may be provided.

図1の説明に戻り、処理装置3は、位置検出部2が出力する情報(例、検出結果)を処理する情報処理装置である。処理装置3は、モデル生成部11と、面推定部12と、物体識別部13と、記憶部14とを備える。記憶部14は、例えば、不揮発性のメモリ、ハードディスク(HDD)、ソリッドステートドライブ(SSD)などである。記憶部14は、位置検出部2から出力された情報を記憶する。また、記憶部14は、処理装置3の各部で処理された情報を記憶する。 Returning to the description of FIG. 1, the processing device 3 is an information processing device that processes information (eg, detection result) output by the position detection unit 2. The processing device 3 includes a model generation unit 11, a surface estimation unit 12, an object identification unit 13, and a storage unit 14. The storage unit 14 is, for example, a non-volatile memory, a hard disk (HDD), a solid state drive (SSD), or the like. The storage unit 14 stores the information output from the position detection unit 2. Further, the storage unit 14 stores the information processed by each unit of the processing device 3.

モデル生成部11は、位置検出部2の検出結果を用いて、3次元のモデル情報を生成する。モデル生成部11は、例えば、対象領域ARにおける物体の少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、3次元のCGモデルデータ)を算出する。モデル情報は、対象領域ARにおける物体の形状情報を含む。モデル情報は、対象領域ARにおける物体のテクスチャ情報を含んでもよい。 The model generation unit 11 generates three-dimensional model information using the detection result of the position detection unit 2. For example, the model generation unit 11 performs computer graphic processing (CG processing) on at least a part of the object in the target area AR to calculate model information (eg, three-dimensional CG model data). The model information includes the shape information of the object in the target area AR. The model information may include the texture information of the object in the target area AR.

モデル生成部11は、点群データ生成部15と、サーフェス情報生成部16とを備える。点群データ生成部15は、物体M上の各点の位置情報として点群データを生成する点群処理を実行する。点群データは、対象領域ARにおける物体M(例、第1物体M1、第2物体M2)上の複数の点の3次元座標を含む。点群データ生成部15は、位置検出部2が検出した位置情報(例、デプス)に基づいて、物体Mの点群データを算出する。点群データ生成部15は、記憶部14に記憶されている位置検出部2の検出結果を読み出して、点群データを算出する。点群データ生成部15は、物体Mの形状情報として点群データを生成してもよい。 The model generation unit 11 includes a point cloud data generation unit 15 and a surface information generation unit 16. The point cloud data generation unit 15 executes a point cloud process that generates point cloud data as position information of each point on the object M. The point cloud data includes the three-dimensional coordinates of a plurality of points on the object M (eg, the first object M1 and the second object M2) in the target area AR. The point cloud data generation unit 15 calculates the point cloud data of the object M based on the position information (eg, depth) detected by the position detection unit 2. The point cloud data generation unit 15 reads out the detection result of the position detection unit 2 stored in the storage unit 14 and calculates the point cloud data. The point cloud data generation unit 15 may generate point cloud data as shape information of the object M.

図3は、第1実施形態に係る点群データ生成部による点群処理を示す図である。符号DM1は、位置検出部2の検出結果に相当するデプスマップ(デプス画像)である。デプスマップDM1は、位置検出部2によるデプスの測定値の空間分布を表す情報(例、画像)である。デプスマップDM1は、対象領域ARの各点におけるデプスを階調値で表したグレースケールの画像である。デプスマップDM1において、階調値が相対的に高い部分(例、白い部分、明るい部分)は、デプスが相対的に小さい部分(位置検出部2から相対的に近い部分)である。デプスマップDM1において、階調値が相対的に低い部分(例、黒い部分、暗い部分)は、デプスが相対的に大きい部分(位置検出部2から相対的に遠い部分)である。 FIG. 3 is a diagram showing point cloud processing by the point cloud data generation unit according to the first embodiment. Reference numeral DM1 is a depth map (depth image) corresponding to the detection result of the position detection unit 2. The depth map DM1 is information (eg, an image) representing the spatial distribution of the depth measurement values by the position detection unit 2. The depth map DM1 is a grayscale image in which the depth at each point of the target area AR is represented by a gradation value. In the depth map DM1, a portion having a relatively high gradation value (eg, a white portion, a bright portion) is a portion having a relatively small depth (a portion relatively close to the position detection unit 2). In the depth map DM1, a portion having a relatively low gradation value (eg, a black portion, a dark portion) is a portion having a relatively large depth (a portion relatively far from the position detection unit 2).

点群データ生成部15(図1参照)は、記憶部14からデプスマップDM1のデータを読み出し、デプスマップDM1の各画素の階調値(デプスの測定値)に基づいて、各画素に相当する実空間上の点の3次元座標を算出し、点群データPDを生成する。以下の説明において、適宜、1つの点の三次元座標を点データと称する。点群データPDは、複数の点データを一組にしたデータである。 The point cloud data generation unit 15 (see FIG. 1) reads the data of the depth map DM1 from the storage unit 14, and corresponds to each pixel based on the gradation value (measured value of depth) of each pixel of the depth map DM1. The three-dimensional coordinates of the points in the real space are calculated, and the point cloud data PD is generated. In the following description, the three-dimensional coordinates of one point are appropriately referred to as point data. The point cloud data PD is data in which a plurality of point data are set as a set.

図3における符号PDは、第1物体M1における表面SFとしての平面(例、床面)および第2物体M2(例、人体の足や手)に相当する点群データを表す。ここでは、点データの代わりに各点の位置に丸印を配置することで、点群データPDを概念的に表した。また、説明の便宜上、第1物体M1における点P1を黒の丸印で表し、第2物体M2における点P2を白の丸印で表した。 Reference numeral PD in FIG. 3 represents point group data corresponding to a plane (eg, floor surface) as the surface SF of the first object M1 and the second object M2 (eg, feet and hands of the human body). Here, the point cloud data PD is conceptually represented by arranging circles at the positions of each point instead of the point data. Further, for convenience of explanation, the point P1 in the first object M1 is represented by a black circle, and the point P2 in the second object M2 is represented by a white circle.

以下の説明において、適宜、位置検出部2の検出結果(例、デプスの測定値)に対して上記の点群処理を施した処理結果を、第1点群データと称する。第1点群データは、第1物体M1に相当する点群データと、第2物体M2に相当する点群データとを含む。第1点群データにおいて、第2物体M2に相当する点群データは、第1物体M1に相当する点群データと区別されていない。例えば、第1点群データにおいて、第1物体M1と第2物体M2とは区別されておらず、第2物体M2上の点P2は、第1物体M1に属するか否かが識別されない。 In the following description, the processing result obtained by subjecting the detection result (eg, the measured value of depth) of the position detection unit 2 to the above point cloud processing is referred to as the first point cloud data. The first point cloud data includes point cloud data corresponding to the first object M1 and point cloud data corresponding to the second object M2. In the first point cloud data, the point cloud data corresponding to the second object M2 is not distinguished from the point cloud data corresponding to the first object M1. For example, in the first point cloud data, the first object M1 and the second object M2 are not distinguished, and whether or not the point P2 on the second object M2 belongs to the first object M1 is not identified.

第1物体M1と第2物体M2とが互いに接触する部分において、第1物体M1上の点P1と第2物体M2上の点P2とは、連続的に分布する。第1物体M1と第2物体M2とが互いに接触する部分(例、境界の部分、オーバラップ部分などを含む)において、点P1の座標は、点P2の座標との差が小さい。このため、第2物体M2は、第1物体M1と接触する部分(接触領域)において、第1物体M1に対してその接触領域を識別することが難しい場合がある。 In the portion where the first object M1 and the second object M2 are in contact with each other, the point P1 on the first object M1 and the point P2 on the second object M2 are continuously distributed. In the portion where the first object M1 and the second object M2 are in contact with each other (including, for example, a boundary portion, an overlapping portion, etc.), the coordinates of the point P1 have a small difference from the coordinates of the point P2. Therefore, it may be difficult for the second object M2 to identify the contact area with respect to the first object M1 in the portion (contact area) in contact with the first object M1.

実施形態に係る検出装置1は、第1物体M1の表面SFを平面として推定(近似)する物体面推定処理(以下、平面推定処理と称する)と、平面推定処理によって推定された表面SFに対して第2物体M2を識別(区別、分類、セグメント分割、セグメント化)する物体識別処理とを実行する。以下、図1および図4を参照して、平面推定処理および物体識別処理について説明する。図4は、第1実施形態に係る面推定部による平面推定処理、及び物体識別部による物体識別処理を示す図である。図4の符号PD1は、第1点群データに相当し、符号P3は第1点群データに含まれる点データに相当する。 The detection device 1 according to the embodiment has an object surface estimation process (hereinafter referred to as a plane estimation process) that estimates (approximates) the surface SF of the first object M1 as a plane, and a surface SF estimated by the plane estimation process. The object identification process for identifying (distinguishing, classifying, segmenting, segmenting) the second object M2 is executed. Hereinafter, the plane estimation process and the object identification process will be described with reference to FIGS. 1 and 4. FIG. 4 is a diagram showing a plane estimation process by the surface estimation unit and an object identification process by the object identification unit according to the first embodiment. The reference numeral PD1 in FIG. 4 corresponds to the first point cloud data, and the reference numeral P3 corresponds to the point data included in the first point cloud data.

面推定部12は、位置検出部2の検出結果に基づいて、第1物体M1における平面を推定する。面推定部12は、第1物体M1における表面SF(図1参照)を、平面として推定する(平面で近似する)。以下の説明において、適宜、面推定部12が推定した平面を推定平面と称する。図4の符号FPは、推定平面に相当する。面推定部12は、推定平面FPを表す情報(以下、推定平面情報と称する)を生成する。面推定部12は、推定平面情報を記憶部14に記憶させる。 The surface estimation unit 12 estimates the plane of the first object M1 based on the detection result of the position detection unit 2. The surface estimation unit 12 estimates the surface SF (see FIG. 1) of the first object M1 as a plane (approximate by a plane). In the following description, the plane estimated by the surface estimation unit 12 is appropriately referred to as an estimation plane. The reference numeral FP in FIG. 4 corresponds to an estimation plane. The surface estimation unit 12 generates information representing the estimated plane FP (hereinafter, referred to as estimated plane information). The surface estimation unit 12 stores the estimated plane information in the storage unit 14.

面推定部12は、例えば、予め設定された算出条件を満たすように、上記の平面を推定する。上記算出条件は記憶部14に記憶されており、面推定部12は、記憶部14に記憶された算出条件を読み出し、平面推定処理を実行する。上記算出条件は、例えば、鉛直方向に対する角度が所定の範囲内である条件を含む。位置検出部2の検出結果から得られる物体の位置情報(例、点群データ)において実空間の鉛直方向に相当する方向は、位置検出部2の検出方向に基づいて予め設定される。面推定部12は、例えば、鉛直方向に対する角度が所定の範囲内(例、80°以上90°以下)である条件を満たす平面(例、水平面)を、推定平面として導出する。 The surface estimation unit 12 estimates the above-mentioned plane so as to satisfy a preset calculation condition, for example. The above calculation conditions are stored in the storage unit 14, and the surface estimation unit 12 reads out the calculation conditions stored in the storage unit 14 and executes the plane estimation process. The above calculation condition includes, for example, a condition in which the angle with respect to the vertical direction is within a predetermined range. In the position information (eg, point cloud data) of the object obtained from the detection result of the position detection unit 2, the direction corresponding to the vertical direction in the real space is preset based on the detection direction of the position detection unit 2. The surface estimation unit 12 derives, for example, a plane (eg, a horizontal plane) satisfying the condition that the angle with respect to the vertical direction is within a predetermined range (eg, 80 ° or more and 90 ° or less) as an estimation plane.

推定平面FPの算出条件は、鉛直方向に対する角度以外の条件を含んでもよい。例えば、推定平面FPの算出条件は、面積が所定値以上である条件を含んでもよい。この場合、面推定部12は、点群データに基づいて推定平面FPの候補を導出し、この候補の面積が所定値以上である場合に、この候補を推定平面として採用(例、決定、特定)してもよい。面推定部12は、例えば、想定される第2物体M2(例、人体)のスケールに対して推定平面の候補のスケールが小さい場合に、この候補を推定平面として採用しなくてもよい。上記の所定値は、例えば、対象領域AR(例、位置検出部2の視野)のサイズに対する比率で与えられてもよい。 The calculation condition of the estimated plane FP may include a condition other than the angle with respect to the vertical direction. For example, the calculation condition of the estimated plane FP may include a condition that the area is equal to or larger than a predetermined value. In this case, the surface estimation unit 12 derives a candidate for the estimation plane FP based on the point cloud data, and when the area of this candidate is equal to or larger than a predetermined value, adopts this candidate as the estimation plane (eg, determination, identification). ) May. The surface estimation unit 12 does not have to adopt this candidate as the estimation plane when, for example, the scale of the candidate of the estimation plane is smaller than the scale of the assumed second object M2 (eg, human body). The above predetermined value may be given, for example, as a ratio to the size of the target region AR (eg, the field of view of the position detection unit 2).

また、面推定部12は、点群データ生成部15が生成した点群データに基づいて上記の平面を推定する。面推定部12は、点群データから選択される複数の点の3次元座標を用いて、平面を推定する。面推定部12は、例えば、最小二乗法を用いて平面を推定する。この場合、面推定部12は、選択した複数の点からの距離の二乗和が最小となる平面を、推定平面FPとする。面推定部12は、推定平面FPを表す数式を導出する。面推定部12は、推定平面FPを表す数式(例、ax+by+cz+d=0)における係数(a、b、c、f)を算出する。面推定部12は、推定平面情報として、推定平面FPを表す数式の係数を記憶部14に記憶させる。 Further, the surface estimation unit 12 estimates the above plane based on the point cloud data generated by the point cloud data generation unit 15. The surface estimation unit 12 estimates a plane using the three-dimensional coordinates of a plurality of points selected from the point cloud data. The surface estimation unit 12 estimates a plane using, for example, the least squares method. In this case, the plane estimation unit 12 uses the plane that minimizes the sum of squares of the distances from the selected plurality of points as the estimation plane FP. The surface estimation unit 12 derives a mathematical formula representing the estimated plane FP. The surface estimation unit 12 calculates the coefficients (a, b, c, f) in the mathematical formula (eg, ax + by + cz + d = 0) representing the estimated plane FP. The surface estimation unit 12 stores the coefficient of the mathematical formula representing the estimated plane FP in the storage unit 14 as the estimated plane information.

なお、面推定部12は、最小二乗法以外の推定法を用いて平面を推定してもよい。例えば、面推定部12は、M推定法、RAMSAC、最小メジアン法、及びトンプソン法の少なくとも1つの推定法を用いて平面を推定してもよい。また、面推定部12は、第1の推定法で推定した平面と、第2の推定法で推定した平面との比較等によって、推定平面FPを決定してもよい。 The plane estimation unit 12 may estimate the plane by using an estimation method other than the least squares method. For example, the surface estimation unit 12 may estimate the plane using at least one estimation method of the M estimation method, RAMSAC, minimum median method, and Thompson method. Further, the surface estimation unit 12 may determine the estimated plane FP by comparing the plane estimated by the first estimation method with the plane estimated by the second estimation method.

また、面推定部12は、上記第1点群データに含まれる複数の点の全てを選択して、選択した点を用いて上記の平面を推定してもよい。また、面推定部12は、上記第1点群データに含まれる複数の点の一部(例、部分集合)を選択して、選択した点を用いて平面を推定してもよい。面推定部12が複数の点を選択する条件は、固定でもよいし、可変でもよい。 Further, the surface estimation unit 12 may select all of the plurality of points included in the first point cloud data and estimate the plane using the selected points. Further, the surface estimation unit 12 may select a part (eg, subset) of a plurality of points included in the first point cloud data and estimate a plane using the selected points. The condition for the surface estimation unit 12 to select a plurality of points may be fixed or variable.

面推定部12は、複数の点を選択する条件を調整してもよい。例えば、面推定部12は、選択した複数の点と、推定した平面との残差に基づいて複数の点の選択を更新し、更新した複数の点に基づいて上記の平面を推定してもよい。上記の残差は、例えば、選択された各点と、推定された平面との距離の二乗平均平方根(RMS)でもよい。例えば、面推定部12は、複数の点を含む第1グループに基づいて、推定平面の候補として第1平面を推定する。また、面推定部12は、第1グループのうち第1平面との距離が相対的に大きい点を第1グループから除外した第2グループを選択してもよい。面推定部12は、第2グループに基づいて、推定平面の候補として第2平面を推定してもよい。面推定部12は、例えば、上記残差が閾値以下となるまで複数の点の選択を更新し、得られた平面を推定平面として採用してもよい。 The surface estimation unit 12 may adjust the conditions for selecting a plurality of points. For example, the surface estimation unit 12 may update the selection of a plurality of points based on the residuals between the selected plurality of points and the estimated plane, and estimate the above plane based on the updated plurality of points. good. The above residuals may be, for example, the root mean square (RMS) of the distance between each selected point and the estimated plane. For example, the surface estimation unit 12 estimates the first plane as a candidate for the estimation plane based on the first group including a plurality of points. Further, the surface estimation unit 12 may select a second group in which points having a relatively large distance from the first plane in the first group are excluded from the first group. The surface estimation unit 12 may estimate the second plane as a candidate for the estimation plane based on the second group. The surface estimation unit 12 may update the selection of a plurality of points until the residual is equal to or less than the threshold value, and adopt the obtained plane as the estimation plane.

物体識別部13は、物体Mの平面(例、凹凸の無い又は少ない表面SF)に接触する第2物体M2の少なくとも一部(例、上記の平面付近の部分)を、平面(例、表面SF)に対して識別する(特定する、抽出する)。物体識別部13は、対象領域ARのうち第2物体M2の少なくとも一部を識別(セグメント化、セグメント分割)する。物体識別部13は、位置検出部2が検出した物体M上の各点と面推定部12が推定した推定平面FPとの距離に基づいて、物体識別処理を実行する。物体識別部13は、面推定部12が推定した推定平面FPとの距離が閾値未満(例、1mm未満、1cm未満)である物体M上の各点を除外して、第2物体M2の位置情報(例、点データ、点群データ)を特定する(抽出する、識別する)。 The object identification unit 13 makes at least a part of the second object M2 (eg, a portion near the above-mentioned plane) in contact with the plane of the object M (eg, a surface SF having no or less unevenness) a plane (eg, a surface SF). ) To identify (identify, extract). The object identification unit 13 identifies (segments, segments) at least a part of the second object M2 in the target area AR. The object identification unit 13 executes the object identification process based on the distance between each point on the object M detected by the position detection unit 2 and the estimated plane FP estimated by the surface estimation unit 12. The object identification unit 13 excludes each point on the object M whose distance from the estimated plane FP estimated by the surface estimation unit 12 is less than the threshold value (eg, less than 1 mm and less than 1 cm), and the position of the second object M2. Identify (extract, identify) information (eg, point data, point group data).

図4において、符号FP1および符号FP2は、推定平面FPに対する距離Dが上記閾値となる平面である。平面FP1は、推定平面FPに対して第1側(例、鉛直上方側)に配置されている。平面FP2は、推定平面に対して第1側と反対の第2側(例、鉛直下方)に配置されている。物体識別部13は、平面FP1と平面FP2との間に配置される点の点データP4(点線で示す)を、例えばマスキング処理によって第2物体M2の点群データから除外(例、削除)する。このようにして、物体識別部13は、推定平面FPとの距離が閾値未満の点データP4を第1点群データPD1から除外した第2点群データPD2を生成する。第2点群データPD2は、点データP3の集合から点データP4の集合を除いた複数の点データである。また、第2点群データPD2は、点データP4と後述する点データP5とのうち点データP5を含む複数の点データである。 In FIG. 4, reference numeral FP1 and reference numeral FP2 are planes in which the distance D with respect to the estimated plane FP is the threshold value. The plane FP1 is arranged on the first side (eg, vertically upward side) with respect to the estimated plane FP. The plane FP2 is arranged on the second side (eg, vertically downward) opposite to the first side with respect to the estimated plane. The object identification unit 13 excludes (eg, deletes) the point data P4 (indicated by the dotted line) of the points arranged between the plane FP1 and the plane FP2 from the point cloud data of the second object M2 by, for example, masking processing. .. In this way, the object identification unit 13 generates the second point cloud data PD2 in which the point data P4 whose distance from the estimated plane FP is less than the threshold value is excluded from the first point cloud data PD1. The second point cloud data PD2 is a plurality of point data obtained by removing the set of point data P4 from the set of point data P3. Further, the second point cloud data PD2 is a plurality of point data including the point data P5 among the point data P4 and the point data P5 described later.

物体識別部13は、第1点群データに含まれる点ごとに、第2物体M2に属するか否かを識別する。物体識別部13は、上記第1点群データから識別対象の点を選択する。識別対象の点は、上記第1点群データから任意に選択される点である。例えば、第1点群データに含まれる各点には番号(例、1、2、3、・・・)が割り付けられており、物体識別部13は、第1点群データから点を番号順に選択する。そして、物体識別部13は、推定平面FPと選択した識別対象の点との距離を算出する。例えば、物体識別部13は、記憶部14から推定平面情報(例、推定平面FPを表す数式の係数)を読み出し、推定平面情報が表す推定平面と選択した識別対象の点との距離を算出する。 The object identification unit 13 identifies whether or not each point included in the first point cloud data belongs to the second object M2. The object identification unit 13 selects a point to be identified from the first point cloud data. The point to be identified is a point arbitrarily selected from the first point cloud data. For example, a number (eg, 1, 2, 3, ...) Is assigned to each point included in the first point cloud data, and the object identification unit 13 assigns points from the first point cloud data in numerical order. select. Then, the object identification unit 13 calculates the distance between the estimated plane FP and the selected point to be identified. For example, the object identification unit 13 reads the estimated plane information (eg, the coefficient of the mathematical formula representing the estimated plane FP) from the storage unit 14 and calculates the distance between the estimated plane represented by the estimated plane information and the selected point to be identified. ..

物体識別部13は、算出した距離と閾値とを比較して、物体識別処理を実行する。物体識別部13は、識別対象の点が第1物体M1に属するか否か(第1物体M1上の点であるか否か)を判定する。例えば、物体識別部13は、識別対象の点と推定平面FPとの距離が閾値未満である場合、識別対象の点が第1物体M1に属すると判定する。図4において、点データP4は、物体識別処理によって第1物体M1に属すると判定された点データに相当する。 The object identification unit 13 compares the calculated distance with the threshold value and executes the object identification process. The object identification unit 13 determines whether or not the point to be identified belongs to the first object M1 (whether or not it is a point on the first object M1). For example, when the distance between the point to be identified and the estimated plane FP is less than the threshold value, the object identification unit 13 determines that the point to be identified belongs to the first object M1. In FIG. 4, the point data P4 corresponds to the point data determined to belong to the first object M1 by the object identification process.

また、物体識別部13は、識別対象の点と推定平面との距離が閾値以上である場合、識別対象の点が第1物体M1に属さないと判定する。図4において、符号P5は、物体識別処理によって第1物体M1に属さないと判定された点データに相当する。点データP5は、第2物体M2上に属すると推定される点の点データに相当する。このように、第2物体M2に属すると推定される点データP5は、第1物体M1に属すると推定される点データP4に対して識別されて特定される。 Further, when the distance between the point to be identified and the estimated plane is equal to or greater than the threshold value, the object identification unit 13 determines that the point to be identified does not belong to the first object M1. In FIG. 4, the reference numeral P5 corresponds to the point data determined not to belong to the first object M1 by the object identification process. The point data P5 corresponds to the point data of a point presumed to belong to the second object M2. As described above, the point data P5 presumed to belong to the second object M2 is identified and specified with respect to the point data P4 presumed to belong to the first object M1.

物体識別部13は、物体Mの識別結果を表す識別情報を生成する。物体識別部13は、識別情報として、識別対象の点が第1物体M1に属するか否かを示す情報を生成する。例えば、物体識別部13は、識別情報として第2物体M2を表す第2点群データPD2を生成する。第2点群データPD2は、第1物体M1に属すると判定された識別対象の点を第1点群データPD1から除外した点群データである。物体識別部13は、上記識別情報として、第1物体M1に属するか否かを示すフラグ(例、属性情報)を点データに付加した情報を生成してもよい。物体識別部13は、生成した識別情報を記憶部14に記憶させる。 The object identification unit 13 generates identification information representing the identification result of the object M. The object identification unit 13 generates information indicating whether or not the point to be identified belongs to the first object M1 as the identification information. For example, the object identification unit 13 generates the second point cloud data PD2 representing the second object M2 as the identification information. The second point cloud data PD2 is point cloud data in which points to be identified that are determined to belong to the first object M1 are excluded from the first point cloud data PD1. As the identification information, the object identification unit 13 may generate information in which a flag (eg, attribute information) indicating whether or not the object belongs to the first object M1 is added to the point data. The object identification unit 13 stores the generated identification information in the storage unit 14.

なお、物体識別部13は、識別対象の点が第2物体M2に属するか否か(第2物体M2上の点であるか否か)を判定してもよい。例えば、物体識別部13は、識別対象の点と推定平面との距離が閾値未満である場合、識別対象の点が第2物体M2に属さないと判定してもよい。また、物体識別部13は、識別対象の点と推定平面との距離が閾値以上である場合、識別対象の点が第2物体M2に属すると判定してもよい。 The object identification unit 13 may determine whether or not the point to be identified belongs to the second object M2 (whether or not it is a point on the second object M2). For example, the object identification unit 13 may determine that the point to be identified does not belong to the second object M2 when the distance between the point to be identified and the estimated plane is less than the threshold value. Further, the object identification unit 13 may determine that the point to be identified belongs to the second object M2 when the distance between the point to be identified and the estimated plane is equal to or greater than the threshold value.

また、物体識別部13は、識別情報として、識別対象の点が第2物体M2に属するか否かを示す情報を生成してもよい。物体識別部13は、識別情報として、第2物体M2に属すると判定した識別対象の点を第1点群データPD1から抽出して、第2点群データPD2を生成してもよい。物体識別部13は、上記識別情報として、第2物体M2に属するか否かを示すフラグ(例、属性情報)を点データに付加した情報を生成してもよい。 Further, the object identification unit 13 may generate information indicating whether or not the point to be identified belongs to the second object M2 as the identification information. The object identification unit 13 may generate the second point cloud data PD2 by extracting the points to be identified that are determined to belong to the second object M2 from the first point cloud data PD1 as the identification information. As the identification information, the object identification unit 13 may generate information in which a flag (eg, attribute information) indicating whether or not the object belongs to the second object M2 is added to the point data.

図1のサーフェス情報生成部16は、形状情報としてサーフェス情報を算出する。以下の説明において、適宜、サーフェス情報を算出する処理をサーフェス処理と称する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、及びドローデータの少なくとも1つを含む。サーフェス情報は、物体の表面上の複数の点の座標と、複数の点間の連結情報とを含む。連結情報(例、属性情報)は、例えば、物体表面の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。また、連結情報は、例えば、物体表面(サーフェス)の輪郭に相当する複数の線を互いに関連付ける情報を含む。 The surface information generation unit 16 in FIG. 1 calculates surface information as shape information. In the following description, the process of calculating surface information as appropriate is referred to as surface process. The surface information includes, for example, at least one of polygon data, vector data, and draw data. The surface information includes the coordinates of a plurality of points on the surface of the object and the connection information between the plurality of points. The connection information (eg, attribute information) includes, for example, information that associates the points at both ends of the line corresponding to the ridge line (eg, edge) on the surface of the object with each other. Further, the connection information includes, for example, information for associating a plurality of lines corresponding to the contour of the surface of the object with each other.

サーフェス情報生成部16は、サーフェス処理において、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定する。また、サーフェス情報生成部16は、サーフェス処理において、点群データを点間の平面情報を持つポリゴンデータに変換する。サーフェス情報生成部16は、例えば最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。 In the surface processing, the surface information generation unit 16 estimates a surface between a point selected from a plurality of points included in the point cloud data and a point in the vicinity thereof. Further, the surface information generation unit 16 converts the point cloud data into polygon data having plane information between points in the surface processing. The surface information generation unit 16 converts the point cloud data into polygon data by, for example, an algorithm using the least squares method. This algorithm may be, for example, an application of an algorithm published in a point cloud processing library.

サーフェス情報生成部16は、物体識別部13の識別結果に基づいて、サーフェス処理を実行する。サーフェス情報生成部16は、物体識別部13が生成した識別情報を記憶部14から読み出し、識別情報に基づいてサーフェス処理を実行する。例えば、サーフェス情報生成部16は、物体識別部13が識別した第2物体M2を表す第2点群データPD2を用いて、第2物体M2上の面を推定する。サーフェス情報生成部16は、サーフェス情報の少なくとも一部として、推定した第2物体M2上の面を表す情報を生成する。サーフェス情報生成部16は、算出したサーフェス情報を記憶部14に記憶させる。 The surface information generation unit 16 executes surface processing based on the identification result of the object identification unit 13. The surface information generation unit 16 reads the identification information generated by the object identification unit 13 from the storage unit 14, and executes surface processing based on the identification information. For example, the surface information generation unit 16 estimates a surface on the second object M2 by using the second point cloud data PD2 representing the second object M2 identified by the object identification unit 13. The surface information generation unit 16 generates information representing a surface on the estimated second object M2 as at least a part of the surface information. The surface information generation unit 16 stores the calculated surface information in the storage unit 14.

なお、上記したモデル生成部11は、モデル情報として、3次元の点座標及びその関連情報で規定された面のテクスチャ情報を生成してもよい。テクスチャ情報は、例えば、物体表面の文字や図形、模様、質感、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。モデル生成部11は、生成したテクスチャ情報を記憶部14に記憶させてもよい。 The model generation unit 11 described above may generate the texture information of the surface defined by the three-dimensional point coordinates and the related information as the model information. The texture information includes, for example, at least one piece of information such as characters and figures on the surface of an object, a pattern, a texture, a pattern, information defining irregularities, a specific image, and a color (eg, chromatic color, achromatic color). The model generation unit 11 may store the generated texture information in the storage unit 14.

また、モデル生成部11は、モデル情報として、画像の空間情報(例、照明条件、光源情報)を生成してもよい。光源情報は、例えば、対象物を基準とした照明光を照射する光源の位置、この光源から対象物へ光が照射される方向(照射方向)、この光源から照射される光の波長、及びこの光源の種類のうち少なくとも1項目の情報を含む。モデル生成部11は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出してもよい。モデル生成部11は、生成(例、算出)したモデル情報の少なくとも一部を記憶部14に記憶させる。モデル生成部11は、上記モデル情報の一部を生成しなくてもよい。 In addition, the model generation unit 11 may generate spatial information (eg, lighting conditions, light source information) of the image as model information. The light source information includes, for example, the position of the light source that irradiates the illumination light with reference to the object, the direction in which the light is irradiated from this light source to the object (irradiation direction), the wavelength of the light emitted from this light source, and the wavelength thereof. Contains information on at least one item of the type of light source. The model generation unit 11 may calculate the light source information by using, for example, a model assuming Lambertian reflection, a model including Albedo estimation, and the like. The model generation unit 11 stores at least a part of the generated (eg, calculated) model information in the storage unit 14. The model generation unit 11 does not have to generate a part of the model information.

次に、上記検出装置1の構成に基づいて、実施形態に係る検出方法について説明する。図5は、第1実施形態に係る検出方法を示すフローチャートである。図6は、第1実施形態に係る平面推定処理を示すフローチャートである。図7は、第1実施形態に係る物体識別処理を示すフローチャートである。検出装置1の構成については、適宜、図1を参照する。 Next, the detection method according to the embodiment will be described based on the configuration of the detection device 1. FIG. 5 is a flowchart showing a detection method according to the first embodiment. FIG. 6 is a flowchart showing a plane estimation process according to the first embodiment. FIG. 7 is a flowchart showing the object identification process according to the first embodiment. Regarding the configuration of the detection device 1, FIG. 1 is referred to as appropriate.

図5のステップS1において、位置検出部2は、対象領域ARにおける物体M上の位置情報(例、デプス)を検出する。ステップS2において、処理装置3の点群データ生成部15は、物体Mの点群データを生成する。例えば、点群データ生成部15は、ステップS1で得られたデプスを用いて点群処理を実行し、第1点群データを生成する。点群データ生成部15は、記憶部14に第1点群データを記憶させる。 In step S1 of FIG. 5, the position detection unit 2 detects the position information (eg, depth) on the object M in the target area AR. In step S2, the point cloud data generation unit 15 of the processing device 3 generates the point cloud data of the object M. For example, the point cloud data generation unit 15 executes the point cloud process using the depth obtained in step S1 to generate the first point cloud data. The point cloud data generation unit 15 stores the first point cloud data in the storage unit 14.

ステップS3において、面推定部12は、第1物体M1における平面を推定する。例えば、面推定部12は、点群データ生成部15が生成した第1点群データを用いて、平面推定処理を実行する。ステップS4において、物体識別部13は、物体上の各点と推定平面との距離に基づいて、第2物体を推定平面に対して識別する。 In step S3, the surface estimation unit 12 estimates the plane of the first object M1. For example, the surface estimation unit 12 executes the plane estimation process using the first point cloud data generated by the point cloud data generation unit 15. In step S4, the object identification unit 13 identifies the second object with respect to the estimated plane based on the distance between each point on the object and the estimated plane.

ここで、ステップS3の平面推定処理の例について、図6を参照して説明する。図6のステップS11において、面推定部12は、点集合を設定する。面推定部12は、第1点群データに含まれる複数の点の全部または一部を選択し、選択した点からなる点集合を設定する。 Here, an example of the plane estimation process in step S3 will be described with reference to FIG. In step S11 of FIG. 6, the surface estimation unit 12 sets a point set. The surface estimation unit 12 selects all or a part of a plurality of points included in the first point cloud data, and sets a point set consisting of the selected points.

ステップS12において、面推定部12は、ステップS11で設定した点集合の近似平面を表す数式を導出する。近似平面は、推定平面FPの候補である。面推定部12は、最小二乗法を用いて、平面を表す数式(ax+by+cz+d=0)の係数(a、b、c、d)を決定する。面推定部12は、上記平面と点集合に含まれる各点との距離の二乗を算出し、距離の二乗の点集合における総和(以下、距離の二乗和という)が最小となるように、係数(a、b、c、d)を算出する。 In step S12, the surface estimation unit 12 derives a mathematical formula representing the approximate plane of the point set set in step S11. The approximate plane is a candidate for the estimated plane FP. The surface estimation unit 12 uses the least squares method to determine the coefficients (a, b, c, d) of the mathematical formula (ax + by + cz + d = 0) representing the plane. The surface estimation unit 12 calculates the square of the distance between the plane and each point included in the point set, and a coefficient is set so that the sum of the distance squared point sets (hereinafter referred to as the sum of squares of the distances) is minimized. (A, b, c, d) is calculated.

ステップS13において、面推定部12は、点集合に対する近似平面の残差を算出する。この残差は、例えば、ステップS12で算出した係数(a、b、c、d)によって規定される近似平面と、点集合の各点との距離のRMSである。上記残差は、近似平面と、点集合の各点との距離の二乗和でもよい。 In step S13, the surface estimation unit 12 calculates the residual of the approximate plane with respect to the point set. This residual is, for example, the RMS of the distance between the approximate plane defined by the coefficients (a, b, c, d) calculated in step S12 and each point of the point set. The residual may be the sum of squares of the distances between the approximate plane and each point in the point set.

ステップS14において、面推定部12は、ステップS13で算出された残差が閾値以下であるか否かを判定する。面推定部12は、残差が閾値以下でないと判定した場合(ステップS14;No)、ステップS11に戻り、点集合の設定を行う。例えば、面推定部12は、前回選択した点集合のうち、ステップS12で導出した近似平面との距離が相対的に長い点(又は大きい点)を除外して、点集合を再設定(更新)する。面推定部12は、再設定した点集合を用いて、ステップS12からステップS14の処理を繰り返す。 In step S14, the surface estimation unit 12 determines whether or not the residual calculated in step S13 is equal to or less than the threshold value. When the surface estimation unit 12 determines that the residual is not equal to or less than the threshold value (step S14; No), the surface estimation unit 12 returns to step S11 and sets the point set. For example, the surface estimation unit 12 resets (updates) the point set by excluding the points (or large points) that are relatively long (or large) from the approximate plane derived in step S12 from the previously selected point set. do. The surface estimation unit 12 repeats the processes from step S12 to step S14 using the reset point set.

面推定部12は、ステップS11においてランダムにいくつかの点を選択してもよい。また、面推定部12は、ステップS12において、ステップS11で選択した点に基づいて平面(例、推定平面FPの候補)を推定してもよい。面推定部12は、ステップS13において、ステップS12で推定した平面からその隣接点までの距離を評価関数として、評価値(例、残差)を算出してもよい。面推定部12は、上述のような点のランダムな選択、選択した点を用いた平面の推定、及び推定した平面に対する評価を繰り返し、評価値が最良の候補を推定平面FPとして採用してもよい。 The surface estimation unit 12 may randomly select some points in step S11. Further, the plane estimation unit 12 may estimate a plane (eg, a candidate for the estimated plane FP) based on the points selected in step S11 in step S12. In step S13, the surface estimation unit 12 may calculate an evaluation value (eg, residual) using the distance from the plane estimated in step S12 to its adjacent point as an evaluation function. The surface estimation unit 12 repeats the random selection of points as described above, the estimation of the plane using the selected points, and the evaluation of the estimated plane, and even if the candidate with the best evaluation value is adopted as the estimation plane FP. good.

ステップS14において、面推定部12は、残差が閾値以下であると判定した場合(ステップS14;Yes)、ステップS15において近似平面を推定平面FPとして採用する。ステップS16において、面推定部12は、推定平面FPを表す推定平面情報を記憶部14に記憶させる。面推定部12は、推定平面情報として、推定平面FPを表す数式(ax+by+cz+d=0)の係数(a、b、c、d)を記憶部14に記憶させる。 In step S14, when the surface estimation unit 12 determines that the residual is equal to or less than the threshold value (step S14; Yes), the surface estimation unit 12 adopts the approximate plane as the estimation plane FP in step S15. In step S16, the surface estimation unit 12 stores the estimated plane information representing the estimated plane FP in the storage unit 14. The surface estimation unit 12 stores the coefficients (a, b, c, d) of the mathematical formula (ax + by + cz + d = 0) representing the estimated plane FP in the storage unit 14 as the estimated plane information.

次に、図5のステップS4の物体識別処理の例について、図7を参照して説明する。ステップS21において、物体識別部13は、識別対象の点を選択する。物体識別部13は、第1点群データから識別対象の点を選択する。ステップS22において、物体識別部13は、ステップS21で選択された点と推定平面FPとの距離を算出する。物体識別部13は、記憶部14から推定平面FPを表す数式の情報(例、係数)を読み出し、識別対象の点の点データ(三次元座標)と、推定平面を表す数式とから距離を算出する。 Next, an example of the object identification process in step S4 of FIG. 5 will be described with reference to FIG. 7. In step S21, the object identification unit 13 selects a point to be identified. The object identification unit 13 selects a point to be identified from the first point cloud data. In step S22, the object identification unit 13 calculates the distance between the point selected in step S21 and the estimated plane FP. The object identification unit 13 reads information (eg, coefficient) of a mathematical formula representing the estimated plane FP from the storage unit 14, and calculates the distance from the point data (three-dimensional coordinates) of the point to be identified and the mathematical formula representing the estimated plane. do.

ステップS23において、物体識別部13は、ステップS22で算出された距離は閾値未満であるか否かを判定する。物体識別部13は、算出された距離が閾値未満であると判定した場合(ステップS23;Yes)、ステップS24において、識別対象の点が第2物体M2上の点でないと識別する。物体識別部13は、ステップS24において、識別対象の点を、第2物体M2の点群データからマスキング処理等によって除外する。物体識別部13は、識別対象の点を、第2物体M2と異なる物体(例、第1物体M1)の点群データへ分類(例、登録)してもよい。また、物体識別部13は、ステップS24において、識別対象の点が第2物体M2上の点でないことを示す識別情報(例、フラグ)を生成してもよい。例えば、識別対象の点が第2物体M2上の点ではない対象外の点と識別した場合、物体識別部13は、識別情報に基づき、識別対象の点のうち該対象外の点(この場合、第2物体M2ではない点)を第2物体M2の点群データから削除する。 In step S23, the object identification unit 13 determines whether or not the distance calculated in step S22 is less than the threshold value. When the object identification unit 13 determines that the calculated distance is less than the threshold value (step S23; Yes), the object identification unit 13 identifies that the point to be identified is not a point on the second object M2 in step S24. In step S24, the object identification unit 13 excludes the point to be identified from the point cloud data of the second object M2 by masking processing or the like. The object identification unit 13 may classify (eg, register) the points to be identified into point cloud data of an object (eg, first object M1) different from the second object M2. In addition, the object identification unit 13 may generate identification information (eg, a flag) indicating that the point to be identified is not a point on the second object M2 in step S24. For example, when the point to be identified is identified as a non-target point that is not a point on the second object M2, the object identification unit 13 bases the identification information on the non-target point among the identification target points (in this case, the non-target point). , A point that is not the second object M2) is deleted from the point group data of the second object M2.

なお、物体識別部13は、ステップS24において、識別対象の点が第1物体M1上の点であると識別してもよい。この場合、物体識別部13は、識別対象の点を第1物体M1の点群データへ分類(例、登録)してもよい。また、物体識別部13は、識別対象の点が第1物体M1上の点であることを示す識別情報(例、フラグ)を生成してもよい。 In addition, the object identification unit 13 may identify the point to be identified as a point on the first object M1 in step S24. In this case, the object identification unit 13 may classify (eg, register) the points to be identified into the point cloud data of the first object M1. Further, the object identification unit 13 may generate identification information (eg, a flag) indicating that the point to be identified is a point on the first object M1.

ステップS23において、物体識別部13は、算出された距離が閾値未満でない(閾値以上である)と判定した場合(ステップS23;No)、ステップS25において、識別対象の点が第1物体M1上の点でないと識別する。物体識別部13は、ステップS25において、識別対象の点を第1物体M1の点群データから除外する。物体識別部13は、識別対象の点を第1物体M1と異なる物体の点群データへ分類(例、登録)してもよい。物体識別部13は、ステップS25において、識別対象の点が第1物体M1上の点でないことを示す識別情報(例、フラグ)を生成してもよい。 In step S23, when the object identification unit 13 determines that the calculated distance is not less than the threshold value (greater than or equal to the threshold value) (step S23; No), in step S25, the point to be identified is on the first object M1. Identify as not a point. In step S25, the object identification unit 13 excludes the point to be identified from the point cloud data of the first object M1. The object identification unit 13 may classify (eg, register) the points to be identified into point cloud data of an object different from the first object M1. In step S25, the object identification unit 13 may generate identification information (eg, a flag) indicating that the point to be identified is not a point on the first object M1.

なお、物体識別部13は、ステップS25において、識別対象の点が第2物体M2上の点であると識別してもよい。この場合、物体識別部13は、識別対象の点を第2物体M2の点群データへ分類(例、登録)してもよい。また、物体識別部13は、識別対象の点が第2物体M2上の点であることを示す識別情報(例、フラグ)を生成してもよい。 In addition, the object identification unit 13 may identify the point to be identified as a point on the second object M2 in step S25. In this case, the object identification unit 13 may classify (eg, register) the points to be identified into the point cloud data of the second object M2. Further, the object identification unit 13 may generate identification information (eg, a flag) indicating that the point to be identified is a point on the second object M2.

ステップS24の処理後またはステップS25の処理後に、ステップS26において、物体識別部13は、次の識別対象の点があるか否かを判定する。物体識別部13は、物体識別処理が予定された複数の点のうち物体識別処理が実行されていない点が存在する場合、次の識別対象の点があると判定する。物体識別部13は、次の識別対象の点があると判定した場合(ステップS26;Yes)、ステップS21に戻り、次の識別対象の点を選択する。物体識別部13は、次の識別対象の点がないと判定した場合(ステップS26;No)、物体識別処理を終了する。 After the processing of step S24 or after the processing of step S25, in step S26, the object identification unit 13 determines whether or not there is a point to be identified next. When the object identification unit 13 has a plurality of points for which the object identification process is scheduled for which the object identification process has not been executed, the object identification unit 13 determines that there is a point to be identified next. When the object identification unit 13 determines that there is a point to be identified next (step S26; Yes), the object identification unit 13 returns to step S21 and selects the next point to be identified. When the object identification unit 13 determines that there is no next point to be identified (step S26; No), the object identification unit 13 ends the object identification process.

図5のステップS5において、モデル生成部11は、ステップS4で識別された第2物体M2の位置情報に基づいて、モデル情報を生成する。例えば、モデル生成部11は、第1点群データのうち物体識別部13が識別した第2物体M2の点群データを選択的に用いて、第2物体M2のモデル情報を生成する。モデル生成部11は、モデル情報として、第2物体M2の形状情報(例、サーフェス情報)を生成する。モデル生成部11は、生成したモデル情報を記憶部14に記憶させる。 In step S5 of FIG. 5, the model generation unit 11 generates model information based on the position information of the second object M2 identified in step S4. For example, the model generation unit 11 selectively uses the point cloud data of the second object M2 identified by the object identification unit 13 among the first point cloud data to generate model information of the second object M2. The model generation unit 11 generates shape information (eg, surface information) of the second object M2 as model information. The model generation unit 11 stores the generated model information in the storage unit 14.

なお、モデル生成部11は、第1点群データから第2点群データを除外した点群データを用いて、第1物体M1を表す形状情報を生成してもよい。また、モデル生成部11は、第1物体M1を表す第1形状情報と、第2物体M2を表す第2形状情報とを生成してもよい。モデル生成部11は、第1形状情報と第2形状情報とを合成して、第1物体M1および第2物体M2を表す形状情報を生成してもよい。 The model generation unit 11 may generate shape information representing the first object M1 by using the point cloud data obtained by excluding the second point cloud data from the first point cloud data. Further, the model generation unit 11 may generate the first shape information representing the first object M1 and the second shape information representing the second object M2. The model generation unit 11 may combine the first shape information and the second shape information to generate shape information representing the first object M1 and the second object M2.

上述のように、実施形態に係る検出装置1は、面推定部12によって第1物体M1における平面を推定し、物体識別部13によって第2物体M2を推定平面FPに対して識別する。したがって、実施形態に係る検出装置1は、第1物体M1に接触する第2物体M2を識別することができ、例えば第2物体M2を高精度にセグメント化することに寄与する。 As described above, the detection device 1 according to the embodiment estimates the plane in the first object M1 by the surface estimation unit 12, and identifies the second object M2 with respect to the estimated plane FP by the object identification unit 13. Therefore, the detection device 1 according to the embodiment can identify the second object M2 in contact with the first object M1, and contributes to segmenting the second object M2 with high accuracy, for example.

なお、第2物体M2は、人体でなくてもよい。第2物体M2は、人間以外の生物(例、動物、植物、犬、猫)でもよいし、物品(例、装置、ロボット、自動車)でもよい。第2物体M2は、対象領域ARにおいて静止する静止物でもよいし、対象領域ARにおいて移動(例、自走)する移動体でもよい。 The second object M2 does not have to be a human body. The second object M2 may be a non-human organism (eg, animal, plant, dog, cat) or an article (eg, device, robot, automobile). The second object M2 may be a stationary object that is stationary in the target area AR, or may be a moving body that moves (eg, self-propelled) in the target area AR.

また、第1物体M1は、対象領域ARにおいて静止する物体でもよいし、対象領域ARにおいて移動する物体でもよい。例えば、検出装置1は、移動する第1物体M1(例、自動車)と接触する第2物体M2(例、人体)を識別してもよい。第1物体M1において、第2物体M2と接触することが想定される表面は、平面でなくてもよく曲面でもよいし、平面と曲面とを有する複合面でもよい。例えば、第1物体M1の物体面としての表面は、階段の上面のように規則的に配置される面でもよい。また、第1物体M1の表面が凹凸を含み、面推定部12は、第1物体M1の表面を平面で近似してもよい。 Further, the first object M1 may be an object that is stationary in the target area AR or an object that is moving in the target area AR. For example, the detection device 1 may identify a second object M2 (eg, a human body) that comes into contact with a moving first object M1 (eg, an automobile). In the first object M1, the surface that is supposed to come into contact with the second object M2 may not be a flat surface but may be a curved surface, or may be a composite surface having a flat surface and a curved surface. For example, the surface of the first object M1 as an object surface may be a surface that is regularly arranged, such as the upper surface of a staircase. Further, the surface of the first object M1 may include irregularities, and the surface estimation unit 12 may approximate the surface of the first object M1 with a plane.

図1などにおいて、第2物体M2は、第2物体M2に対して鉛直方向の下方に配置される面に接触する。第2物体M2は、第2物体M2に対して鉛直方向の上方に配置される面(例、天井)に接触してもよい。また、第2物体M2は、第2物体M2に対して水平方向に配置される面(例、壁面)に接触してもよい。記憶部14は、第1物体M1が接触することが想定される面の条件(例、推定平面FPの算出条件)を予め記憶し、面推定部12は、記憶部14に記憶された面の条件に基づいて、推定平面FPを導出してもよい。第2物体M2において第1物体M1に接触する部分は、任意であり、人体の足以外の部分(例、手)でもよい。 In FIG. 1 and the like, the second object M2 comes into contact with a surface arranged downward in the vertical direction with respect to the second object M2. The second object M2 may come into contact with a surface (eg, ceiling) arranged vertically above the second object M2. Further, the second object M2 may come into contact with a surface (eg, a wall surface) arranged horizontally with respect to the second object M2. The storage unit 14 stores in advance the conditions of the surface on which the first object M1 is expected to come into contact (eg, the calculation condition of the estimated plane FP), and the surface estimation unit 12 stores the surface of the surface stored in the storage unit 14. The estimated plane FP may be derived based on the conditions. The portion of the second object M2 that comes into contact with the first object M1 is arbitrary and may be a portion (eg, a hand) other than the foot of the human body.

なお、面推定部12は、点群データを用いないで推定平面を導出してもよい。例えば、面推定部12は、位置検出部2が生成するデプスマップにおいて領域内のデプスの分布が所定の条件を満たす場合に、この領域が推定平面FPに属すると判定してもよい。例えば、面推定部12は、デプスマップにおける複数の画素を含む領域でデプスが規則的に変化する場合に、この領域が推定平面FPに属すると判定してもよい。 The surface estimation unit 12 may derive an estimation plane without using the point cloud data. For example, the surface estimation unit 12 may determine that this region belongs to the estimation plane FP when the depth distribution in the region satisfies a predetermined condition in the depth map generated by the position detection unit 2. For example, the surface estimation unit 12 may determine that this region belongs to the estimation plane FP when the depth changes regularly in a region including a plurality of pixels in the depth map.

また、面推定部12は、サーフェス情報に基づいて推定平面FPを導出してもよい。例えば、面推定部12は、サーフェス情報生成部16が生成したサーフェス情報から平面で近似される表面の情報を抽出し、抽出した表面の情報を推定平面FPの候補として用いてもよい。この場合、面推定部12は、推定平面FPの候補を導出しなくてもよい。また、面推定部12は、サーフェス情報生成部16がサーフェス処理によって推定した平面の法線方向に基づいて、推定平面FPを導出してもよい。面推定部12は、サーフェス情報において法線方向が同じ又は類似する領域を推定平面として導出してもよい。面推定部12は、所定のサイズの領域における法線方向の分散が所定値未満である場合に、この領域を推定平面FPとして導出してもよい。 Further, the surface estimation unit 12 may derive an estimated plane FP based on the surface information. For example, the surface estimation unit 12 may extract surface information approximated by a plane from the surface information generated by the surface information generation unit 16, and use the extracted surface information as a candidate for the estimation plane FP. In this case, the surface estimation unit 12 does not have to derive a candidate for the estimation plane FP. Further, the surface estimation unit 12 may derive the estimated plane FP based on the normal direction of the plane estimated by the surface information generation unit 16 by the surface processing. The surface estimation unit 12 may derive a region having the same or similar normal directions in the surface information as an estimation plane. The surface estimation unit 12 may derive this region as an estimation plane FP when the variance in the normal direction in a region of a predetermined size is less than a predetermined value.

なお、検出装置1の少なくとも一部は、据え置き型の装置でもよいし、携帯型の装置でもよい。位置検出部2の少なくとも一部は、処理装置3と同じボディに設けられてもよい。また、処理装置3の少なくとも一部は、位置検出部2に設けられてもよい。例えば、位置検出部2は、点群データ生成部15を備え、検出によって得られる物体の位置情報として点群データを処理装置3に出力してもよい。 At least a part of the detection device 1 may be a stationary device or a portable device. At least a part of the position detection unit 2 may be provided on the same body as the processing device 3. Further, at least a part of the processing device 3 may be provided in the position detecting unit 2. For example, the position detection unit 2 may include a point cloud data generation unit 15 and output the point cloud data to the processing device 3 as the position information of the object obtained by the detection.

[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図8は、本実施形態に係る検出装置を示す図である。本実施形態において、面推定部12は、例えば第2物体M2が対象領域ARに配置されていない状態における位置検出部2の検出結果に基づいて、物体Mの表面SFを物体面(この場合、平面)として推定する。物体識別部13は、第2物体M2が対象領域ARに配置されていない状態における位置検出部2の検出結果に基づいて面推定部12が推定した平面と、第2物体M2が対象領域ARに配置されている状態における位置検出部2の検出結果とに基づいて、第2物体M2を識別する。
[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 8 is a diagram showing a detection device according to the present embodiment. In the present embodiment, the surface estimation unit 12 sets the surface SF of the object M as an object surface (in this case, based on the detection result of the position detection unit 2 in a state where the second object M2 is not arranged in the target area AR, for example. Estimated as a plane). The object identification unit 13 has a plane estimated by the surface estimation unit 12 based on the detection result of the position detection unit 2 in a state where the second object M2 is not arranged in the target area AR, and the second object M2 is in the target area AR. The second object M2 is identified based on the detection result of the position detection unit 2 in the arranged state.

図8の符号Q1は、第2物体M2が第1位置(例、対象領域ARの外部の位置)に配置された第1状態を表す。第1状態Q1は、例えば、対象領域ARに第2物体M2が配置されていない状態である。また、図8の符号Q2は、第2物体M2が第2位置に配置された第2状態を表す。第2位置は、対象領域ARの内部の位置であり、かつ上記第1位置と異なる位置である。 Reference numeral Q1 in FIG. 8 represents a first state in which the second object M2 is arranged at the first position (eg, a position outside the target area AR). The first state Q1 is, for example, a state in which the second object M2 is not arranged in the target area AR. Further, the reference numeral Q2 in FIG. 8 represents a second state in which the second object M2 is arranged at the second position. The second position is a position inside the target area AR and is a position different from the first position.

第1状態Q1において、位置検出部2は、第1物体M1の位置情報を検出する。そして、面推定部12は、第1状態Q1で検出された第1物体M1の位置情報に基づいて、第1物体M1の表面SFを平面として推定(近似)する。 In the first state Q1, the position detection unit 2 detects the position information of the first object M1. Then, the surface estimation unit 12 estimates (approximates) the surface SF of the first object M1 as a plane based on the position information of the first object M1 detected in the first state Q1.

また、第2状態Q2において、位置検出部2は、第1物体M1および第2物体M2を含む物体Mの位置情報を検出する。そして、物体識別部13は、第1状態Q1で検出された第1物体M1の位置情報に基づいて面推定部12が推定した平面と、第2状態Q2で検出された物体Mの位置情報とを用いて、第2物体M2を識別する。 Further, in the second state Q2, the position detection unit 2 detects the position information of the object M including the first object M1 and the second object M2. Then, the object identification unit 13 includes a plane estimated by the surface estimation unit 12 based on the position information of the first object M1 detected in the first state Q1 and the position information of the object M detected in the second state Q2. Is used to identify the second object M2.

なお、第1状態Q1における検出と、第2状態Q2における検出との順番は、任意に設定される。位置検出部2は、第1状態Q1における検出を実行した後で、第2状態Q2における検出を実行してもよい。位置検出部2は、第2状態Q2における検出を実行した後で、第1状態Q1における検出を実行してもよい。この場合、面推定部12は第1状態Q1における検出の終了後に平面を推定し、物体識別部13は、面推定部12が平面を推定した後に、第2状態における検出結果を用いて第2物体M2を識別してもよい。 The order of the detection in the first state Q1 and the detection in the second state Q2 is arbitrarily set. The position detection unit 2 may execute the detection in the second state Q2 after executing the detection in the first state Q1. The position detection unit 2 may execute the detection in the first state Q1 after executing the detection in the second state Q2. In this case, the surface estimation unit 12 estimates the plane after the detection in the first state Q1 is completed, and the object identification unit 13 uses the detection result in the second state after the surface estimation unit 12 estimates the plane. The object M2 may be identified.

なお、第2物体M2は、図8の第1状態Q1において対象領域ARの外部に配置されているが、対象領域ARにおいて第2状態Q2と異なる位置に配置されてもよい。例えば、検出装置1は、第2状態よりも第2物体M2が対象領域ARの中心から離れた位置(例、対象領域ARの端)に配置された第3状態で物体Mの位置情報を検出し、その検出結果に基づいて面推定部12が平面を推定してもよい。また、面推定部12は、第2物体M2の移動による位置検出部2の検出結果の変化に基づいて平面を推定してもよい。例えば、位置検出部2は、第2物体M2の位置が異なる複数の条件で物体Mの位置情報を検出し、面推定部12は、複数の条件で検出される物体Mの位置情報の変化(差分)に基づいて、物体Mの位置情報から第2物体M2の位置情報の少なくとも一部を除外して平面を推定してもよい。 Although the second object M2 is arranged outside the target area AR in the first state Q1 of FIG. 8, it may be arranged at a position different from the second state Q2 in the target area AR. For example, the detection device 1 detects the position information of the object M in the third state in which the second object M2 is located at a position (eg, the end of the target area AR) farther from the center of the target area AR than in the second state. Then, the surface estimation unit 12 may estimate the plane based on the detection result. Further, the surface estimation unit 12 may estimate the plane based on the change in the detection result of the position detection unit 2 due to the movement of the second object M2. For example, the position detection unit 2 detects the position information of the object M under a plurality of conditions in which the position of the second object M2 is different, and the surface estimation unit 12 changes the position information of the object M detected under a plurality of conditions ( The plane may be estimated by excluding at least a part of the position information of the second object M2 from the position information of the object M based on the difference).

次に、上記検出装置1の構成に基づいて、実施形態に係る検出方法について説明する。図9は、第2実施形態に係る検出方法を示すフローチャートである。検出装置1の構成については、適宜、図1、図8を参照する。ステップS31において、位置検出部2は、第2物体M2が第1位置(例、対象領域AR外)に配置された第1状態Q1(図8参照)で対象領域ARにおける位置情報(例、デプス)を検出する。 Next, the detection method according to the embodiment will be described based on the configuration of the detection device 1. FIG. 9 is a flowchart showing a detection method according to the second embodiment. For the configuration of the detection device 1, reference to FIGS. 1 and 8 as appropriate. In step S31, the position detection unit 2 has position information (eg, depth) in the target area AR in the first state Q1 (see FIG. 8) in which the second object M2 is arranged in the first position (eg, outside the target area AR). ) Is detected.

ステップS32において、処理装置3は、ステップS31で得られる位置検出部2の検出結果からノイズを除去する。ノイズを除去するノイズ除去処理は、例えば、位置検出部2が生成するデプスマップから空間的なノイズを除去する処理を含む。例えば、処理装置3は、デプスマップにおいて隣り合う第1領域(例、第1画素)と第2領域(例、第2画素)とでデプスの差が閾値を超える場合に、第1領域におけるデプスまたは第2領域におけるデプスがノイズであると判定する。処理装置3は、第1領域におけるデプスがノイズであると判定した場合に、第1領域の周囲の領域(例、第3画素、第4画素)のデプスを用いた補間などによって第1領域のデプスを推定し、第1領域のデプスを推定したデプスで更新(置換、補正)することによって、空間的なノイズを除去する。 In step S32, the processing device 3 removes noise from the detection result of the position detection unit 2 obtained in step S31. The noise removing process for removing noise includes, for example, a process for removing spatial noise from the depth map generated by the position detection unit 2. For example, the processing device 3 determines the depth in the first region when the difference in depth between the adjacent first region (eg, first pixel) and the second region (eg, second pixel) exceeds the threshold value in the depth map. Alternatively, it is determined that the depth in the second region is noise. When the processing device 3 determines that the depth in the first region is noise, the processing device 3 performs interpolation using the depth of the region (eg, third pixel, fourth pixel) around the first region to obtain the first region. Spatial noise is removed by estimating the depth and updating (replacing, correcting) the depth of the first region with the estimated depth.

また、ノイズを除去するノイズ除去処理は、例えば、位置検出部2が生成するデプスマップから時間的なノイズ(例、時間的に変化するノイズ)を除去する処理を含む。例えば、位置検出部2は、所定のサンプリング周波数で検出を繰り返し、処理装置3は、検出のタイミングが異なる位置検出部2の検出結果(例、デプスマップ)を比較する。例えば、処理装置3は、第1フレームにおけるデプスマップと、第1フレームの次の第2フレームにおけるデプスマップとで、各画素におけるデプスの変化量(時間変化量)を算出する。処理装置3は、各画素におけるデプスの変化量が所定の条件を満たす場合、この画素の第1フレームにおけるデプスまたは第2フレームにおけるデプスがノイズであると判定する。処理装置3は、第2フレームにおけるデプスがノイズであると判定した場合に、第1フレームにおけるデプスと第2フレームの次の第3フレームにおけるデプスとを用いた補間などによって第2フレームのデプスを推定する。処理装置3は、ノイズに対応する画素のデプスを推定したデプスで更新(置換、補正)することによって、時間的なノイズを除去する。 Further, the noise removing process for removing noise includes, for example, a process for removing temporal noise (eg, noise that changes with time) from the depth map generated by the position detection unit 2. For example, the position detection unit 2 repeats detection at a predetermined sampling frequency, and the processing device 3 compares the detection results (eg, depth map) of the position detection units 2 having different detection timings. For example, the processing device 3 calculates the amount of change in depth (time change amount) in each pixel from the depth map in the first frame and the depth map in the second frame following the first frame. When the amount of change in depth in each pixel satisfies a predetermined condition, the processing device 3 determines that the depth in the first frame or the depth in the second frame of this pixel is noise. When the processing device 3 determines that the depth in the second frame is noise, the processing device 3 determines the depth of the second frame by interpolation using the depth in the first frame and the depth in the third frame following the second frame. presume. The processing device 3 removes temporal noise by updating (replacing, correcting) the depth of the pixel corresponding to the noise with the estimated depth.

なお、ノイズ除去処理は、空間的なノイズを除去する処理または時間的なノイズを除去する処理を含まなくてもよい。また、ノイズ除去処理は、処理装置3以外の部分(例、位置検出部2)で実行されてもよい。また、検出装置1は、ノイズ除去処理を実行しなくてもよい。 The noise removal process may not include a process for removing spatial noise or a process for removing temporal noise. Further, the noise removal process may be executed in a portion other than the processing device 3 (eg, the position detection unit 2). Further, the detection device 1 does not have to execute the noise removal process.

図9のステップS33において、点群データ生成部15は、第3点群データを生成する。例えば、点群データ生成部15は、ステップS32においてノイズが除去されたデプスマップに対して点群処理を実行して、第3点群データを生成する。点群データ生成部15は、生成した第3点群データを記憶部14に記憶させる。ステップS34において、面推定部12は、平面を推定する。例えば、面推定部12は、記憶部14から第3点群データを読み出し、第3点群データに基づいて推定平面FPを導出する。面推定部12は、導出した推定平面FPを表す情報を記憶部14に記憶させる(例、初期状態の登録)。 In step S33 of FIG. 9, the point cloud data generation unit 15 generates the third point cloud data. For example, the point cloud data generation unit 15 executes point cloud processing on the depth map from which noise has been removed in step S32 to generate third point cloud data. The point cloud data generation unit 15 stores the generated third point cloud data in the storage unit 14. In step S34, the surface estimation unit 12 estimates the plane. For example, the surface estimation unit 12 reads the third point cloud data from the storage unit 14 and derives the estimated plane FP based on the third point cloud data. The surface estimation unit 12 stores information representing the derived estimated plane FP in the storage unit 14 (eg, registration of the initial state).

ステップS35において、位置検出部2は、第2物体M2が対象領域AR内の第2位置に配置された第2状態Q2(図8参照)で、対象領域ARにおける物体Mの位置情報(例、デプス)を検出する。ステップS37において、処理装置3は、ステップS36で得られる位置検出部2の検出結果からノイズを除去する。ステップS37の処理は、ステップS32の処理と同様である。ステップS38において、点群データ生成部15は、第4点群データを生成する。例えば、点群データ生成部15は、ステップS37においてノイズが除去されたデプスマップに対して点群処理を実行して、第4点群データを生成する。点群データ生成部15は、生成した第4点群データを記憶部14に記憶させる。 In step S35, the position detection unit 2 is the second state Q2 (see FIG. 8) in which the second object M2 is arranged at the second position in the target area AR, and the position information of the object M in the target area AR (eg, Depth) is detected. In step S37, the processing device 3 removes noise from the detection result of the position detection unit 2 obtained in step S36. The process of step S37 is the same as the process of step S32. In step S38, the point cloud data generation unit 15 generates the fourth point cloud data. For example, the point cloud data generation unit 15 executes point cloud processing on the depth map from which noise has been removed in step S37 to generate fourth point cloud data. The point cloud data generation unit 15 stores the generated fourth point cloud data in the storage unit 14.

ステップS39からステップS44の処理は、物体識別処理に相当する。ステップS39において、物体識別部13は、第4点群データから識別対象の点を設定(例、選択)する。ステップS40において、物体識別部13は、識別対象の点と、ステップS35で推定された推定平面FPとの距離を算出する。物体識別部13は、記憶部14から推定平面FPを表す数式の情報(例、係数)を読み出し、識別対象の点の点データ(三次元座標)と、推定平面を表す数式とから距離を算出する。 The processing of steps S39 to S44 corresponds to the object identification processing. In step S39, the object identification unit 13 sets (eg, selects) a point to be identified from the fourth point cloud data. In step S40, the object identification unit 13 calculates the distance between the point to be identified and the estimated plane FP estimated in step S35. The object identification unit 13 reads information (eg, coefficient) of a mathematical formula representing the estimated plane FP from the storage unit 14, and calculates the distance from the point data (three-dimensional coordinates) of the point to be identified and the mathematical formula representing the estimated plane. do.

ステップS41において、物体識別部13は、ステップS30で算出された距離が閾値未満であるか否かを判定する。物体識別部13は、算出された距離が閾値以上であると判定した場合(ステップS41;Yes)、ステップS42において、識別対象の点を第5点群データに登録する。物体識別部13は、算出された距離が閾値以上でない(閾値未満である)と判定した場合(ステップS41;No)、又はステップS42の処理後に、ステップS42において、次の識別対象の点があるか否かを判定する。物体識別部13は、物体識別処理が予定された複数の点のうち物体識別処理が実行されていない点が存在する場合、次の識別対象の点があると判定する。物体識別部13は、次の識別対象の点があると判定した場合(ステップS43;Yes)、ステップS39に戻り、次の識別対象の点を選択する。 In step S41, the object identification unit 13 determines whether or not the distance calculated in step S30 is less than the threshold value. When the object identification unit 13 determines that the calculated distance is equal to or greater than the threshold value (step S41; Yes), the object identification unit 13 registers the point to be identified in the fifth point cloud data in step S42. When the object identification unit 13 determines that the calculated distance is not equal to or greater than the threshold value (less than the threshold value) (step S41; No), or after the processing of step S42, there is a next identification target point in step S42. Judge whether or not. When the object identification unit 13 has a plurality of points for which the object identification process is scheduled for which the object identification process has not been executed, the object identification unit 13 determines that there is a point to be identified next. When the object identification unit 13 determines that there is a point to be identified next (step S43; Yes), the object identification unit 13 returns to step S39 and selects the next point to be identified.

物体識別部13は、次の識別対象の点がないと判定した場合(ステップS43;No)、第5点群データを記憶部14に記憶させ、物体識別処理を終了する。第5点群データは、第4点群データから推定平面FPの近傍の点を除外した点群データである。第5点群データは、推定平面FPに対して識別された第2物体M2を表す点群データとして利用可能である。 When the object identification unit 13 determines that there is no next point to be identified (step S43; No), the object identification unit 13 stores the fifth point cloud data in the storage unit 14 and ends the object identification process. The fifth point cloud data is point cloud data in which points in the vicinity of the estimated plane FP are excluded from the fourth point cloud data. The fifth point cloud data can be used as point cloud data representing the second object M2 identified with respect to the estimated plane FP.

面推定部12は、第2物体M2の移動による位置検出部2の検出結果の変化に基づいて平面を推定してもよい。例えば、第2物体M2が第1位置から第2位置へ移動した際に、位置検出部2の検出結果の変化に基づく点群データは、上記第3点群データから上記第4点群データへ変化する。第3点群データが示す形状と、第4点群データが示す形状とで変化量が閾値未満である部分は、例えば、対象領域ARにおいて静止した物体に属すると推定される。面推定部12は、第3点群データが示す形状と、第4点群データが示す形状とで変化量が閾値未満である部分を抽出し、抽出した部分における平面を推定平面として導出してもよい。 The surface estimation unit 12 may estimate the plane based on the change in the detection result of the position detection unit 2 due to the movement of the second object M2. For example, when the second object M2 moves from the first position to the second position, the point cloud data based on the change in the detection result of the position detection unit 2 is changed from the third point cloud data to the fourth point cloud data. Change. It is presumed that the portion of the shape indicated by the third point cloud data and the shape indicated by the fourth point cloud data whose amount of change is less than the threshold value belongs to, for example, a stationary object in the target region AR. The surface estimation unit 12 extracts a portion where the amount of change is less than the threshold value between the shape indicated by the third point cloud data and the shape indicated by the fourth point cloud data, and derives the plane in the extracted portion as an estimation plane. May be good.

なお、図8では、第2物体M2が配置される第1位置が対象領域AR外であるとしたが、第1位置は、対象領域AR内でもよい。また、第1位置に対応する位置検出部2の検出処理(例、図9のステップS31)は、第2位置に対応する位置検出部2の検出処理(例、図9のステップS36)の終了後に実行されてもよい。ステップS32からステップS34の処理は、ステップS31の処理が終了してから、物体識別処理(例、ステップS39からステップS44)が開始されるまでの任意のタイミングで実行されてもよい。また、ステップS37からステップS38の処理は、ステップS36の処理が終了してから、物体識別処理(例、ステップS39からステップS44)が開始されるまでの任意のタイミングで実行されてもよい。 In FIG. 8, the first position where the second object M2 is arranged is outside the target area AR, but the first position may be inside the target area AR. Further, the detection process of the position detection unit 2 corresponding to the first position (example, step S31 in FIG. 9) ends the detection process of the position detection unit 2 corresponding to the second position (example, step S36 in FIG. 9). It may be executed later. The processes of steps S32 to S34 may be executed at any timing from the end of the process of step S31 to the start of the object identification process (eg, steps S39 to S44). Further, the processes of steps S37 to S38 may be executed at any timing from the end of the process of step S36 to the start of the object identification process (eg, steps S39 to S44).

[第3実施形態]
第3実施形態について説明する。本実施形態において、検出装置1の構成については適宜図1を参照する。本実施形態に係る物体識別部13(図1参照)は、位置検出部2が検出した物体M上の点と、面推定部12が推定した物体面(この場合、平面)との距離を強調した評価値を算出し、評価値に基づいて第2物体M2の位置情報を識別する。
[Third Embodiment]
The third embodiment will be described. In the present embodiment, FIG. 1 is appropriately referred to for the configuration of the detection device 1. The object identification unit 13 (see FIG. 1) according to the present embodiment emphasizes the distance between the point on the object M detected by the position detection unit 2 and the object surface (in this case, a plane) estimated by the surface estimation unit 12. The evaluation value is calculated, and the position information of the second object M2 is identified based on the evaluation value.

図10は、本実施形態に係る物体識別部13による物体識別処理を示す図である。図10のXYZ直交座標系において、Y方向は、推定平面FPに垂直な方向である。また、X方向およびZ方向は、それぞれ推定平面FPに平行、かつ、互いに垂直な方向である。例えば、Y方向は実空間の鉛直方向に対応し、X方向およびZ方向は、それぞれ実空間の水平方向に対応する。 FIG. 10 is a diagram showing an object identification process by the object identification unit 13 according to the present embodiment. In the XYZ Cartesian coordinate system of FIG. 10, the Y direction is the direction perpendicular to the estimated plane FP. Further, the X direction and the Z direction are parallel to the estimated plane FP and perpendicular to each other. For example, the Y direction corresponds to the vertical direction of the real space, and the X direction and the Z direction correspond to the horizontal direction of the real space, respectively.

物体識別部13は、Z方向に領域を分割し、分割した領域ごとに第2物体M2の位置情報を識別する。図10における符号PDは、分割された領域の1つ(Z≦Z<Zm+1の領域、mは正の整数)における物体Mの点群データである。物体識別部13は、点群データPDを二次元領域における点データとして(例、Z座標の値を無視して)、物体識別処理を実行する。物体識別部13は、m=1、2、・・・について、分割された領域に対する物体識別処理を順に行うことによって、所定の領域(例、対象領域AR)に関する物体Mの点群データから第2物体M2の点群データを識別する。The object identification unit 13 divides the area in the Z direction and identifies the position information of the second object M2 for each divided area. Reference numeral PD m in FIG. 10 is point cloud data of the object M in one of the divided regions (region of Z m ≤ Z <Z m + 1 , where m is a positive integer). The object identification unit 13 executes the object identification process by using the point cloud data PD m as point data in the two-dimensional region (for example, ignoring the value of the Z coordinate). The object identification unit 13 sequentially performs object identification processing on the divided regions for m = 1, 2, ..., From the point group data of the object M relating to a predetermined region (eg, target region AR). 2 Identify the point group data of the object M2.

図10の符号Pは、点群データPDに含まれる1つの点を表す。添え字のiは各点に割り付けられた番号(例、i=1、2、・・・)である。また、Xは点PのX座標であり、Yは点PのY座標である。Yは、推定平面FPのY座標であり、hは、点Pと推定平面FPとの距離(h=Y−Y、推定平面FPからの高さ)である。符号Q3は、物体M2の一部(例、人体の踵)を表す領域である。Sign P i in FIG. 10 represents one point included in the point cloud data PD m. The subscript i is a number assigned to each point (eg, i = 1, 2, ...). Further, X i is the X-coordinate of the point P i, Y i is the Y coordinate of the point P i. Y 0 is the Y coordinate of the estimated plane FP, h i is the distance between the point P i and the estimated plan FP (h i = Y i -Y 0, the height from the estimated plane FP). Reference numeral Q3 is a region representing a part of the object M2 (eg, the heel of the human body).

また、dは点Pに対する評価値である。例えば、領域Q3(図10に円で示す拡大図参照)において、dは、点Pに対する評価値である。物体識別部13は、評価値dとして、点Pと推定平面FPとの距離hに基づいて距離hを増加させた値を算出する。dを算出する評価関数は、例えば図10の式(1)で表される。式(1)において、V1は閾値(第2閾値)である。閾値V1は、任意に設定される値である。閾値V1は、例えば、第1閾値(例、図4の距離D)以下の値(例、0)に設定される。Also, d i is the evaluation value for the point P i. For example, in the region Q3 (see the enlarged view shown by the circle in FIG. 10), d j is an evaluation value with respect to the point P j. Object identification unit 13 as the evaluation value d i, a value is calculated by increasing the distance h i based on the distance h i between the point P i and the estimated plane FP. evaluation function for calculating the d i is represented by the formula (1) in FIG. 10, for example. In the formula (1), V1 is a threshold value (second threshold value). The threshold value V1 is a value that is arbitrarily set. The threshold value V1 is set to, for example, a value (example, 0) equal to or less than the first threshold value (example, distance D in FIG. 4).

物体識別部13は、物体Mにおける第1点と推定平面FPとの第1距離、及び第1点の周囲の第2点と推定平面FPとの第2距離に基づいて、第1点に関する評価値を算出する。第1点は、例えば点Pであり、第2点は例えば点Pi−1および点Pi+1である。第1距離は、例えば点Pと推定平面FPとの距離hであり、第2距離は、点Pi−1と推定平面FPとの距離hi−1、及び点Pi+1と推定平面FPとの距離hi+1である。式(1)において、fは、距離(h)に対する増加量である。The object identification unit 13 evaluates the first point based on the first distance between the first point and the estimated plane FP in the object M and the second distance between the second point around the first point and the estimated plane FP. Calculate the value. The first point is, for example, a point Pi , and the second point is, for example, a point Pi-1 and a point Pi + 1 . The first distance is a distance h i, for example, the point P i and the estimated plane FP, the second distance is the distance h i-1, and the point P i + 1 and the estimated plane between the point P i-1 and the estimated plane FP The distance to the FP is hi + 1 . In the formula (1), f i is the increment for the distance (h i).

図10の式(1)に示すように、物体識別部13は、第2距離(hi−1、hi+1)が閾値V1(第2閾値)以下である場合(hi−1≦V1 and hi+1≦V1)に、点Pに対する評価値dを第1距離(h)とする。物体識別部13は、第2距離(hi−1、hi+1)が閾値V1(第2閾値)よりも大きい場合(hi−1>V1, or hi+1>V1)に、点Pに対する評価値dとして、第2距離に基づいて第1距離を増加させた値(h+f)を算出する。As shown in the equation (1) of FIG. 10, the object identification unit 13 has a case where the second distance (hi -1 , hi + 1 ) is equal to or less than the threshold value V1 (second threshold value) (hi -1 ≤ V1 and). the h i + 1 ≦ V1), the evaluation value d i for point P i and the first distance (h i). Object identification unit 13, the second distance (h i-1, h i + 1) is larger than the threshold value V1 (second threshold value) (h i-1> V1 , or h i + 1> V1), for point P i as the evaluation value d i, the first distance calculating a value obtained by increasing (h i + f i) on the basis of the second distance.

物体識別部13は、第2距離(hi−1、hi+1)が第2閾値(V1)よりも大きい場合に、評価値として、第2距離に対して減少する値(f)を第1距離(h)に加算した値を算出する。増加量fは、第2距離をパラメータとする関数である。増加量fは、第2距離の減少に対して、値が増加する関数(傾きが負の関数、負の相関を持つ関数)である。増加量fは、例えば下記の式(2)で表される。
=(1/hi−1)+(1/hi+1) ・・・式(2)
Object identification unit 13, when the second distance (h i-1, h i + 1) is larger than the second threshold value (V1), as the evaluation value, a value which decreases with respect to the second distance (f i) first calculating a value obtained by adding the first distance (h i). Increment f i is a function of the second distance as a parameter. Increment f i, to the reduction of the second distance is a function of increasing values (function with slope negative function, a negative correlation). The amount of increase fi is represented by, for example, the following equation (2).
f i = (1 / h i-1 ) + (1 / h i + 1 ) ... Equation (2)

図10の符号Q4は、領域Q3に対応する各点の評価値dを示す領域である。領域Q4において、各点の評価値dは黒丸で表され、各点の距離hは白丸で表される。点P−2、点P−1は、推定平面FPから十分に離れた点である。例えば、点Pj−1と推定平面FPとの距離hj−1(領域Q4の点Pj-1に対応する白丸参照)は、第2物体M2に属するか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも大きい。また、点P、点Pj+1、及び点Pj+2は、推定平面FPの近傍の点である。例えば、点Pと推定平面FPとの距離h(領域Q4の点Pに対応する白丸参照)は、第2物体M2に属するか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも小さい。Code Q4 in FIG. 10 is a region showing the evaluation value d i of each point corresponding to the region Q3. In the region Q4, the evaluation value d i of each point is represented by a black circle, the distance h i of each point is represented by a white circle. The points P j -2 and the points P j -1 are points sufficiently separated from the estimated plane FP. For example, the distance h j-1 between the point P j-1 and the estimated plane FP (see the white circle corresponding to the point P j-1 in the region Q4) is used to determine whether or not it belongs to the second object M2. Greater than one threshold (eg, D in region Q4). Further, the point P j , the point P j + 1 , and the point P j + 2 are points in the vicinity of the estimated plane FP. For example, the distance h j between the point P j and the estimated plane FP (see the white circle corresponding to the point P j in the region Q4) is the first threshold value (eg, region) used to determine whether or not it belongs to the second object M2. It is smaller than D) of Q4.

ここで、点Pj−1を第1点とし、その周囲の第2点を点Pj−2および点Pとする。第2点(点Pj−2および点P)は、例えば点群データPDにおいて、第1点(点Pj−1)との距離が最も短い点、及びその次に距離が短い点である。物体識別部13は、第2点(点Pj−2)に関する第2距離(hj−2)がV1よりも大きい(hj−2>V1)ので、評価値dj−1としてhj−1+fj−1を算出する。評価値di−1は、点Pi−1が推定平面FPから十分に離れた点であるので、増加量fが小さいが距離hが大きく、第2物体M2であるか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも大きくなる。物体識別部13は、評価値di−1が第1閾値(D)以上であるか否かを判定する。物体識別部13は、評価値di−1が第1閾値(D)以上であると判定し、点Pi−1が第2物体M2上の点であると識別する(第1物体M1上の点でない識別する)。Here, the point P j-1 is set as the first point, and the second points around the point P j-1 are set as the point P j-2 and the point P j . The second point (point P j-2 and point P j ) is, for example, the point where the distance from the first point (point P j-1 ) is the shortest in the point cloud data PD m , and the point where the distance is the next shortest. Is. Since the second distance (h j-2 ) with respect to the second point (point P j-2 ) is larger than V1 (h j-2 > V1) in the object identification unit 13, the evaluation value d j-1 is h j. -1 + f j-1 is calculated. Evaluation value d i-1, since in that point P i-1 is sufficiently distant from the estimated plane FP, but the increase f i is smaller distance h i is large, is whether a second object M2 It is larger than the first threshold value (eg, D in region Q4) used for the determination. The object identification unit 13 determines whether or not the evaluation value di-1 is equal to or higher than the first threshold value (D). The object identification unit 13 determines that the evaluation value di -1 is equal to or higher than the first threshold value (D) , and identifies that the point Pi-1 is a point on the second object M2 (on the first object M1). Identify not the point of).

次に、点Pを第1点とし、その周囲の第2点を点Pj−1および点Pj+1とする。物体識別部13は、第2点(点Pj−1)に関する第2距離(hj−1)がV1よりも大きい(hj−1>V1)ので、評価値dとしてh+fを算出する。評価値dは、点Pが推定平面FPの近傍の点であるので、距離hが小さいが増加量fが大きく、第2物体M2であるか否かの判定に用いられる第1閾値(例、領域Q4のD)よりも大きくなる。物体識別部13は、評価値dが第1閾値(D)以上であるか否かを判定する。物体識別部13は、評価値dが第1閾値(D)以上であると判定し、点Pが第2物体M2上の点であると識別する(第1物体M1上の点でない識別する)。Next, let the point P j be the first point, and the second points around it be the point P j-1 and the point P j + 1 . Since the second distance (h j-1 ) with respect to the second point (point P j-1 ) of the object identification unit 13 is larger than V1 (h j-1 > V1), the evaluation value d j is h j + f j. Is calculated. Evaluation value d i, since the point P i is a point in the vicinity of the estimated plane FP, the distance h i is small large increase f i, first used in the determination of whether the second object M2 It becomes larger than the threshold value (eg, D of region Q4). Object identification unit 13, the evaluation value d i is equal to or first threshold value (D) above. Object identification unit 13, the evaluation value d i is determined to be the first threshold value (D) above, the identification point P i is not a point on the (first object M1 identifies that a point on the second object M2 do).

次に、点Pj+1を第1点とし、その周囲の第2点を点Pおよび点Pj+2とする。物体識別部13は、第2点(点P、点Pj+2)の第2距離(距離h、距離hj+2)がV1以下(h≦V1 and hj+2≦V1)ので、評価値dj+1をhj+1とする。物体識別部13は、評価値di+1が第1閾値(D)以上であるか否かを判定する。物体識別部13は、評価値di+1が第1閾値(D)未満であると判定し、点Pi+1が第2物体M2上の点でないと識別する(第1物体M1上の点である識別する)。Next, the point P j + 1 is set as the first point, and the second points around it are set as the point P j and the point P j + 2 . Object identification unit 13, the second point (point P j, the point P j + 2) the second distance (distance h j, the distance h j + 2) of less than or equal to V1 (h j ≦ V1 and h j + 2 ≦ V1) , so the evaluation value d Let j + 1 be h j + 1 . The object identification unit 13 determines whether or not the evaluation value di + 1 is equal to or higher than the first threshold value (D). The object identification unit 13 determines that the evaluation value di + 1 is less than the first threshold value (D) , and identifies that the point Pi + 1 is not a point on the second object M2 (identification as a point on the first object M1). do).

本実施形態に係る物体識別部13は、第1点(例、P)の周囲の第2点(例、Pi−1、Pi+1)と面推定部12が推定した平面(推定平面FP)との第2距離(例、hi−1、hi+1)に基づいて評価値(例、d)を算出し、評価値(例、d)と第1閾値(D)とを比較して第1点が第2物体に属するか否かを判定する。したがって、本実施形態に係る検出装置1は、推定平面FPの近傍の点(例、P)を、推定平面FP上の点と区別して第2物体M2に属する点として識別することができる。このように、物体識別部13は、推定平面FPの近傍の点と推定平面FP上の点とを高精度に識別して分離可能であり、検出装置1は、例えば第2物体M2の形状を高精度に検出可能である。Object identification unit 13 according to the present embodiment, the first point (e.g., P j) second point (eg, P i-1, P i + 1) around the plane of the surface estimation unit 12 has estimated (estimated plane FP second distance (example of a), the evaluation value based on the h i-1, h i + 1) ( example calculates the d j), compares the evaluation value (e.g., d j) and the first threshold value (D) Then, it is determined whether or not the first point belongs to the second object. Therefore, the detection device 1 according to the present embodiment can distinguish a point near the estimated plane FP (eg, Pj ) from a point on the estimated plane FP and identify it as a point belonging to the second object M2. In this way, the object identification unit 13 can identify and separate the points in the vicinity of the estimated plane FP and the points on the estimated plane FP with high accuracy, and the detection device 1 can, for example, determine the shape of the second object M2. It can be detected with high accuracy.

なお、物体識別部13は、推定平面FPからの距離(h)が所定の範囲内の点に対して、距離を強調した評価値を算出し、算出した評価値と第1閾値と比較して第2物体M2の位置情報を識別する処理を実行してもよい。例えば、物体識別部13は、推定平面FPからの距離(h)が第1閾値(例、D)よりも大きい点については評価値を導出しなくてもよい。また、物体識別部13は、第2閾値(例、V1)よりも小さい第4閾値を用いて、推定平面FPからの距離(h)が第4閾値よりも小さい点については評価値を導出しなくてもよい。物体識別部13は、例えば、推定平面FPからの距離(h)が第4閾値未満の点を、第2物体M2上の点ではない(第1物体M1上の点である)と識別してもよい。Incidentally, the object identification unit 13, for the points in the range distance (h i) is given from the estimated plane FP, the distance is calculated emphasized evaluation value is compared with the calculated evaluation value and the first threshold value The process of identifying the position information of the second object M2 may be executed. For example, object identification unit 13, the distance from the estimated plane FP (h i) a first threshold value (e.g., D) may not derive the evaluation value for a point greater than. Further, the object identifying unit 13, a second threshold value (e.g., V1) with a smaller fourth threshold than, derive the evaluation value for a point distance from the estimated plane FP (h i) is smaller than the fourth threshold value You don't have to. Object identification unit 13, for example, the distance from the estimated plane FP (h i) is a point less than the fourth threshold value, identified as not a point on the second object M2 (a point on the first object M1 is) You may.

なお、評価値を算出する評価関数(例、式(1))は、図10で説明した形態に限定されず適宜変更可能である。例えば、評価値dは、式(1)において距離hに増加量fを加算した値であるが、距離hに係数を乗算した値でもよい。また、増加量fは、(1/hi−1)+(1/hi+1)以外の関数で与えられてもよい。The evaluation function (eg, equation (1)) for calculating the evaluation value is not limited to the form described with reference to FIG. 10, and can be changed as appropriate. For example, the evaluation value d i is a value obtained by adding the increment f i to the distance h i in the formula (1), the coefficient may be a value obtained by multiplying the a distance h i. Also, increment f i may be given by a function other than (1 / h i-1) + (1 / h i + 1).

なお、物体識別部13は、式(1)のように距離hに基づいて評価値dを1次評価値として算出し、式(1)における距離hの代わりに1次評価値を用いることで2次評価値を算出してもよい(例、物体識別部13は評価値を再計算してもよい)。物体識別部13は、このような評価値の再計算によってk次評価値(kは2以上の整数)を導出し、k次評価値と閾値(例、第1閾値、図4のD)との比較によって、第2物体M2の位置情報を識別してもよい。例えば、図10の領域Q4に示した点Pの1次評価値(h+f)がhよりも大きくなり、点Pの1次評価値を用いて点Pj+1の2次評価値を算出すると、点Pj+1の2次評価値が第1閾値(例、領域Q4のD)以上となることで、点Pj+1は第2物体M2上の点として識別可能な場合がある。この場合、推定平面FPの近傍の点(例、点Pj+1)が第2物体M2上の点として認識され、例えば第2物体M2の形状を高精度に検出可能である。Incidentally, the object identification unit 13 calculates as the primary evaluation value evaluation value d i based on the distance h i as in equation (1), the primary evaluation value instead of the distance h i in equation (1) The secondary evaluation value may be calculated by using it (for example, the object identification unit 13 may recalculate the evaluation value). The object identification unit 13 derives a k-th evaluation value (k is an integer of 2 or more) by such recalculation of the evaluation value, and sets the k-th evaluation value and the threshold value (eg, the first threshold value, D in FIG. 4). The position information of the second object M2 may be identified by the comparison of. For example, larger than P 1 Assessment value of j (h j + f j) is h j the point indicated in the region Q4 of FIG. 10, secondary evaluation of the point P j + 1 with the primary evaluation values of the point P j After calculating the value, in that the second evaluation value of the point P j + 1 is the first threshold value (e.g., D region Q4) above, the point P j + 1 in some cases can be identified as points on the second object M2. In this case, a point near the estimated plane FP (eg, point Pj + 1 ) is recognized as a point on the second object M2, and for example, the shape of the second object M2 can be detected with high accuracy.

[第4実施形態]
第4実施形態について説明する。本実施形態において、検出装置1の構成については適宜図1を参照する。本実施形態において、第2物体M2上の点であるか否かの判定に用いられる閾値(例、図4の距離D)は、可変値である。物体識別部13(図1参照)は、位置検出部2が検出した物体M上の第1点と、その周囲の第2点とに基づいて閾値を設定し、設定した閾値を用いて第1点が第2物体M2上の点であるか否かを識別(判定)する。
[Fourth Embodiment]
A fourth embodiment will be described. In the present embodiment, FIG. 1 is appropriately referred to for the configuration of the detection device 1. In the present embodiment, the threshold value (eg, the distance D in FIG. 4) used for determining whether or not the point is on the second object M2 is a variable value. The object identification unit 13 (see FIG. 1) sets a threshold value based on the first point on the object M detected by the position detection unit 2 and the second point around the object M, and uses the set threshold value to make the first threshold value. It identifies (determines) whether or not the point is a point on the second object M2.

図11は、本実施形態に係る物体識別部13による物体識別処理を示す図である。図11において、図10と同様の要素については同じ符号を付してその説明を簡略化あるいは省略する。物体識別部13は、図10と同様に、Z方向に領域を分割し、分割した領域ごとに第2物体M2の位置情報を識別する。物体識別部13は、領域を分割しないで物体識別処理を実行してもよい。 FIG. 11 is a diagram showing an object identification process by the object identification unit 13 according to the present embodiment. In FIG. 11, the same elements as those in FIG. 10 are designated by the same reference numerals to simplify or omit the description thereof. Similar to FIG. 10, the object identification unit 13 divides the area in the Z direction and identifies the position information of the second object M2 for each divided area. The object identification unit 13 may execute the object identification process without dividing the area.

領域Q5において、符号Vは、物体識別部13が設定する閾値(第3閾値)である。物体識別部13は、位置検出部2が検出した物体Mにおける第1点(例、点P)の周囲の第2点(例、点Pj−1、点Pj+1)と面推定部12が推定した物体面(この場合、平面)(推定平面FP)との距離に基づいて閾値Vを設定する。閾値Vは、第1距離(例、h)と第2距離(例、hj−1とhj+1との一方又は双方)を変数とする関数である。閾値Vは、例えば、第1距離と第2距離とに重み付けした値(加重平均)であり、下記の式(3)で表される。式(3)のC、C、及びCは、係数(重み付け係数)である。C、C、及びCは、互いに異なる値でもよいし、少なくとも2つが同じ値でもよい。
=Ci−1+C+Ci+1 ・・・式(3)
In the region Q5, the code V i is the threshold set by the object identification unit 13 (third threshold value). The object identification unit 13 includes a second point (eg, point P j-1 , point P j + 1 ) and a surface estimation unit 12 around the first point (eg, point P j ) in the object M detected by the position detection unit 2. There (in this case, the plane) estimated object plane setting a threshold value V i based on the distance between the (estimated plane FP). Threshold V i is the first distance (eg, h j) and the second distance is a function with (e.g., one or both of the h j-1 and h j + 1) variables. Threshold V i is, for example, the first distance and the weighted value and a second distance (weighted average), represented by the following formula (3). C 1 , C 2 , and C 3 in the formula (3) are coefficients (weighting coefficients). C 1 , C 2 , and C 3 may have different values, or at least two may have the same value.
V i = C 1 h i-1 + C 2 h i + C 3 h i + 1 ... Equation (3)

物体識別部13は、第1点(例、点P)と面推定部12が推定した平面(推定平面FP)との距離(例、距離h)と第3閾値(例、閾値V)とを比較して、第1点が第2物体M2に属するか否かを判定する。物体識別部13は、距離hが閾値V以上である場合、点Pが第2物体M2上の点である(第1物体M1上の点でない)と識別する。例えば、推定平面FPの近傍の点(例、点P)は、推定平面FPとの距離(例、距離h)に対して閾値(例、閾値V)が小さくなる。したがって、物体識別部13は、推定平面FPの近傍の点(例、点P)を第2物体M2上の点として識別する。また、第1点(例、点P)が推定平面FP上の点である場合、閾値Vは小さいがh(i)が0となる。このように、物体識別部13は、距離hが閾値V未満である場合、点Pが第2物体M2上の点でない(第1物体M1上の点である)と識別する。このように、物体識別部13は、推定平面FPの近傍の点と推定平面FP上の点とを高精度に識別可能であり、検出装置1は、例えば第2物体M2の形状を高精度に検出可能である。Object identification unit 13, a first point (e.g., point P i) the distance between the surface estimation unit 12 has estimated plane (estimated plane FP) (eg, the distance h i) and the third threshold value (e.g., the threshold V i ) To determine whether or not the first point belongs to the second object M2. Object identification unit 13, if the distance h i is equal to or greater than the threshold value V i, the point P i is a point on the second object M2 (not a point on the first object M1) and identify. For example, a point near the estimated plane FP (eg, point P j ) has a smaller threshold (eg, threshold V j ) with respect to the distance from the estimated plane FP (eg, distance h j). Therefore, the object identification unit 13 identifies a point (eg, point Pj ) in the vicinity of the estimated plane FP as a point on the second object M2. The first point (e.g., point P i) when is a point on the estimated plane FP, but the threshold V i is smaller becomes h (i) is 0. Thus, the object identifying unit 13, when the distance h i is less than the threshold value V i, the point P i is not a point on the second object M2 (a point on the first object M1) and identify. In this way, the object identification unit 13 can discriminate between the points in the vicinity of the estimated plane FP and the points on the estimated plane FP with high accuracy, and the detection device 1 can, for example, accurately determine the shape of the second object M2. It is detectable.

図10および図11で説明したように、物体識別部13は、第1点(例、点P)と推定平面FPとの距離(例、h)に基づく値(例、距離h、評価値d)と、閾値との相対値(例、コントラスト)を調整して、第1点(例、点P)が第2物体M2上の点であるか否かを識別してもよい。なお、処理装置3は、上記相対値(例、コントラスト)を強調する第1モードと、上記相対値(例、コントラスト)を強調しない第2モードとを有してもよい。処理装置3は、例えばユーザの指定によって、上記第1モードと第2モードとを切替可能に構成してもよい。また、処理装置3は、上記第1モードまたは第2モードを有さなくてもよい。As described in FIGS. 10 and 11, the object identification unit 13, a first point (e.g., point P i) the distance between the estimated plane FP (eg, h i) values (examples based on the distance h i, evaluation value d i), the relative value of the threshold (e.g., by adjusting the contrast), the first point (e.g., also identify whether the point P i) is a point on the second object M2 good. The processing device 3 may have a first mode that emphasizes the relative value (eg, contrast) and a second mode that does not emphasize the relative value (eg, contrast). The processing device 3 may be configured to be switchable between the first mode and the second mode, for example, according to the user's designation. Further, the processing device 3 does not have to have the first mode or the second mode.

また、図10および図11で説明したように、物体識別部13は、分割された領域(例、Z≦Z<Zm+1の領域)ごとに物体識別処理を実行する場合、例えば第1点の周囲の第2点を探索する処理の負荷が低減される。また、物体識別部13は、分割された領域の点群データPDに含まれる点のデータを二次元データ(二次元座標)として物体識別処理を実行する場合、例えば距離を算出する処理の負荷が低減される。Further, as described with reference to FIGS. 10 and 11, when the object identification unit 13 executes the object identification process for each divided region (eg, region of Z m ≤ Z <Z m + 1 ), for example, the first point. The processing load for searching for the second point around the object is reduced. Further, when the object identification unit 13 executes the object identification process using the point data included in the point cloud data PD m of the divided area as two-dimensional data (two-dimensional coordinates), for example, the load of the process of calculating the distance. Is reduced.

なお、物体識別部13は、全体の領域に対して一括して(例、領域を分割せずに)物体識別処理を実行してもよい。また、物体識別部13は、点群データPDに含まれる点のデータを三次元データ(三次元座標)として物体識別処理を実行してもよい。この場合、物体識別部13は、例えば、第1点の周囲の第2点(例、最近点)を高精度に特定することができる。また、物体識別部13は、例えば、各点と推定平面FPとの距離を高精度に算出して第2物体M2に属する点を識別することができる。また、第2点の数は、図10および図11において2つであるが、1つでもよいし、3つ以上でもよい。 The object identification unit 13 may collectively execute the object identification process (for example, without dividing the area) for the entire area. Further, the object identification unit 13 may execute the object identification process using the point data included in the point cloud data PD as three-dimensional data (three-dimensional coordinates). In this case, the object identification unit 13 can identify, for example, a second point (eg, a recent point) around the first point with high accuracy. Further, the object identification unit 13 can, for example, calculate the distance between each point and the estimated plane FP with high accuracy to identify the points belonging to the second object M2. The number of the second points is two in FIGS. 10 and 11, but may be one or three or more.

なお、物体識別部13は、推定平面FPからの距離hが所定の範囲内の点に対して第3閾値を設定し、距離hと設定した第3閾値と比較して第2物体M2の位置情報を識別する処理を実行してもよい。更に、例えば、物体識別部13は、推定平面FPからの距離(h)が第1閾値(例、D)よりも大きい点については、第1閾値を用いて物体識別処理を実行し、第3閾値を算出しなくてもよい。また、物体識別部13は、第1閾値(例、D)よりも小さい第5閾値を用いて、推定平面FPからの距離(h)が第5閾値よりも小さい点については第3閾値を導出しなくてもよい。物体識別部13は、例えば、推定平面FPからの距離(h)が第5閾値未満の点を、第2物体M2上の点ではない(第1物体M1上の点である)と識別してもよい。また、第3閾値を算出する関数は、式(3)の関数に限定されず、適宜変更可能である。Incidentally, the object identifying unit 13, the estimated distance h i from the plane FP sets the third threshold value relative to a point within a predetermined range, the distance h i between the second object as compared to the third threshold set M2 You may execute the process of identifying the position information of. Furthermore, for example, the object identification unit 13, the distance (h i) a first threshold value (e.g., D) from the estimated plane FP for points greater than performs the object identification process using the first threshold value, the 3 It is not necessary to calculate the threshold value. Further, the object identifying unit 13, a first threshold value (e.g., D) with a small fifth threshold than for points the distance from the estimated plane FP (h i) is smaller than the fifth threshold value is a third threshold value It does not have to be derived. Object identification unit 13, for example, the distance from the estimated plane FP (h i) is a point less than the fifth threshold value, identified as not a point on the second object M2 (a point on the first object M1 is) You may. Further, the function for calculating the third threshold value is not limited to the function of the equation (3), and can be changed as appropriate.

なお、物体識別部13は、図4の物体識別処理と、図10の物体識別処理と、図11の物体識別処理との少なくとも2つを組み合わせた処理によって、第2物体M2の位置情報を識別してもよい。例えば、物体識別部13は、上記したような複数の閾値を用いて、いずれの物体識別処理を実行するかを決定してもよい。また、物体識別部13は、図10のように算出した評価値dと、図11のように設定した閾値Vとの比較によって、第2物体M2の位置情報を識別してもよい。The object identification unit 13 identifies the position information of the second object M2 by a process that combines at least two of the object identification process of FIG. 4, the object identification process of FIG. 10, and the object identification process of FIG. You may. For example, the object identification unit 13 may determine which object identification process is to be executed by using a plurality of threshold values as described above. Further, the object identifying unit 13, the evaluation value d i calculated as in Figure 10, by comparison with the threshold value V i that is set as shown in FIG. 11, may identify the position information of the second object M2.

[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、第5実施形態に係る検出装置を示す図である。本実施形態に係る検出装置1は、例えばユーザから指定される条件に基づいて、第1物体M1における表面SFを物体面(この場合、平面)として推定する。
[Fifth Embodiment]
A fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 12 is a diagram showing a detection device according to a fifth embodiment. The detection device 1 according to the present embodiment estimates the surface SF of the first object M1 as an object surface (in this case, a plane) based on, for example, a condition specified by the user.

検出装置1は、入力部21と、表示部22とを備える。入力部21は、処理装置3に対する各種情報(例、データ、指令)の入力を受け付ける。入力部21は、第1物体M1の面を指定する情報(例、物体面に関する初期状態の情報)の入力を受け付ける。ユーザは、入力部21を操作することによって、処理装置3に対して各種情報を入力可能である。入力部21は、例えば、キーボード、マウス、トラックボール、タッチパネル、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。表示部22は、処理装置3から出力される画像のデータに基づいて、この画像を表示する。表示部22は、例えば、液晶ディスプレイを含む。表示部22および入力部21は、タッチパネルなどでもよい。 The detection device 1 includes an input unit 21 and a display unit 22. The input unit 21 receives input of various information (eg, data, command) to the processing device 3. The input unit 21 receives input of information (eg, information on the initial state regarding the object surface) that specifies the surface of the first object M1. The user can input various information to the processing device 3 by operating the input unit 21. The input unit 21 includes, for example, at least one of a keyboard, a mouse, a trackball, a touch panel, and a voice input device (eg, a microphone). The display unit 22 displays this image based on the image data output from the processing device 3. The display unit 22 includes, for example, a liquid crystal display. The display unit 22 and the input unit 21 may be a touch panel or the like.

次に、本実施形態に係る平面推定処理について説明する。本実施形態において、位置検出部2は、図8で説明したように第2物体M2が第1位置(例、対象領域AR外)に配置された第1状態Q1と、第2物体M2が第1位置と異なる第2位置(例、対象領域内)に配置された第2状態とのそれぞれにおいて、対象領域ARにおける物体Mの位置情報(例、デプス)を検出する。面推定部12は、第1状態Q1に対応する位置検出部2の検出結果(例、デプスの測定値)に基づいて、平面推定処理を実行する。 Next, the plane estimation process according to the present embodiment will be described. In the present embodiment, in the position detection unit 2, the first state Q1 in which the second object M2 is arranged at the first position (eg, outside the target area AR) and the second object M2 are second as described with reference to FIG. The position information (eg, depth) of the object M in the target area AR is detected in each of the second state arranged in the second position (eg, in the target area) different from the first position. The surface estimation unit 12 executes the plane estimation process based on the detection result (eg, the measured value of the depth) of the position detection unit 2 corresponding to the first state Q1.

図13は、第5実施形態に係る平面推定処理を示す図である。図3のデプスマップDM1では第2物体M2に対する検出結果が含まれるのに対して、図13のデプスマップDM3では第2物体M2に対する検出結果が含まれていない。点群データ生成部15は、デプスマップDM3に対して点群処理を実行し、第3点群データを生成する。面推定部12は、第3点群データに基づいて平面を推定する。例えば、面推定部12は、推定平面FPの候補として、平面FP3、平面FP4、及び平面FP5を推定する。例えば、平面FP3および平面FP4は、それぞれ、第2物体M2が配置されることが想定される空間の周囲の壁面である。平面FP4は、例えば、上記空間の床面、地面、又は路面である。 FIG. 13 is a diagram showing a plane estimation process according to the fifth embodiment. The depth map DM1 of FIG. 3 includes the detection result for the second object M2, whereas the depth map DM3 of FIG. 13 does not include the detection result for the second object M2. The point cloud data generation unit 15 executes point cloud processing on the depth map DM3 and generates third point cloud data. The surface estimation unit 12 estimates the plane based on the third point cloud data. For example, the plane estimation unit 12 estimates the plane FP3, the plane FP4, and the plane FP5 as candidates for the estimation plane FP. For example, the plane FP3 and the plane FP4 are wall surfaces around a space in which the second object M2 is assumed to be arranged, respectively. The plane FP4 is, for example, a floor surface, a ground surface, or a road surface of the above space.

処理装置3は、平面FP3、平面FP4、及び平面FP5を表す画像Imを表示部22に表示する。入力部21は、第1物体M1の面を指定する情報として、推定平面の候補(平面FP3、平面FP4、平面FP5)のうち平面を指定(例、選択)する情報の入力を受け付ける。ユーザは、例えば、入力部21としてマウスを操作することによって、表示部22上においてポインタPTを所望の平面(例、平面FP4)上に移動させ、クリック動作などによって平面を指定する。 The processing device 3 displays an image Im representing the plane FP3, the plane FP4, and the plane FP5 on the display unit 22. The input unit 21 receives input of information for designating (eg, selecting) a plane among the candidates for the estimated plane (plane FP3, plane FP4, plane FP5) as the information for designating the plane of the first object M1. For example, the user operates the mouse as the input unit 21 to move the pointer PT on a desired plane (eg, plane FP4) on the display unit 22, and designates the plane by a click operation or the like.

入力部21は、ユーザから入力された情報(例、マウスの移動情報、クリックの有無の情報)を処理装置3に出力する。処理装置3(面推定部12)は、入力部21から出力された情報に基づいて、指定された平面(例、平面FP4)を特定する。面推定部12は、ユーザが指定する平面として特定された平面を推定平面FPとして採用し、推定平面FPを表す情報を記憶部14に記憶させる。 The input unit 21 outputs the information input by the user (eg, mouse movement information, click presence / absence information) to the processing device 3. The processing device 3 (plane estimation unit 12) identifies a designated plane (eg, plane FP4) based on the information output from the input unit 21. The surface estimation unit 12 adopts a plane specified as a plane designated by the user as the estimation plane FP, and stores information representing the estimation plane FP in the storage unit 14.

また、点群データ生成部15は、第2状態Q2に対応する位置検出部2の検出結果(例、デプスの測定値、図3のデプスマップDM1)に対して点群処理を実行し、第4点群データを生成する。物体識別部13は、第3点群データから得られる推定平面FPと、第4点群データとに基づいて、物体識別処理を実行する。 Further, the point cloud data generation unit 15 executes point cloud processing on the detection result of the position detection unit 2 corresponding to the second state Q2 (eg, the measured value of the depth, the depth map DM1 in FIG. 3), and the point cloud processing is performed. Generate 4-point cloud data. The object identification unit 13 executes the object identification process based on the estimated plane FP obtained from the third point cloud data and the fourth point cloud data.

なお、第1物体M1の面を指定する情報は、対象領域ARにおける第2物体M2に対する第1物体M1の位置(例、相対位置)を指定する情報を含んでもよい。例えば、第2物体M2に対する第1物体M1の位置は、第2物体M2が存在する位置に基づき設定される第1物体M1が存在する位置でもよい。また、第2物体M2に対する第1物体M1の位置は、第2物体M2が配置される予定の位置に基づき設定される第1物体M1が存在する位置でもよい。また、第1物体M1の面を指定する情報は、対象領域ARにおける第2物体M2に対する第1物体M1の方向を指定する情報を含んでもよい。例えば、第2物体M2に対する第1物体M1の方向は、第2物体M2が存在する位置に対して第1物体M1が存在する方向でもよい。また、第2物体M2に対する第1物体M1の方向は、第2物体M2が配置される予定の位置に対して第1物体M1が存在する方向でもよい。 The information for designating the surface of the first object M1 may include information for designating the position (eg, relative position) of the first object M1 with respect to the second object M2 in the target area AR. For example, the position of the first object M1 with respect to the second object M2 may be the position where the first object M1 exists, which is set based on the position where the second object M2 exists. Further, the position of the first object M1 with respect to the second object M2 may be the position where the first object M1 is set based on the position where the second object M2 is scheduled to be arranged. Further, the information for designating the surface of the first object M1 may include information for designating the direction of the first object M1 with respect to the second object M2 in the target area AR. For example, the direction of the first object M1 with respect to the second object M2 may be the direction in which the first object M1 exists with respect to the position where the second object M2 exists. Further, the direction of the first object M1 with respect to the second object M2 may be the direction in which the first object M1 exists with respect to the position where the second object M2 is scheduled to be arranged.

なお、面推定部12は、予め設定された算出条件に基づいて上記の平面を推定してもよい。入力部21は、算出条件を設定する際の情報の入力に用いられてもよい。検出装置1は、入力部21と表示部22との一方または双方を備えなくてもよい。例えば、入力部21は検出装置1に外付け可能なデバイスであって、検出装置1は、入力部21が取り付けられていない状態で提供されてもよい。また、表示部22は検出装置1に外付け可能なデバイスであって、検出装置1は、表示部22が取り付けられていない状態で提供されてもよい。 The plane estimation unit 12 may estimate the above plane based on preset calculation conditions. The input unit 21 may be used for inputting information when setting calculation conditions. The detection device 1 does not have to include one or both of the input unit 21 and the display unit 22. For example, the input unit 21 is a device that can be externally attached to the detection device 1, and the detection device 1 may be provided without the input unit 21 attached. Further, the display unit 22 is a device that can be externally attached to the detection device 1, and the detection device 1 may be provided in a state where the display unit 22 is not attached.

[第6実施形態]
第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図14は、第6実施形態に係る検出装置を示す図である。本実施形態に係る検出装置1は、対象領域ARにおける鉛直方向を検出する方向検出部23を備える。面推定部12は、方向検出部23が検出した鉛直方向の下方の物体面(この場合、平面)を推定平面として推定する。
[Sixth Embodiment]
The sixth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 14 is a diagram showing a detection device according to a sixth embodiment. The detection device 1 according to the present embodiment includes a direction detection unit 23 that detects a vertical direction in the target region AR. The surface estimation unit 12 estimates an object surface (in this case, a plane) below the vertical direction detected by the direction detection unit 23 as an estimation plane.

方向検出部23は、例えば、加速度センサ、地磁気センサ、及び慣性計測センサ(IMU)の少なくとも1つを含む。方向検出部23は、重力加速度の向きを検出する。方向検出部23は、検出装置1(例、位置検出部2)の姿勢を検出してもよい。面推定部12は、方向検出部23の検出結果に基づいて、点群データにおいて鉛直方向の下方に相当する向き(例、ベクトル)を算出する。面推定部12は、算出した向きを法線方向とする平面を推定平面FPとして導出する。 The direction detection unit 23 includes, for example, at least one of an acceleration sensor, a geomagnetic sensor, and an inertial measurement unit (IMU). The direction detection unit 23 detects the direction of gravitational acceleration. The direction detection unit 23 may detect the posture of the detection device 1 (eg, the position detection unit 2). The surface estimation unit 12 calculates the direction (eg, vector) corresponding to the lower part in the vertical direction in the point cloud data based on the detection result of the direction detection unit 23. The surface estimation unit 12 derives a plane whose normal direction is the calculated direction as the estimated plane FP.

[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図15は、第7実施形態に係る検出装置を示す図である。本実施形態において、処理装置3は、レンダリング処理部24を備える。
[7th Embodiment]
A seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 15 is a diagram showing a detection device according to a seventh embodiment. In the present embodiment, the processing device 3 includes a rendering processing unit 24.

レンダリング処理部24は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部24は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部24は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。 The rendering processing unit 24 includes, for example, a graphics processing unit (GPU). The rendering processing unit 24 may have a mode in which the CPU and the memory execute each processing according to the image processing program. The rendering processing unit 24 performs at least one of drawing processing, texture mapping processing, and shading processing, for example.

レンダリング処理部24は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部24は、例えば、描画処理によって、モデル情報(例、形状情報)から推定画像を再構成できる。レンダリング処理部24は、例えば、算出した推定画像のデータを記憶部56に記憶させる。 In the drawing process, the rendering processing unit 24 can calculate, for example, an estimated image (eg, a reconstructed image) of the shape defined in the shape information of the model information viewed from an arbitrary viewpoint. In the following description, the shape indicated by the shape information is referred to as a model shape. The rendering processing unit 24 can reconstruct the estimated image from the model information (eg, shape information) by, for example, drawing processing. The rendering processing unit 24 stores, for example, the calculated estimated image data in the storage unit 56.

また、レンダリング処理部24は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部24は、推定画像上の物体の表面に、対象物と別のテクスチャを貼り付けた推定画像を算出することができる。レンダリング処理部24は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部24は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。 Further, in the texture mapping process, the rendering processing unit 24 can calculate, for example, an estimated image in which the image indicated by the texture information of the model information is pasted on the surface of the object on the estimated image. The rendering processing unit 24 can calculate an estimated image in which a texture different from the object is attached to the surface of the object on the estimated image. In the shading process, the rendering processing unit 24 can calculate, for example, an estimated image in which a shadow formed by the light source indicated by the light source information of the model information is added to the object on the estimated image. Further, in the shading process, the rendering processing unit 24 can calculate, for example, an estimated image in which a shadow formed by an arbitrary light source is added to an object on the estimated image.

処理装置3は、レンダリング処理部24が生成した推定画像を、表示部22に表示させる。例えば、レンダリング処理部24は、ユーザが入力部21を用いて指定する条件(例、視点の位置、視点の方向)に基づいて描画処理を実行して推定画像を生成し、推定画像を表示部22に表示させる。ユーザは、指定した条件で生成される推定画像を表示部22上でみることができる。 The processing device 3 causes the display unit 22 to display the estimated image generated by the rendering processing unit 24. For example, the rendering processing unit 24 executes drawing processing based on the conditions (eg, the position of the viewpoint, the direction of the viewpoint) specified by the user using the input unit 21 to generate an estimated image, and displays the estimated image. Display on 22. The user can see the estimated image generated under the specified conditions on the display unit 22.

実施形態において、物体識別部13は、第2物体M2を第1物体M1に対して識別可能であるので、モデル生成部11は、例えば第2物体M2を高精度にセグメント化して形状情報を生成することができる。レンダリング処理部24は、第2物体M2が高精度にセグメント化されて生成される形状情報に基づいて推定画像を生成するので、例えば、推定画像において第2物体M2を高精度に表すことができる。 In the embodiment, since the object identification unit 13 can identify the second object M2 with respect to the first object M1, the model generation unit 11 generates shape information by segmenting the second object M2 with high accuracy, for example. can do. Since the rendering processing unit 24 generates an estimated image based on the shape information generated by segmenting the second object M2 with high accuracy, for example, the second object M2 can be represented with high accuracy in the estimated image. ..

なお、処理装置3は、レンダリング処理部24を備えなくてもよい。レンダリング処理部24は、処理装置3の外部に設けられてもよい。処理装置3は、物体識別部13の識別結果に基づいてモデル生成部11が生成したモデル情報を、処理装置3の外部に設けられるレンダリング処理部24に出力してもよい。 The processing device 3 does not have to include the rendering processing unit 24. The rendering processing unit 24 may be provided outside the processing device 3. The processing device 3 may output the model information generated by the model generation unit 11 based on the identification result of the object identification unit 13 to the rendering processing unit 24 provided outside the processing device 3.

[第8実施形態]
第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図16は、第8実施形態に係る検出装置を示す図である。本実施形態において、処理装置3は、姿勢推定部25を備える。姿勢推定部25は、物体識別部13の識別結果に基づいてモデル生成部11が生成するモデル情報を用いて、第2物体M2の姿勢を推定する(姿勢解析処理)。ここでは、第2物体M2が人体であり、物体面としての表面SFが床面であるとする。
[8th Embodiment]
An eighth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 16 is a diagram showing a detection device according to an eighth embodiment. In the present embodiment, the processing device 3 includes a posture estimation unit 25. The posture estimation unit 25 estimates the posture of the second object M2 using the model information generated by the model generation unit 11 based on the identification result of the object identification unit 13 (posture analysis processing). Here, it is assumed that the second object M2 is a human body and the surface SF as an object surface is a floor surface.

姿勢推定部25は、人体M2の特徴的な部分(例、特徴部分、特徴点)の位置情報を生成する。人体M2の特徴部分は、例えば、人体M2のうち他の部分と区別可能な部分である。人体M2の特徴部分は、例えば、人体の末端部(例、足先)、関節(例、膝)、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。特徴部分の位置情報は、例えば、特徴部分を代表する点の座標(例、3次元座標)を含む。 The posture estimation unit 25 generates position information of a characteristic portion (eg, feature portion, feature point) of the human body M2. The characteristic portion of the human body M2 is, for example, a portion of the human body M2 that can be distinguished from other parts. Characteristic parts of the human body M2 include, for example, at least one of the ends of the human body (eg, toes), joints (eg, knees), or between the ends and the joints or between the two joints. .. The position information of the feature portion includes, for example, the coordinates of a point representing the feature portion (eg, three-dimensional coordinates).

姿勢推定部25は、例えば、モデル生成部11(例、点群データ生成部15)が生成した形状情報(例、点群データ)を用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部分の位置情報を生成する。姿勢推定部25は、上記の認識処理によって、特徴部分を表す点の座標を算出し、複数の特徴部位(例、足先、膝、股関節)の相対位置によって、人体の少なくとも一部(例、脚部)の姿勢を推定する。 The posture estimation unit 25 uses, for example, recognition processing (eg, pattern recognition, shape recognition, skeleton recognition) using shape information (eg, point cloud data) generated by the model generation unit 11 (eg, point cloud data generation unit 15). ) Etc. to generate the position information of the above-mentioned feature portion. The posture estimation unit 25 calculates the coordinates of the points representing the feature parts by the above recognition process, and at least a part of the human body (eg, the toes, knees, hip joints) depending on the relative positions of the plurality of feature parts (eg, toes, knees, hip joints). Estimate the posture of the legs).

人体M2が床面SF上で歩行する場合、例えば、床面SFに接した足の足先(足首から先の部分)が床面SFの近くに配置される状態がある。最初に、実施形態に係る面推定部12は、位置検出部2が検出した上記の位置情報を用いて床面SFを平面で推定する。その後、物体識別部13は、面推定部12が推定した床面SFとの距離が閾値以上の部分と、面推定部12が推定した床面SFとの距離が閾値未満の部分(床面近傍の部分)とのコントラストを強調する。モデル生成部11は、物体識別部13の識別結果を用いることで、足部の抽出誤差を小さくして分離精度を向上させることができる。モデル生成部11は、例えば、人体M2のうち床面SFと接触する部分(例、手先、足先)の高精度な形状情報を生成することができる。姿勢推定部25は、高精度な形状情報に基づいて人体M2の特徴部分を高精度に抽出することができ、人体M2の姿勢を高精度に推定することができる。 When the human body M2 walks on the floor surface SF, for example, there is a state in which the toes (the portion from the ankle to the tip) of the foot in contact with the floor surface SF are arranged near the floor surface SF. First, the surface estimation unit 12 according to the embodiment estimates the floor surface SF on a plane using the above position information detected by the position detection unit 2. After that, the object identification unit 13 includes a portion where the distance from the floor surface SF estimated by the surface estimation unit 12 is equal to or greater than the threshold value and a portion where the distance between the floor surface SF estimated by the surface estimation unit 12 is less than the threshold value (near the floor surface). The contrast with the part) is emphasized. By using the identification result of the object identification unit 13, the model generation unit 11 can reduce the extraction error of the foot and improve the separation accuracy. The model generation unit 11 can generate, for example, highly accurate shape information of a portion (eg, hand, toe) of the human body M2 that comes into contact with the floor surface SF. The posture estimation unit 25 can extract the characteristic portion of the human body M2 with high accuracy based on the highly accurate shape information, and can estimate the posture of the human body M2 with high accuracy.

姿勢推定部25は、人体M2の動作(例、運動)を検出(例、推定)してもよい。姿勢推定部25は、フェンシング、野球、サッカー、ゴルフ、剣道、アメリカンフットボール、アイスホッケー、体操などのスポーツ、ダンス、芸能、ランニング、エクササイズ、ヨガ、ボディビル、ファッションショーなどのウォーキングもしくはポージング、ゲーム、人物認証、又は仕事において人体M2の動作を検出してもよい。例えば、姿勢推定部25は、人体M2の姿勢に基づいて、人体M2が歩行する動作を検出してもよい。 The posture estimation unit 25 may detect (eg, estimate) the movement (eg, movement) of the human body M2. The posture estimation unit 25 includes sports such as fencing, baseball, soccer, golf, kendo, American football, ice hockey, and gymnastics, dance, performing arts, running, exercise, yoga, body building, walking or posing such as fashion shows, games, etc. The movement of the human body M2 may be detected in person authentication or work. For example, the posture estimation unit 25 may detect the walking motion of the human body M2 based on the posture of the human body M2.

なお、処理装置3は、姿勢推定部25を備えなくてもよい。姿勢推定部25は、処理装置3の外部に設けられてもよい。処理装置3は、物体識別部13の識別結果に基づいてモデル生成部11が生成したモデル情報を、処理装置3の外部に設けられる姿勢推定部25に出力してもよい。 The processing device 3 does not have to include the posture estimation unit 25. The posture estimation unit 25 may be provided outside the processing device 3. The processing device 3 may output the model information generated by the model generation unit 11 based on the identification result of the object identification unit 13 to the posture estimation unit 25 provided outside the processing device 3.

上述の実施形態において、処理装置3は、例えばコンピュータシステムを含む。処理装置3は、記憶部14に記憶されている処理プログラム(検出プログラム)を読み出し、この処理プログラムに従って各種の処理を実行する。この処理プログラムは、コンピュータに、対象領域ARにおける第1物体M1及び第2物体M2を含む物体M上の各点の位置情報を検出した検出結果に基づく第1物体M1の物体面(推定平面FP)と、物体M上の各点との距離に基づいて、物体面(推定平面FP)に接触する第2物体M2の少なくとも一部を物体面(推定平面FP)に対して識別すること、を実行させる。この処理プログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。 In the above-described embodiment, the processing device 3 includes, for example, a computer system. The processing device 3 reads a processing program (detection program) stored in the storage unit 14 and executes various processes according to the processing program. This processing program detects the position information of each point on the object M including the first object M1 and the second object M2 in the target area AR on the computer, and the object surface (estimated plane FP) of the first object M1 based on the detection result. ) And at least a part of the second object M2 in contact with the object surface (estimated plane FP) based on the distance to each point on the object M with respect to the object surface (estimated plane FP). Let it run. The processing program may be recorded and provided on a computer-readable storage medium (eg, non-transitory tangible media).

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。例えば、検出装置1は、位置検出部2と面推定部12と物体識別部13とを備える場合、第2物体M2を第1物体M1と識別して検出可能である。検出装置1は、位置検出部2と面推定部12と物体識別部13とを除いた部分の少なくとも一部を備えなくてもよい。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。検出装置1は、位置検出部2と面推定部12と物体識別部13との他に、所定の処理を実行する部分を備えてもよい。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. For example, when the detection device 1 includes the position detection unit 2, the surface estimation unit 12, and the object identification unit 13, the second object M2 can be identified and detected as the first object M1. The detection device 1 does not have to include at least a part of a portion excluding the position detection unit 2, the surface estimation unit 12, and the object identification unit 13. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. The detection device 1 may include a portion that executes a predetermined process in addition to the position detection unit 2, the surface estimation unit 12, and the object identification unit 13. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、日本特許出願である特願2018−133517、及び、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, to the extent permitted by law, the disclosure of Japanese Patent Application No. 2018-133517 and all the documents cited in the above-described embodiments will be incorporated as part of the description of the main text.

1・・・検出装置、2・・・位置検出部、3・・・処理装置、4・・・検出部、M・・・物体、M1・・・第1物体、M2・・・第2物体、12・・・面推定部、13・・・物体識別部、14・・・記憶部、15・・・点群データ生成部、21・・・入力部、22・・・表示部、AR・・・対象領域、FP・・・推定平面 1 ... Detection device, 2 ... Position detection unit, 3 ... Processing device, 4 ... Detection unit, M ... Object, M1 ... First object, M2 ... Second object , 12 ... plane estimation unit, 13 ... object identification unit, 14 ... storage unit, 15 ... point cloud data generation unit, 21 ... input unit, 22 ... display unit, AR ...・ ・ Target area, FP ・ ・ ・ Estimated plane

Claims (19)

対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出する位置検出部と、
前記位置検出部の検出結果に基づく前記第1物体の物体面と、前記位置検出部が検出した前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別する物体識別部と、を備える検出装置。
A position detection unit that detects the position information of each point on the object including the first object and the second object in the target area, and
At least of the second object in contact with the object surface based on the distance between the object surface of the first object based on the detection result of the position detection unit and each point on the object detected by the position detection unit. A detection device including an object identification unit that identifies a part of the object surface.
前記物体上の各点の位置情報として点群データを生成する点群データ生成部を備え、
前記点群データ生成部が生成した点群データに基づいて前記物体面を求める、
請求項1に記載の検出装置。
A point cloud data generation unit that generates point cloud data as position information of each point on the object is provided.
The object surface is obtained based on the point cloud data generated by the point cloud data generation unit.
The detection device according to claim 1.
前記位置検出部は、前記物体上の各点の位置情報として前記物体上の各点と所定の点との距離を検出する検出部を含み、
前記点群データ生成部は、前記検出部の検出結果に基づいて前記点群データを生成する、
請求項2に記載の検出装置。
The position detection unit includes a detection unit that detects the distance between each point on the object and a predetermined point as position information of each point on the object.
The point cloud data generation unit generates the point cloud data based on the detection result of the detection unit.
The detection device according to claim 2.
前記物体識別部は、前記物体面との距離が所定値以上である点を前記第2物体と識別する、
請求項1から請求項3のいずれか一項に記載の検出装置。
The object identification unit identifies a point at which the distance from the object surface is equal to or greater than a predetermined value from the second object.
The detection device according to any one of claims 1 to 3.
前記物体識別部は、前記物体における第1点と前記物体面との第1距離について、前記第1点の周囲の第2点と前記物体面との第2距離に基づいて、前記第1距離を強調した評価値を算出し、前記評価値と第1閾値とを比較して前記第1点が前記第2物体に属するか否かを判定する、
請求項1から請求項4のいずれか一項に記載の検出装置。
The object identification unit determines the first distance between the first point and the object surface of the object based on the second distance between the second point around the first point and the object surface. Is calculated, and the evaluation value is compared with the first threshold value to determine whether or not the first point belongs to the second object.
The detection device according to any one of claims 1 to 4.
前記物体識別部は、前記第2距離が第2閾値よりも大きい場合に、前記評価値として、前記第2距離に基づいて前記第1距離を増加させた値を算出する、
請求項5に記載の検出装置。
When the second distance is larger than the second threshold value, the object identification unit calculates, as the evaluation value, a value obtained by increasing the first distance based on the second distance.
The detection device according to claim 5.
前記物体識別部は、前記第2距離が前記第2閾値よりも大きい場合に、前記評価値として、前記第2距離に対して減少する値を前記第1距離に加算した値を算出する、
請求項6に記載の検出装置。
When the second distance is larger than the second threshold value, the object identification unit calculates, as the evaluation value, a value obtained by adding a value that decreases with respect to the second distance to the first distance.
The detection device according to claim 6.
前記物体識別部は、前記物体における第1点の周囲の第2点と前記物体面との距離に基づいて第3閾値を設定し、前記第1点と前記物体面との距離と前記第3閾値とを比較して、前記第1点が前記第2物体に属するか否かを判定する、
請求項1から請求項7のいずれか一項に記載の検出装置。
The object identification unit sets a third threshold value based on the distance between the second point around the first point in the object and the object surface, and the distance between the first point and the object surface and the third object surface. It is determined whether or not the first point belongs to the second object by comparing with the threshold value.
The detection device according to any one of claims 1 to 7.
前記対象領域における鉛直方向を検出する方向検出部を備え、
前記方向検出部が検出した鉛直方向の下方の面を前記物体面とする、
請求項1から請求項8のいずれか一項に記載の検出装置。
A direction detection unit for detecting the vertical direction in the target region is provided.
The lower surface in the vertical direction detected by the direction detection unit is defined as the object surface.
The detection device according to any one of claims 1 to 8.
前記物体面を表す数式を導出する、
請求項1から請求項9のいずれか一項に記載の検出装置。
Derivation of the mathematical formula representing the object surface,
The detection device according to any one of claims 1 to 9.
前記物体識別部は、前記数式を用いて、前記物体面と前記物体上の各点との距離を算出する、
請求項10に記載の検出装置。
The object identification unit calculates the distance between the object surface and each point on the object by using the mathematical formula.
The detection device according to claim 10.
前記第1物体の面を指定する情報の入力を受け付ける入力部を備え、
前記物体面は、前記入力部に入力された情報に基づいて決まるものである、
請求項1から請求項11のいずれか一項に記載の検出装置。
It is provided with an input unit that accepts input of information that specifies the surface of the first object.
The object surface is determined based on the information input to the input unit.
The detection device according to any one of claims 1 to 11.
前記物体面は、前記第2物体の移動による前記位置検出部の検出結果の変化に基づいて決まるものである、
請求項1から請求項12のいずれか一項に記載の検出装置。
The object surface is determined based on a change in the detection result of the position detection unit due to the movement of the second object.
The detection device according to any one of claims 1 to 12.
前記物体識別部が識別した前記第2物体の位置情報に基づいて、前記第2物体の形状情報を含むモデル情報を生成するモデル生成部を備える、
請求項1から請求項13のいずれか一項に記載の検出装置。
A model generation unit that generates model information including shape information of the second object based on the position information of the second object identified by the object identification unit is provided.
The detection device according to any one of claims 1 to 13.
前記物体面は、前記対象領域における床面または地面を含み、
前記第2物体は人体を含み、
前記物体識別部は、前記人体のうち前記物体面に接触する部位の位置情報を識別する、
請求項1から請求項14のいずれか一項に記載の検出装置。
The object surface includes a floor surface or the ground in the target area.
The second object includes the human body
The object identification unit identifies the position information of a portion of the human body that comes into contact with the object surface.
The detection device according to any one of claims 1 to 14.
対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく前記第1物体の物体面と、前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別する物体識別部、を備える処理装置。 Based on the distance between the object surface of the first object and each point on the object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target area, the said A processing device including an object identification unit that identifies at least a part of the second object in contact with the object surface with respect to the object surface. 対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出することと、
前記検出の結果に基づく前記第1物体の物体面と、前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別することと、を含む検出方法。
To detect the position information of each point on the object including the first object and the second object in the target area, and
At least a part of the second object in contact with the object surface is identified with respect to the object surface based on the distance between the object surface of the first object and each point on the object based on the detection result. And how to detect, including.
コンピュータに、
対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出した検出結果に基づく前記第1物体の物体面と、前記物体上の各点との距離に基づいて、前記物体面に接触する前記第2物体の少なくとも一部を前記物体面に対して識別すること、を実行させる処理プログラム。
On the computer
Based on the distance between the object surface of the first object and each point on the object based on the detection result of detecting the position information of each point on the object including the first object and the second object in the target area, the said A processing program that executes identification of at least a part of the second object in contact with the object surface with respect to the object surface.
対象領域における第1物体及び第2物体を含む物体上の各点の位置情報を検出する検出部と、
前記位置情報に基づいて前記第1物体と前記第2物体とを識別する識別部と、を備える検出装置。
A detection unit that detects the position information of each point on the object including the first object and the second object in the target area, and
A detection device including an identification unit that identifies the first object and the second object based on the position information.
JP2020530127A 2018-07-13 2019-07-02 Processing device, detection device, processing method, and processing program Active JP7200994B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018133517 2018-07-13
JP2018133517 2018-07-13
PCT/JP2019/026217 WO2020013021A1 (en) 2018-07-13 2019-07-02 Detecting device, processing device, detecting method, and processing program

Publications (2)

Publication Number Publication Date
JPWO2020013021A1 true JPWO2020013021A1 (en) 2021-08-02
JP7200994B2 JP7200994B2 (en) 2023-01-10

Family

ID=69142427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020530127A Active JP7200994B2 (en) 2018-07-13 2019-07-02 Processing device, detection device, processing method, and processing program

Country Status (2)

Country Link
JP (1) JP7200994B2 (en)
WO (1) WO2020013021A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021001777T5 (en) 2020-03-23 2023-01-12 Fanuc Corporation Image processing device and image processing method
JP7424348B2 (en) 2021-05-31 2024-01-30 セイコーエプソン株式会社 Detection method and detection system
JP2024052374A (en) * 2022-09-30 2024-04-11 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
JP2013042411A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon
JP2016170610A (en) * 2015-03-12 2016-09-23 セコム株式会社 3D model processing apparatus and camera calibration system
JP2017167671A (en) * 2016-03-14 2017-09-21 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017217268A (en) * 2016-06-08 2017-12-14 パラマウントベッド株式会社 Rehabilitation support control device and computer program
WO2017217268A1 (en) * 2016-06-17 2017-12-21 コニカミノルタ株式会社 Image processing device, image processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6519505B2 (en) * 2016-03-15 2019-05-29 オムロン株式会社 Object detection apparatus, object detection method, and program
JP2018049498A (en) * 2016-09-23 2018-03-29 キヤノン株式会社 Image processing apparatus, operation detection method, computer program, and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
JP2013042411A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon
JP2016170610A (en) * 2015-03-12 2016-09-23 セコム株式会社 3D model processing apparatus and camera calibration system
JP2017167671A (en) * 2016-03-14 2017-09-21 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017217268A (en) * 2016-06-08 2017-12-14 パラマウントベッド株式会社 Rehabilitation support control device and computer program
WO2017217268A1 (en) * 2016-06-17 2017-12-21 コニカミノルタ株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
WO2020013021A1 (en) 2020-01-16
JP7200994B2 (en) 2023-01-10

Similar Documents

Publication Publication Date Title
KR101650799B1 (en) Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose
US9330307B2 (en) Learning based estimation of hand and finger pose
US8824781B2 (en) Learning-based pose estimation from depth maps
US9159134B2 (en) Method and apparatus for estimating a pose
US9842405B2 (en) Visual target tracking
US8565476B2 (en) Visual target tracking
CN107392086B (en) Human body posture assessment device, system and storage device
US20100195867A1 (en) Visual target tracking using model fitting and exemplar
JP7200994B2 (en) Processing device, detection device, processing method, and processing program
JP5868426B2 (en) How to estimate the orientation of a stationary person
US20220206156A1 (en) Correction method, non-transitory computer-readable storage medium for storing correction program, and information processing device
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
US11885611B2 (en) Detection device, processing device, equipment, detection method, and detection program
JP2009288917A (en) Information processor, information processing method and program
JP7024876B2 (en) Detection device, processing device, detection method, and processing program
US20250005073A1 (en) Image processing apparatus, and image processing method
JP7647032B2 (en) DETECTION APPARATUS, PROCESSING APPARATUS, AND PROCESSING PROGRAM
JP2004258931A (en) Image processing method, image processor, and image processing program
JP7147848B2 (en) Processing device, posture analysis system, processing method, and processing program
JP7234595B2 (en) Detection device, processing device, detection method, and processing program
Dunn Video-based step measurement in sport and daily living
Tanathong et al. Speeding up the KLT tracker for real-time image georeferencing using GPS/INS data
KR20240057549A (en) System for deep learning based gesture recognition through time-of-flight sensor
HK1173829B (en) Moving object segmentation using depth images
HK1173829A (en) Moving object segmentation using depth images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R150 Certificate of patent or registration of utility model

Ref document number: 7200994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150