[go: up one dir, main page]

JP2019101000A - Distance measurement point group data measurement system and control program - Google Patents

Distance measurement point group data measurement system and control program Download PDF

Info

Publication number
JP2019101000A
JP2019101000A JP2017236060A JP2017236060A JP2019101000A JP 2019101000 A JP2019101000 A JP 2019101000A JP 2017236060 A JP2017236060 A JP 2017236060A JP 2017236060 A JP2017236060 A JP 2017236060A JP 2019101000 A JP2019101000 A JP 2019101000A
Authority
JP
Japan
Prior art keywords
group data
measurement
point group
dimensional object
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017236060A
Other languages
Japanese (ja)
Inventor
由紀 直井
Yuki Naoi
由紀 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017236060A priority Critical patent/JP2019101000A/en
Publication of JP2019101000A publication Critical patent/JP2019101000A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To integrate a plurality of distance measurement point group data differing in coordinate system into one coordinate system stably with high precision without reference to shapes and kinds of objects to be measured in a measurement space.SOLUTION: When a plurality of distance measurement group data measurement devices 10a, 10b are used, an index of coordinate conversion is calculated from distance measurement point group data on a solid body 931, installed in an overlap region 601 where measurement spaces 61, 62 of the plurality of distance measurement point group data measurement devices 10a, 10b overlap with each other, which is obtained by measuring the solid body 931 whose shape information is already known, and shape information on the solid body 931, and the index is used to integrate the plurality of distance measurement point group data into one coordinate system.SELECTED DRAWING: Figure 4

Description

本発明は、例えばレーザー光等を走査投光して物体を検知する測距点群データ測定システム、および制御プログラムに関する。   The present invention relates to a ranging point group data measurement system for detecting an object by scanning and projecting, for example, a laser beam or the like, and a control program.

測定空間での人の移動等を検出する物体検出装置として、測距点群データ(距離画像とも称される)を用いるものが提案されている。ここで測距点群データとは、距離情報を有する多数の測定点から構成されるものである。具体的には、レーザー光を測定空間へ向けて送出し、その送出から反射光の受光までの時間から測定空間内の対象物までの距離を計測する物体検出装置が知られている。かかる物体検出装置では、レーザー光の送出方向を順次変えて測定空間内を2次元的に走査することにより、測定空間を向いた複数の方向に関する距離情報を得ることができ、これにより測距点群データを形成する。   As an object detection apparatus for detecting movement of a person in a measurement space, one using ranging point group data (also referred to as a distance image) has been proposed. Here, the distance measurement point group data is composed of a large number of measurement points having distance information. Specifically, an object detection apparatus is known which sends laser light toward a measurement space and measures the distance from the time it is sent to reception of reflected light to an object in the measurement space. In such an object detection apparatus, it is possible to obtain distance information on a plurality of directions directed to the measurement space by sequentially changing the sending direction of the laser light and scanning the inside of the measurement space two-dimensionally, whereby the distance measurement point is obtained. Form group data.

このような物体検出装置は、人が移動、滞在する空間での通行人の行動解析に用いることができる。測距点群データを解析することで、通行人が交錯するときであっても追跡処理ができ、通行人の速度や方向、密度を総合的に解析できる。さらに、複数の物体検出装置を、測定空間の一部が重複するように配置し、これらの物体検出装置から得られた、測距点群データを統合することで、より広い測定空間での行動解析が可能となる。また、単一の物体検出装置では、遮蔽物の陰になり、測距点群データが取得できないような領域においても、他の物体検出装置の測距点群データで補うことで、行動解析が可能となる。   Such an object detection apparatus can be used for behavior analysis of passers-by in a space where people move and stay. By analyzing the distance measurement point cloud data, it is possible to perform tracking processing even when a passerby crosses, and comprehensively analyze the speed, direction, and density of the passerby. Furthermore, by arranging a plurality of object detection devices so that a part of the measurement space overlaps, and integrating range-finding point group data obtained from these object detection devices, behavior in a wider measurement space is achieved. Analysis is possible. In addition, in a single object detection device, behavior analysis can be performed by compensating for the distance measurement point cloud data of another object detection device even in a region where shadowing of a shield can not be obtained. It becomes possible.

特許文献1には、複数の距離画像取得装置を用いた通行人行動解析システムが開示されている。この通行人行動解析システムでは、複数の距離画像取得装置で取得した距離画像の座標系を1つの座標系に統合し、空間内を通行する各通行人の位置座標とその時間変化のデータから、通行人の行動を解析している。   Patent Document 1 discloses a passer-by behavior analysis system using a plurality of distance image acquisition devices. In this passing person behavior analysis system, the coordinate systems of distance images acquired by a plurality of distance image acquiring devices are integrated into one coordinate system, and from position coordinates of each passing person passing in the space and data of time change thereof Analyzes the behavior of passers-by.

非特許文献1で開示されている、複数の2次元画像を統合する手法では、カメラによって複数の異なる位置、方向から同じ特徴的な形状(建物等)を撮影して、複数の2次元画像を取得している。そして、複数の2次元画像から、対応付けの指標となる形状・輪郭に対応する特徴的な共通の対応点を抽出し、それらの対応点から求めた変換パラメータを用いて複数の画像を対応付けるという手法が開示されている。   In the method of integrating a plurality of two-dimensional images disclosed in Non-Patent Document 1, a camera captures a plurality of two-dimensional images by photographing the same characteristic shape (such as a building) from a plurality of different positions and directions. I have acquired. Then, a characteristic common corresponding point corresponding to the shape / contour serving as an index of association is extracted from the plurality of two-dimensional images, and the plurality of images are associated using conversion parameters obtained from the corresponding points. An approach is disclosed.

特開2005−346617号公報JP, 2005-346617, A

Bay, H., Ess, A., Tuytelaars, T. and Gool, L. :SURF: Speeded-up Robust Features, Computer Vision and Image Understanding, Elsevier, Vol.110, No.3, pp.346-359, 2008Bay, H., Ess, A., Tuytelaars, T. and Gool, L .: SURF: Speeded-up Robust Features, Computer Vision and Image Understanding, Elsevier, Vol. 110, No. 3, pp. 346-359, 2008

しかしながら、特許文献1には、複数の距離画像を1つの座標系に統合する手法については、何ら開示されていない。   However, Patent Document 1 does not disclose any method of integrating a plurality of distance images into one coordinate system.

また、非特許文献1に開示された2次元画像をマッチングする手法では、複数の画像を統合する際に用いる変換パラメータを算出するために、同一位置を撮影したことが明らかな複数の共通の対応点が含まれている必要がある。そのため、複数の測定位置から同じ物体を測定する場合に、物体の裏側など、複数の2次元画像では、同時に撮影できない箇所が発生し、対応付けに使用できる対応点の数が少なくなる。結果、画像対応付けの精度が低下する。また、撮影対象によって、有効な対応点の数が異なり、同様に画像対応付けの精度が担保されない。さらに、撮影した2次元画像中のどの部分に対応付けに利用できる対応点があるかは、撮影後にしか分からないため、対応点を探す処理が煩雑になるという課題がある。   Further, in the method of matching a two-dimensional image disclosed in Non-Patent Document 1, in order to calculate conversion parameters used when integrating a plurality of images, a plurality of common correspondences that it is obvious that the same position is photographed It must contain points. Therefore, when measuring the same object from a plurality of measurement positions, in a plurality of two-dimensional images, such as the back side of the object, a part that can not be captured simultaneously occurs, and the number of corresponding points available for association decreases. As a result, the accuracy of image association is reduced. In addition, the number of effective corresponding points differs depending on the imaging target, and the accuracy of image association is not secured as well. Furthermore, since it is known only after photographing, which part in the photographed two-dimensional image there is a corresponding point that can be used for association, there is a problem that the process of searching for the corresponding point becomes complicated.

本発明は、上記事情に鑑みてなされたものであり、測定空間内の測定対象物の形状、種類によらず、安定して、高精度で、座標系の異なる複数の測距点群データを1つの座標系に統合することを目的とする。   The present invention has been made in view of the above circumstances, and a plurality of distance measurement point group data having different coordinate systems can be stably and precisely regardless of the shape and type of the measurement object in the measurement space. The purpose is to integrate into one coordinate system.

本発明の上記目的は、下記の手段によって達成される。   The above object of the present invention is achieved by the following means.

(1)測定対象となる測定空間内の対象物までの距離値の分布を示す測距点群データを取得する、複数の測距点群データ測定装置と、
複数の前記測距点群データ測定装置が取得したそれぞれの測距点群データを1つの座標系に統合する座標系統合部と、を備え、
前記座標系統合部は、複数の前記測距点群データ測定装置の前記測定空間が重なる重複領域に設置された、形状情報が既知の立体物を複数の前記測距点群データ測定装置で測定することで得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から座標変換の指標を算出し、該指標を用いて前記重複領域を測定対象とする複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合する、測距点群データ測定システム。
(1) A plurality of ranging point group data measuring devices for acquiring ranging point group data indicating a distribution of distance values to an object in a measurement space to be measured;
A coordinate system integration unit that integrates the respective ranging point group data acquired by the plurality of ranging point group data measurement devices into one coordinate system;
The coordinate system integration unit measures a three-dimensional object whose shape information is known, which is installed in an overlapping area where the measurement spaces of a plurality of distance measurement point group data measurement devices overlap, with a plurality of distance measurement point group data measurement devices An index of coordinate conversion is calculated from the distance measurement point group data of the three-dimensional object obtained by performing the measurement and the shape information of the three-dimensional object, and a plurality of the measurement for measuring the overlapping area using the index A range-finding point group data measurement system that integrates a plurality of range-finding point group data acquired from a range-point group data measurement device into one coordinate system.

(2)ユーザーによる前記立体物の前記形状情報を受け付ける入力部をさらに備える、上記(1)に記載の測距点群データ測定システム。   (2) The ranging point group data measurement system according to (1), further including: an input unit configured to receive the shape information of the three-dimensional object by a user.

(3)さらに表示部を備え、
前記測定空間内に配置した前記立体物の画像を前記表示部に表示し、
前記表示部に表示した前記立体物の一部の輪郭線の指定を、前記入力部から受け付ける、上記(2)に記載の測距点群データ測定システム。
(3) The display unit is further provided,
Displaying an image of the three-dimensional object disposed in the measurement space on the display unit;
The ranging point group data measurement system according to (2), wherein the specification of the outline of the part of the three-dimensional object displayed on the display unit is received from the input unit.

(4)前記測定空間内において、前記立体物を配置した地面上に、さらに3個以上のマーカーを配置し、
前記マーカーの位置により、前記立体物が配置された地面の位置を算出する、上記(1)から上記(3)のいずれか1つに記載の測距点群データ測定システム。
(4) In the measurement space, three or more markers are further arranged on the ground on which the three-dimensional object is arranged,
The ranging point group data measurement system according to any one of (1) to (3), wherein the position of the ground on which the three-dimensional object is arranged is calculated according to the position of the marker.

(5)前記立体物は、直方体、または互いに平行な2面を有する多面体である、上記(1)から上記(4)のいずれか1つに記載の測距点群データ測定システム。   (5) The ranging point group data measurement system according to any one of (1) to (4), wherein the three-dimensional object is a rectangular parallelepiped or a polyhedron having two planes parallel to each other.

(6)前記測距点群データ測定装置は、3個以上であり、かつ、全ての前記測距点群データ測定装置の前記測定空間が1つの前記重複領域を通じて連続せずに、複数の前記重複領域を通じて連続する場合に、複数の前記重複領域にそれぞれ設置された前記立体物を、複数の前記重複領域のいずれかを測定対象とする複数の前記測距点群データ測定装置で測定することにより得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から、複数の前記指標を算出するとともに、座標を統合する手順を記述した指定情報を設定し、
複数の前記指標、および前記指定情報を用いて、複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合する、上記(1)から上記(5)のいずれか1つに記載の測距点群データ測定システム。
(6) The range-finding point group data measurement device is three or more, and the measurement spaces of all the range-finding point group data measurement devices are not continuous through one overlapping region, Measuring the three-dimensional objects respectively placed in a plurality of the overlapping regions when measuring the three-dimensional objects respectively arranged in the overlapping regions, using a plurality of distance measuring point group data measuring devices that measure any of the plurality of overlapping regions; Calculating a plurality of the indices from the distance-measuring point group data of the three-dimensional object obtained by the above-mentioned method and the shape information of the three-dimensional object, and setting designation information describing a procedure for integrating coordinates;
The plurality of ranging point group data acquired from the plurality of ranging point group data measurement devices are integrated into one coordinate system using the plurality of indices and the designation information, and the above (1) to (5) The ranging point group data measurement system according to any one of the above 2).

(7)前記座標系統合部が1つの座標系に統合した、複数の前記測距点群データ測定装置から取得した前記測距点群データを用いて、複数の前記測定空間内の動体の行動を解析する行動解析部を、さらに備える、上記(1)から上記(6)のいずれか1つに記載の測距点群データ測定システム。   (7) Behavior of a moving body in a plurality of the measurement spaces using the ranging point group data acquired from the plurality of ranging point group data measurement devices integrated by the coordinate system integration unit into one coordinate system The range-finding point cloud data measurement system according to any one of (1) to (6) above, further including: a behavior analysis unit that analyzes.

(8)測定対象となる測定空間内の対象物までの距離値の分布を示す測距点群データを取得する、複数の測距点群データ測定装置を備えた、測距点群データ測定システムを制御するコンピューターで実行される制御プログラムであって、
複数の前記測距点群データ測定装置の測定空間が重なる重複領域に設置された、形状情報が既知の立体物を複数の前記測距点群データ測定装置で測定するステップ(a)と、
前記ステップ(a)で得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から、座標変換の指標を算出するステップ(b)と、
前記指標を用いて前記重複領域を測定対象とする複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合するステップ(c)と、
を前記コンピューターに実行させるための制御プログラム。
(8) A range-finding point group data measurement system comprising a plurality of range-finding point group data measuring devices for acquiring range-finding point group data indicating a distribution of distance values to an object in a measurement space to be measured A control program executed by a computer that controls
Measuring a three-dimensional object of which shape information is known, which is installed in an overlapping area where measurement spaces of a plurality of distance measuring point group data measuring devices overlap, with a plurality of the distance measuring point group data measuring devices;
Calculating an index of coordinate conversion from the distance measurement point group data of the solid object obtained in the step (a) and the shape information of the solid object;
Integrating a plurality of distance measurement point group data acquired from the plurality of distance measurement point group data measurement devices whose measurement target is the overlapping region using the index into one coordinate system;
A control program for causing the computer to execute.

(9)さらに、ステップ(b)の前に、前記立体物の前記形状情報を受け付けるステップ(d)を前記コンピューターに実行させる、上記(8)に記載の制御プログラム。   (9) The control program according to (8), further causing the computer to execute step (d) of receiving the shape information of the three-dimensional object before step (b).

(10)前記測距点群データ測定装置は3個以上であり、かつ、全ての前記測距点群データ測定装置の前記測定空間が1つの前記重複領域を通じて連続せずに、複数の前記重複領域を通じて連続し、
前記ステップ(a)では、複数の前記重複領域にそれぞれ設置された前記立体物を、複数の前記重複領域のいずれかを測定対象とする複数の前記測距点群データ測定装置で測定し、
前記ステップ(b)では、前記ステップ(a)で得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から、座標統合に関する複数の前記指標を算出するとともに、座標を統合する手順を記述した指定情報を設定し、
前記ステップ(c)では、複数の前記指標、および前記指定情報を用いて、複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合する、上記(8)または上記(9)に記載の制御プログラム。
(10) The number of distance measurement point group data measurement devices is three or more, and the measurement spaces of all the distance measurement point group data measurement devices are not continuous through one overlapping region, and a plurality of overlapping Continuous through the area,
In the step (a), the three-dimensional object installed in each of the plurality of overlapping regions is measured by the plurality of distance measuring point group data measuring devices which measure any one of the plurality of overlapping regions;
In the step (b), a plurality of indices related to coordinate integration are calculated from the distance measurement point group data of the solid object obtained in the step (a) and the shape information of the solid object, and coordinates are calculated. Set specification information that describes the integration procedure,
In the step (c), the plurality of distance measurement point group data acquired from the plurality of distance measurement point group data measurement devices are integrated into one coordinate system using the plurality of indexes and the designation information. (8) or the control program according to (9) above.

本発明に係る、測距点群データ測定システムによれば、複数の測距点群データ測定装置を用いる場合に、複数の測距点群データ測定装置の測定空間が重なる重複領域に設置された、形状情報が既知の立体物を測定することで得られた立体物の測距点群データ、および立体物の形状情報から座標変換の指標を算出し、当該指標を用いて複数の測距点群データを1つの座標系に統合する。このようにすることで、測定空間内の測定対象物の形状、種類によらず、安定して、高精度で、座標系の異なる複数の測距点群データを1つの座標系に統合できる。   According to the ranging point group data measurement system according to the present invention, in the case of using a plurality of ranging point group data measuring devices, it is installed in an overlapping area where the measurement spaces of the plurality of ranging point group data measuring devices overlap. The index of coordinate conversion is calculated from the ranging point group data of the three-dimensional object obtained by measuring the three-dimensional object whose shape information is known, and the three-dimensional object shape information, and a plurality of ranging points are calculated using the index Integrate group data into one coordinate system. By doing this, it is possible to stably integrate a plurality of distance measurement point group data having different coordinate systems into one coordinate system with high accuracy, regardless of the shape and type of the measurement object in the measurement space.

本実施形態に係る測距点群データ測定装置を示す断面図である。It is a sectional view showing a ranging point group data measuring device concerning this embodiment. 測距点群データ測定システムの主要構成を示すブロック図である。It is a block diagram which shows the main structures of a ranging point-group data measurement system. 測距点群データ測定装置によって測定空間内を走査する状態を示す模式図である。It is a schematic diagram which shows the state which scans the inside of measurement space by the ranging point cloud data measurement apparatus. 2個の測距点群データ測定装置を備える測距点群データ測定システムにおける、測定空間の重複状態を示す模式図である。It is a schematic diagram which shows the overlap state of measurement space in a ranging point group data measurement system provided with two ranging point group data measurement apparatuses. 第1の実施形態に係る測距点群データ測定システムが実行する座標統合処理を示すフローチャートである。It is a flowchart which shows the coordinate integrated process which the ranging point-group data measurement system which concerns on 1st Embodiment performs. 立体物形状情報入力用のGUIの例を示す図である。It is a figure which shows the example of GUI for three-dimensional object shape information input. 第2の実施形態に係る測距点群データ測定システムで行われる、座標統合処理を示すフローチャートである。It is a flowchart which shows the coordinate integration process performed with the ranging point-group data measurement system which concerns on 2nd Embodiment. 立体物の輪郭線指定用のGUIの例を示す図である。It is a figure which shows the example of GUI for designating the outline of a solid object. 立体物の輪郭線指定用のGUIの例を示す図である。It is a figure which shows the example of GUI for designating the outline of a solid object. 変形例1に係る測距点群データ測定システムで使用する地表マーカーを示す模式図である。It is a schematic diagram which shows the ground-ground marker used with the ranging point-group data measurement system which concerns on the modification 1. FIG. 第3の実施形態において、3つの測定空間が2つの重複領域を通じて連続した状態を示す模式図である。In 3rd Embodiment, it is a schematic diagram which shows the state which three measurement space continued through two overlapping area | regions. 第3の実施形態に係る測距点群データ測定システムで実行する座標統合処理を示すフローチャートである。It is a flowchart which shows the coordinate integrated process performed with the ranging point-group data measurement system which concerns on 3rd Embodiment. 変形例2に係る測距点群データ測定システムで使用する複数の立体物を示す模式図である。FIG. 13 is a schematic view showing a plurality of three-dimensional objects used in a distance measuring point group data measurement system according to a modification 2;

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。   Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description. Also, the dimensional proportions of the drawings are exaggerated for the convenience of the description, and may differ from the actual proportions.

図1は、本実施形態に係る測距点群データ測定装置10(以下、単に「測定装置10」ともいう)を示す断面図であり、図2は、測距点群データ測定システム1の主要構成を示すブロック図である。   FIG. 1 is a cross-sectional view showing a range-finding point group data measurement apparatus 10 (hereinafter, also simply referred to as “the measurement apparatus 10”) according to this embodiment, and FIG. 2 is a main part of the range-finding point group data measurement system 1 It is a block diagram showing composition.

図1、図2に示すように、測距点群データ測定システム1は測定装置10a、10b、制御部20、メモリ30、および入出力I/F(インターフェース)40を備える。以下においては、測定装置10a、10bを総称して「測定装置10」ともいう。   As shown in FIGS. 1 and 2, the distance measurement point group data measurement system 1 includes measurement devices 10 a and 10 b, a control unit 20, a memory 30, and an input / output I / F (interface) 40. Hereinafter, the measuring devices 10a and 10b are collectively referred to as "measuring device 10".

(測定装置10)
各測定装置10は、投受光ユニット11、および測距点群データ生成部12を備える。図1を参照すると、投受光ユニット11は、半導体レーザー51、コリメートレンズ52、ミラーユニット53、レンズ54、フォトダイオード55、およびモーター56、ならびにこれらの各構成部材を収容する筐体57を有する。投受光ユニット11は、後述するようにレーザースポット光500により測距点群データ測定装置10の測定空間内を走査することで得られた各画素の受光信号を出力する。測距点群データ生成部12は、この受光信号に基づいて、測定空間内の対象物までの距離値の分布を示す複数の画素で構成される測距点群データを生成する。この測距点群データは距離画像、または距離マップとも称される。
(Measurement device 10)
Each measuring device 10 includes a light emitting and receiving unit 11 and a distance measurement point group data generation unit 12. Referring to FIG. 1, the light emitting / receiving unit 11 has a semiconductor laser 51, a collimating lens 52, a mirror unit 53, a lens 54, a photodiode 55, a motor 56, and a housing 57 for housing these components. The light emitting / receiving unit 11 outputs the light reception signal of each pixel obtained by scanning the inside of the measurement space of the distance measurement point group data measurement apparatus 10 with the laser spot light 500 as described later. The distance measurement point group data generation unit 12 generates, based on the light reception signal, distance measurement point group data composed of a plurality of pixels indicating the distribution of the distance value to the object in the measurement space. The distance measurement point cloud data is also referred to as a distance image or a distance map.

半導体レーザー51は、パルス状のレーザー光束を出射する。コリメートレンズ52は、半導体レーザー51からの発散光を平行光に変換する。ミラーユニット53は、コリメートレンズ52で平行とされたレーザー光を、回転するミラー面により測定空間(監視領域または監視空間ともいう)に向かって走査投光するとともに、対象物からの反射光を反射させる。レンズ54は、ミラーユニット53で反射された対象物からの反射光を集光する。フォトダイオード55は、レンズ54により集光された光を受光し、Z方向に並んだ複数の画素を有する。モーター56はミラーユニット53を回転駆動する。   The semiconductor laser 51 emits a pulsed laser beam. The collimator lens 52 converts divergent light from the semiconductor laser 51 into parallel light. The mirror unit 53 scans and projects the laser light collimated by the collimating lens 52 toward the measurement space (also referred to as a monitoring area or monitoring space) by the rotating mirror surface, and reflects the reflected light from the object Let The lens 54 condenses the reflected light from the object reflected by the mirror unit 53. The photodiode 55 receives the light collected by the lens 54, and has a plurality of pixels arranged in the Z direction. The motor 56 rotationally drives the mirror unit 53.

測距点群データ生成部12は、これらの半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報(距離値)を求める。測距点群データ生成部12は、CPU(Central Processing Unit)とメモリで構成され、メモリに記憶しているプログラムを実行することにより各種の処理を実が実行することによって測距点群データを求めるが、測距点群データ生成用の専用ハードウエア回路を備えてもよい。また、測距点群データ生成部12は、後述の制御部20の1つの機能として、制御部20に統合されてもよい。   The distance measurement point group data generation unit 12 obtains distance information (distance value) according to the time difference between the emission timing of the semiconductor laser 51 and the light reception timing of the photodiode 55. The distance measurement point group data generation unit 12 is composed of a CPU (Central Processing Unit) and a memory, and by executing a program stored in the memory, the distance measurement point group data is obtained by the actual execution of various processes. Although required, a dedicated hardware circuit may be provided for distance measurement point cloud data generation. Further, the distance measurement point group data generation unit 12 may be integrated into the control unit 20 as one function of the control unit 20 described later.

本実施形態において、半導体レーザー51とコリメートレンズ52とで出射部501を構成し、レンズ54とフォトダイオード55とで受光部502を構成する。出射部501、受光部502の光軸は、ミラーユニット53の回転軸530に対して直交していることが好ましい。   In the present embodiment, the semiconductor laser 51 and the collimator lens 52 constitute an emitting unit 501, and the lens 54 and the photodiode 55 constitute a light receiving unit 502. It is preferable that the optical axes of the emitting unit 501 and the light receiving unit 502 be orthogonal to the rotation axis 530 of the mirror unit 53.

剛体である壁91等に固定して設置されたボックス状の筐体57は、上壁57aと、これに対向する下壁57bと、上壁57aと下壁57bとを連結する側壁57cとを有する。側壁57cの一部に開口57dが形成され、開口57dには透明板58が取り付けられている。   A box-like housing 57 fixedly installed on the rigid wall 91 or the like has an upper wall 57a, a lower wall 57b opposite thereto, and a side wall 57c connecting the upper wall 57a and the lower wall 57b. Have. An opening 57d is formed in part of the side wall 57c, and a transparent plate 58 is attached to the opening 57d.

ミラーユニット53は、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面531a、531bを4対(但し4対に限られない)有している。ミラー面531a、531bは、ミラーユニットの形状をした樹脂素材(例えばPC(ポリカーボネイト))の表面に、反射膜を蒸着することにより形成されていることが好ましい。   The mirror unit 53 has a shape in which two square pyramids are joined in an opposite direction and integrated, that is, four pairs (but not limited to four pairs) of mirror surfaces 531a and 531b inclined in a direction facing each other in pairs. ) Have. The mirror surfaces 531a and 531b are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (polycarbonate)) in the shape of a mirror unit.

ミラーユニット53は、筐体57に固定されたモーター56の軸56aに連結され、回転駆動されるようになっている。本実施形態では、例えば、壁91に設置された状態で、軸56aの軸線(回転軸線)が鉛直方向であるZ方向に延在しており、Z方向に直交するX方向およびY方向によりなすXY平面が水平面となっているが、軸56aの軸線を鉛直方向に対して傾けても良い。   The mirror unit 53 is connected to the shaft 56 a of the motor 56 fixed to the housing 57 so as to be rotationally driven. In the present embodiment, for example, in the state of being installed on the wall 91, the axis (rotational axis) of the shaft 56a extends in the Z direction, which is the vertical direction, and is formed by the X and Y directions orthogonal to the Z direction. Although the XY plane is a horizontal plane, the axis of the shaft 56a may be inclined relative to the vertical direction.

次に、測定装置10の対象物検出原理について説明する。図1において、半導体レーザー51からパルス状に間欠的に出射された発散光は、コリメートレンズ52で平行光束に変換され、回転するミラーユニット53の第1ミラー面531aに入射する。その後、第1ミラー面531aで反射され、さらに第2ミラー面531bで反射した後、透明板58を透過して外部の測定空間に向けて、例えば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向を投受光方向という。同一の投受光方向に進行するレーザースポット光は、同一の画素で検出される。   Next, the object detection principle of the measuring device 10 will be described. In FIG. 1, divergent light intermittently emitted in a pulse form from the semiconductor laser 51 is converted into a parallel light beam by the collimator lens 52, and is incident on the first mirror surface 531a of the rotating mirror unit 53. Thereafter, the light is reflected by the first mirror surface 531a and further reflected by the second mirror surface 531b, and then transmitted through the transparent plate 58 toward the external measurement space, for example, as a laser spot light having a longitudinally elongated rectangular cross section It is lighted. The direction in which the emitted laser spot light is reflected by the object and returns as the reflected light is referred to as a light transmission / reception direction. The laser spot light traveling in the same light emitting and receiving direction is detected by the same pixel.

図3は、ミラーユニット53の回転に応じて、出射するレーザースポット光500(ハッチングで示す)で、測定装置10の測定空間内を走査する状態を示す図である。ここで、ミラーユニット53の対のミラー(第1ミラー面531aと第2ミラー面531b)の組み合わせにおいて、4対はそれぞれ交差角が異なっている。レーザー光は、回転する第1ミラー面531aと第2ミラー面531bにて、順次反射される。まず1番対の第1ミラー面531aと第2ミラー面531bにて反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の一番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から1番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面531aと第2ミラー面で反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の最も下の領域Ln4を水平方向に左から右へと走査される。これにより測定装置10が測定可能な測定空間全体の1回の走査が完了する。この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレーム900が得られる。そして、ミラーユニット53が1回転した後、再び1番対の第1ミラー面531aと第2ミラー面531bに戻り、以降は測定空間の一番上の領域Ln1から最も下の領域Ln4までの走査を繰り返し、次のフレーム900が得られる。   FIG. 3 is a view showing a state in which the inside of the measurement space of the measurement apparatus 10 is scanned with the laser spot light 500 (indicated by hatching) emitted in response to the rotation of the mirror unit 53. Here, in the combination of the pair of mirrors (the first mirror surface 531a and the second mirror surface 531b) of the mirror unit 53, the four pairs have different crossing angles. The laser light is sequentially reflected by the rotating first mirror surface 531a and the second mirror surface 531b. First, the laser light reflected by the first mirror surface 531a and the second mirror surface 531b of the first pair moves from the left to the right in the horizontal region Ln1 of the measurement space according to the rotation of the mirror unit 53. Is scanned. Next, the laser light reflected by the first mirror surface 531a and the second mirror surface 531b of the second pair is horizontal from the left of the second region Ln2 from the top of the measurement space according to the rotation of the mirror unit 53. It is scanned to the right. Next, according to the rotation of the mirror unit 53, the laser light reflected by the third mirror surface 531a and the second mirror surface 531b from the left in the first region Ln3 from the top of the measurement space It is scanned to the right. Next, according to the rotation of the mirror unit 53, the laser light reflected by the fourth mirror surface 531a and the second mirror surface of the fourth pair horizontally from the left to the right in the lowermost region Ln4 of the measurement space It is scanned. This completes one scan of the entire measurement space that can be measured by the measurement device 10. One frame 900 is obtained by combining the images obtained by scanning the regions Ln1 to Ln4. Then, after the mirror unit 53 makes one rotation, it returns to the first mirror surface 531a and the second mirror surface 531b of the first pair again, and thereafter, from the top area Ln1 to the bottom area Ln4 of the measurement space Are repeated to obtain the next frame 900.

図1において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板58を透過して筐体57内のミラーユニット53の第2ミラー面531bに入射し、ここで反射され、さらに第1ミラー面531aで反射されて、レンズ54により集光され、それぞれフォトダイオード55の受光面で画素毎に検知される。さらに、測距点群データ生成部(後述)が、半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報を求める。これにより測定空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ測距点群データとしてのフレーム900(図3参照)を得ることができる。かかる測距点群データは、不図示のネットワーク等を介して遠方のモニタに送信されて表示されたり、メモリ30(図2参照)に記憶されたりする。また、得られた測距点群データを背景画像データとして記憶してもよい。   In FIG. 1, a part of the scanned and projected light flux that has hit and reflected on the object passes through the transparent plate 58 again and is incident on the second mirror surface 531b of the mirror unit 53 in the housing 57, Here, the light is reflected by the first mirror surface 531a, condensed by the lens 54, and detected on the light receiving surface of the photodiode 55 for each pixel. Furthermore, a distance measurement point group data generation unit (described later) obtains distance information according to the time difference between the emission timing of the semiconductor laser 51 and the light reception timing of the photodiode 55. As a result, it is possible to detect an object in the whole area in the measurement space, and obtain a frame 900 (see FIG. 3) as distance measurement point group data having distance information for each pixel. The ranging point group data is transmitted to a remote monitor via a network (not shown) or the like and displayed, or stored in the memory 30 (see FIG. 2). Further, the obtained ranging point group data may be stored as background image data.

このように測定装置10では位置分解能に方向依存性がある。具体的には奥行き方向(Z方向)の距離情報は、光の出射、受光の時間差に応じて算出し、他の方向(XY方向)の距離情報は走査する向き、角度に応じて算出している。このようなことから、奥行き方向の分解能は、他の方向の分解能に比べて低い傾向がある。例えば、水平面での奥行き方向の位置分解能は、他の方向に比較して数分の1程度であり、測定装置10から距離10mでの測距精度は十数cm程度である。後述するように、本実施形態では、形状情報が既知の立体物931(後述の図4参照)を測定した座標を用いることで、奥行き方向の位置分解能の低さを、他の方向の位置分解能で補う。   As described above, in the measuring apparatus 10, the position resolution has direction dependency. Specifically, distance information in the depth direction (Z direction) is calculated according to the time difference between light emission and light reception, and distance information in other directions (XY direction) is calculated according to the scanning direction and angle. There is. As such, the resolution in the depth direction tends to be lower than the resolution in the other directions. For example, the position resolution in the depth direction in the horizontal plane is about a fraction of that in the other directions, and the distance measurement accuracy at a distance of 10 m from the measuring apparatus 10 is about a dozen cm. As will be described later, in the present embodiment, by using coordinates obtained by measuring a three-dimensional object 931 (see FIG. 4 described later) whose shape information is known, the position resolution in the depth direction is reduced to the position resolution in the other direction. Make up for.

(制御部20、メモリ30)
図2に示すように、制御部20は、制御部20は、CPUで構成され、メモリ30に記憶しているプログラムを実行することにより各種の処理を実行する。メモリ30は、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体記録媒体、HDD(Hard Disk Drive)等の磁気記録媒体、等で構成される。制御部20は、座標系統合部211、および行動解析部212として機能する。メモリ30には、座標変換の指標、立体物形状情報、指定情報、および各種の制御プログラムが記憶される。座標変換の指標、立体物形状情報、指定情報の詳細は後述するが、概略を以下に説明する。
(Control unit 20, memory 30)
As shown in FIG. 2, the control unit 20 is constituted by a CPU, and executes various processes by executing programs stored in the memory 30. The memory 30 is configured of a semiconductor recording medium such as a read only memory (ROM) or a random access memory (RAM), a magnetic recording medium such as a hard disk drive (HDD), or the like. The control unit 20 functions as a coordinate system integration unit 211 and an action analysis unit 212. The memory 30 stores an index of coordinate conversion, three-dimensional object shape information, designation information, and various control programs. The details of the index of coordinate conversion, the three-dimensional object shape information, and the designation information will be described later, but the outline will be described below.

「立体物形状情報」は、座標変換の指標を算出するために用いられる基準用の立体物の種類および寸法を示す情報である。立体物としては、例えば直方体、特に面の形状が均一ではない直方体が用いられる。この場合、立体物の形状情報は、直方体であること、およびそのwidth、depth、height(mm)の寸法である。   The “three-dimensional object shape information” is information indicating the type and size of a standard three-dimensional object used to calculate an index of coordinate conversion. As the three-dimensional object, for example, a rectangular parallelepiped, in particular, a rectangular parallelepiped whose surface shape is not uniform is used. In this case, the shape information of the three-dimensional object is a rectangular solid and the dimensions of its width, depth and height (mm).

「座標変換の指標」は複数の測定装置10から得られた測距点群データを1つの座標系に統合するためのパラメータである。例えば2つの測定装置10の測距点群データを統合する場合には、両測定装置10間の座標系の補正量である。この座標変換の指標は、例えばRoll角、Pitch角、Yaw角の差分値(deg)で記述される。ここで、Roll角、Pitch角、Yaw角は、それぞれZ軸、X軸、Y軸回りの回転角である(後述の図10参照)。また、座標変換の指標は、Roll角、Pitch角、Yaw角に換えて、XYZの差分値(mm)で記述されてもよい。   The “coordinate conversion index” is a parameter for integrating ranging point group data obtained from a plurality of measuring devices 10 into one coordinate system. For example, when the ranging point group data of two measuring devices 10 are integrated, it is the correction amount of the coordinate system between both measuring devices 10. The index of this coordinate conversion is described by, for example, the difference value (deg) of Roll angle, Pitch angle, and Yaw angle. Here, the Roll angle, the Pitch angle, and the Yaw angle are rotation angles around the Z axis, the X axis, and the Y axis, respectively (see FIG. 10 described later). Further, the index of coordinate conversion may be described by using XYZ difference values (mm) instead of the Roll angle, the Pitch angle, and the Yaw angle.

「指定情報」は、3個以上の測定装置10を用いる場合において、測定空間が1つの重複領域を通じて連続せずに、複数の重複領域を通じて連続する場合に用いる、統合の手順(順序)を指定する情報である。例えば、3個以上の測定装置10を一列に並べ、隣り合う測定空間のみが、その測定空間の一部が重複するように配置した場合(後述の図11等)に、この指定情報を用いて、3個以上の測定装置10の測距点群データを、隣り合う測定空間を持つ測距点群データ同士を1つの座標系に順次統合してゆき、最後に1つの座標系に統合する。   "Specification information" designates an integration procedure (order) to be used when measurement spaces are not continuous through one overlapping area but are continuous through multiple overlapping areas when using three or more measurement devices 10 Information. For example, in the case where three or more measuring devices 10 are arranged in a line, and only adjacent measuring spaces are arranged such that a part of the measuring spaces overlap (see FIG. 11 etc. described later), this designation information is used The distance measurement point group data of three or more measurement devices 10 are sequentially integrated into one coordinate system with distance measurement point cloud data having adjacent measurement spaces, and finally integrated into one coordinate system.

ここで、背景差分法を用いた、測定装置10の測定対象物の検知アルゴリズムについて説明する。本実施形態で採用する背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)を用いる。具体的には、測定の前準備(前処理)として、人間や動物等の移動物体が存在しない状態で、測定装置10からレーザースポット光500を走査する。これにより背景対象物92から得られた反射光に基づいて、背景画像を得ることができる。実際の測定時においては、背景対象物92の手前に行動解析の対象者である通行人等の物体93が現れた場合、物体93からの反射光が新たに生じる。   Here, a detection algorithm of the measurement object of the measurement apparatus 10 using the background subtraction method will be described. In the background subtraction method adopted in the present embodiment, a background image (also referred to as a reference image) generated and stored in advance is used. Specifically, as a preparation for measurement (pre-processing), the laser spot light 500 is scanned from the measuring device 10 in the state where there is no moving object such as a human or an animal. Thus, a background image can be obtained based on the reflected light obtained from the background object 92. At the time of actual measurement, when an object 93 such as a passerby who is a target person of behavior analysis appears in front of the background object 92, reflected light from the object 93 is newly generated.

行動解析部212はメモリ30に保持している背景画像と現時点での測距点群データとを比較して、差が生じた場合、何らかの通行人等の何らかの物体が測定空間内に現れたことを認識できる。具体的には、背景差分法を用いて、背景データと、現時点での測距点群データ(距離画像データ)とを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、行動解析部212は算定したサイズが抽出対象の解析対象の物体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は、測定場所や行動解析対象等により任意に設定できる。通行人を追跡して行動を解析するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。逆にあらゆる物体を追跡するのであれば、サイズ閾値はこれよりも小さな値としてもよく、対象物が車両等の大きな物体に限られるのであればサイズ閾値をこれよりも大きな値としてもよい。   The behavior analysis unit 212 compares the background image held in the memory 30 with the distance measurement point cloud data at the current time, and if there is a difference, some object such as some passersby appears in the measurement space Can recognize. Specifically, foreground data is extracted by comparing background data with ranging point group data (distance image data) at the current time using the background subtraction method. Then, the pixels (pixel group) of the extracted foreground data are divided into clusters according to the distance value of the pixels, for example. Then, the size of each cluster is calculated. For example, the vertical dimension, the horizontal dimension, the total area, etc. are calculated. Note that "size" as used herein is an actual size, which differs from an apparent size (angle of view, that is, the spread of pixels), and a block of pixel groups is determined according to the distance to the object. For example, the behavior analysis unit 212 determines whether or not the calculated size is equal to or less than a predetermined size threshold for identifying an object to be analyzed to be extracted. The size threshold can be arbitrarily set depending on the measurement place, the behavior analysis target, and the like. In order to track the passers and analyze the behavior, the minimum value of the normal person's size may be used as the size threshold for clustering. Conversely, if all objects are to be tracked, the size threshold may be a smaller value than this, and if the object is limited to a large object such as a vehicle, the size threshold may be a larger value.

行動解析部212は、物体93の移動方向や速度を求め(動体追跡を行う)、行動解析を行う。動体追跡は、時系列に並んだ複数の測距点群データ(フレーム)内から、それら複数のフレーム内で移動する物体93、すなわち動体を識別して追跡する技術であり、公知の種々の技術を適用できる。特に本実施形態においては、座標系統合部211が連続した複数の測定空間内を1つの座標系に統合し、行動解析部212は、その統合した座標系で連続した測定空間での動体解析を行う。   The behavior analysis unit 212 obtains the moving direction and speed of the object 93 (performs moving object tracking), and performs behavior analysis. Motion tracking is a technology for identifying and tracking a moving object 93 moving within a plurality of frames from a plurality of ranging point data (frames) arranged in time series, and various known techniques Is applicable. In the present embodiment, in particular, the plurality of measurement spaces in which the coordinate system integration unit 211 is continuous are integrated into one coordinate system, and the behavior analysis unit 212 analyzes the moving body in the continuous measurement space in the integrated coordinate system. Do.

(入出力I/F40)
入出力I/F40は、ユーザーインターフェースまたはネットワークインターフェースである。入出力I/F40は、例えばディスプレイ、キーボード、ボタン等を備える。入出力I/F40は、「表示部」として機能し、制御部20から送信されたGUI(Graphical User Interface)データに基づいて、ユーザーに対して測距点群データ測定装置10のステイタス情報等の各種情報を表示したり、立体物の立体物形状情報を入力するための操作画面を表示したりする。また入出力I/F40は、「入力部」としても機能し、ユーザーからの座標変換の指標を生成するための測定を開始する指示、背景データの取得指示、等を受け付けたりする。また、入出力I/F40にネットワークインターフェース機能を持たせ、有線通信(例えばイーサネット(登録商標)、USB(Universal Serial Bus))、または無線通信(例えばBluetooth(登録商標)、IEEE802.11)を介してユーザーが使用するPC(Personal Computer)等の端末と通信するように構成し、このPCを通じて、操作画面を表示し、各種の入出力を行うようにしてもよい。
(Input / output I / F 40)
The input / output I / F 40 is a user interface or a network interface. The input / output I / F 40 includes, for example, a display, a keyboard, buttons, and the like. The input / output I / F 40 functions as a “display unit”, and based on GUI (Graphical User Interface) data transmitted from the control unit 20, the status information of the distance measuring point group data measuring device 10, etc. Various information is displayed, and an operation screen for inputting three-dimensional object shape information of a three-dimensional object is displayed. The input / output I / F 40 also functions as an “input unit”, and receives from the user an instruction to start measurement for generating an index of coordinate conversion, an instruction to acquire background data, and the like. Also, the network interface function is provided to the input / output I / F 40, and wired communication (for example, Ethernet (registered trademark), USB (Universal Serial Bus)) or wireless communication (for example, Bluetooth (registered trademark), IEEE 802.11) It may be configured to communicate with a terminal such as a PC (Personal Computer) used by the user, and the operation screen may be displayed through this PC to perform various types of input / output.

((第1の実施形態)座標系統合処理の制御方法)
以下、図4、5を参照し、座標統合処理について説明する。図4は、2個の測定装置10を備える測距点群データ測定システム1における、2つの測定空間の重複状態を示す模式図である。図5は、第1の実施形態に係る測距点群データ測定システム1が実行する座標統合処理を示すフローチャートである。
((First Embodiment) Control Method of Coordinate System Integration Processing)
The coordinate integration processing will be described below with reference to FIGS. FIG. 4 is a schematic view showing an overlapping state of two measurement spaces in the ranging point group data measurement system 1 including the two measurement devices 10. As shown in FIG. FIG. 5 is a flowchart showing coordinate integration processing performed by the distance measuring point group data measurement system 1 according to the first embodiment.

図4に示すように、測定装置10a、10bはそれぞれ測定空間61、62を測定対象とし、走査することで測距点群データを生成する。同図に示すように測定装置10aはX、Y、Z座標系であり、測定装置10bは、X、Y、Z座標系である。各座標系においてZ方向は奥行き方向であり、X方向は横方向、Y方向は縦方向である。2つの測定空間61、62は、重複領域601で重なっており、この重複領域601を通じて連続する。そして、その重複領域601には直方体の立体物931がユーザーにより設置されている。 As shown in FIG. 4, the measuring devices 10 a and 10 b respectively measure the measurement spaces 61 and 62 as measurement targets, and scan to generate ranging point group data. As shown in the figure, the measuring device 10a is an X 1 , Y 1 , Z 1 coordinate system, and the measuring device 10 b is an X 2 , Y 2 , Z 2 coordinate system. In each coordinate system, the Z direction is the depth direction, the X direction is the horizontal direction, and the Y direction is the vertical direction. The two measurement spaces 61 and 62 overlap in the overlapping area 601 and continue through the overlapping area 601. Then, a rectangular solid object 931 is installed in the overlapping area 601 by the user.

立体物931は固定されていてもよく、単に床面(地面)に載置されていてもよい。立体物931は、角や辺の寸法が一定であることが求められることから剛体で構成されることが好ましい。立体物931は必ずしも中実である必要はない。所定の幅以上の辺や、所定のサイズ以上の角が存在すれば、中空であってもよく、またフレームで構成していてもよい。立体物931は視る向きによって形状が変わるように、立方体よりも、各面のサイズが一定ではない直方体の方が好ましい。これにより、重複領域601に配置した立体物931の向きを特定できる。しかしながら、ユーザーの指定等により向きを特定できるのであれば立体物931は、立方体であってもよい。また直方体(立方体)に限られず、互いに平行な2面を有する多面体であってもよい。例えば、正十六面体であってもよく、あるいは、サッカーボールのような、正二十面体の頂点を切削した切頭二十面体であってもよい。また立体物931の色は、所定の反射率があれば、どのような色であってもよい。サイズは、サッカーボール程度からこの数倍程度の範囲が好ましい。   The three-dimensional object 931 may be fixed or may simply be placed on the floor (ground). The three-dimensional object 931 is preferably made of a rigid body because the dimensions of corners and sides are required to be constant. The three-dimensional object 931 does not have to be solid. As long as there are sides having a predetermined width or more and corners having a predetermined size or more, they may be hollow or may be made of a frame. In order to change the shape depending on the direction in which the three-dimensional object 931 is viewed, a cuboid in which the size of each surface is not constant is preferable to a cube. Thus, the orientation of the three-dimensional object 931 disposed in the overlapping area 601 can be specified. However, the three-dimensional object 931 may be a cube as long as the direction can be specified by the user's designation or the like. Moreover, it is not restricted to a rectangular parallelepiped (cube), It may be a polyhedron having two planes parallel to each other. For example, it may be a regular hexahedron, or may be a truncated icosahedron obtained by cutting the apex of a regular icosahedron, such as a soccer ball. The color of the three-dimensional object 931 may be any color as long as it has a predetermined reflectance. The size is preferably in the range of about a soccer ball to several times this size.

図5においては、左側の列は測距点群データ測定システム1の制御部20が行う処理であり、右側の列はユーザーが行う処理である。そして図5に示す座標系統合処理は、測距点群データ測定システム1、もしくは測定装置10をインストール(設置)したとき、または、所定期間毎(例えば1月毎、1年毎)に行う。この座標系統合処理により新たに「座標変換の指標」を生成したり、最新の状態に更新したりする。そして、以降は、行動解析部212は、この座標統合系処理を行うことにより得られた、複数の測定装置10間の「座標変換の指標」を用いて、複数の測定空間内全体の物体の検出や、動体の行動解析を行う。   In FIG. 5, the left column is processing performed by the control unit 20 of the distance measurement point group data measurement system 1, and the right column is processing performed by the user. The coordinate system integration process shown in FIG. 5 is performed when the distance measurement point group data measurement system 1 or the measurement apparatus 10 is installed (installed) or every predetermined period (for example, every month, every year). By this coordinate system integration processing, a "coordinate conversion index" is newly generated or updated to the latest state. Then, thereafter, the behavior analysis unit 212 uses the “index of coordinate conversion” between the plurality of measuring devices 10 obtained by performing the coordinate integrated system processing, to measure the entire object in the plurality of measurement spaces. Perform detection and behavior analysis of moving bodies.

(ステップS301)
ユーザーは、最初に立体物931を重複領域に設置する。
(Step S301)
The user first places the three-dimensional object 931 in the overlapping area.

(ステップS101)
制御部20は、入出力I/F40によって形状情報入力用のGUIデータを表示させる。
(Step S101)
The control unit 20 causes the input / output I / F 40 to display GUI data for shape information input.

(ステップS302)
ユーザーは、配置した立体物931の形状情報を入力する。図6は、立体物形状情報入力用のGUIの例を示す図である。同図に示す操作画面401において、ユーザーは、ステップS301で設置した立体物931の形状に応じて、プルダウンボタン411により、立体物種類を選択する。またユーザーは、入力エリア412にそれぞれ幅(width)、奥行き(depth)、高さ(height)の数値を入力する。また、ユーザーは、合わせて座標統合の対象となる測定装置10の識別番号を入力エリア413に入力する。
(Step S302)
The user inputs the shape information of the arranged three-dimensional object 931. FIG. 6 is a diagram showing an example of a GUI for three-dimensional object shape information input. In the operation screen 401 shown in the figure, the user selects the type of three-dimensional object with the pull-down button 411 in accordance with the shape of the three-dimensional object 931 installed in step S301. Also, the user inputs numerical values of width, depth and height in the input area 412, respectively. Further, the user also inputs the identification number of the measuring device 10 to be subjected to coordinate integration in the input area 413.

(ステップS102)
制御部20は、入力された立体物931の形状情報をメモリ30に記憶する。
(Step S102)
The control unit 20 stores the input shape information of the three-dimensional object 931 in the memory 30.

(ステップS303)
立体物931の形状情報を入力した後、ユーザーは測定開始ボタンを操作することで、測定開始の指示を行う。
(Step S303)
After inputting the shape information of the three-dimensional object 931, the user operates the measurement start button to give an instruction to start the measurement.

(ステップS103)
制御部20は、複数の測定装置10a、10bを制御することで、測定空間内の測定を開始させる。
(Step S103)
The control unit 20 controls the plurality of measurement devices 10a and 10b to start measurement in the measurement space.

(ステップS104)
制御部20の座標系統合部211は、各測定装置10a、10bから取得した測距点群データを解析することで、測定空間内の物体を検出する。そして、座標系統合部211は、検出した物体の中から、メモリ30に形状情報が記憶されている立体物931を検索し、特定する。このとき、各測定空間のうち、重複領域のみを検索してもよい。
(Step S104)
The coordinate system integration unit 211 of the control unit 20 detects an object in the measurement space by analyzing the distance measurement point group data acquired from each of the measurement devices 10a and 10b. Then, the coordinate system integration unit 211 searches for and identifies a three-dimensional object 931 whose shape information is stored in the memory 30 from the detected objects. At this time, only the overlapping area may be searched among the measurement spaces.

(ステップS105)
座標系統合部211は、測定装置10aの測定空間での立体物931の座標と、測定装置10bの測定空間での同じ立体物931の座標とから、2つ座標系を統合するために用いる座標変換の指標を算出する。具体的には、座標系統合部211は、それぞれの測定空間内での測距点群データから抽出した立体物931の輪郭上の4点、例えば直方体上の1つの角と、その角に繋がる3辺上のそれぞれの任意の点の座標から、各座標系での立体物931の多軸の座標を特定する。あるいは、各辺上の複数の測距点を平均化処理し、各辺の延在方向を算出するようにしてもよい。そして立体物931の少なくとも4点以上の座標が分かれば、形状情報が既知であることから各座標系内での立体物931の辺、角、面を含む全ての座標を容易に算出できる。そして、座標系統合部211は、立体物931の座標を、複数の座標系間での共通の対応点として用いて、座標変換の指標を算出する。この座標変換の指標は上述したように、Roll角、Pitch角、Yaw角で記述される。
(Step S105)
The coordinate system integration unit 211 is used to integrate two coordinate systems from the coordinates of the three-dimensional object 931 in the measurement space of the measurement device 10a and the coordinates of the same three-dimensional object 931 in the measurement space of the measurement device 10b. Calculate the conversion index. Specifically, the coordinate system integration unit 211 is connected to four points on the outline of the three-dimensional object 931 extracted from the ranging point group data in each measurement space, for example, one corner on the rectangular parallelepiped and its corner From the coordinates of each arbitrary point on the three sides, the coordinates of multiple axes of the three-dimensional object 931 in each coordinate system are specified. Alternatively, a plurality of distance measurement points on each side may be averaged to calculate the extending direction of each side. If the coordinates of at least four points of the three-dimensional object 931 are known, all the coordinates including the sides, corners, and planes of the three-dimensional object 931 in each coordinate system can be easily calculated because the shape information is known. Then, the coordinate system integration unit 211 uses the coordinates of the three-dimensional object 931 as a common corresponding point between a plurality of coordinate systems to calculate an index of coordinate conversion. The index of this coordinate transformation is described by the Roll angle, the Pitch angle, and the Yaw angle, as described above.

(ステップS106)
制御部20は、算出した座標変換の指標を、メモリ30に記憶して処理を終了する。以降においては、制御部20は、メモリ30に記憶した、座標変換の指標を用いて、複数の測定装置10a、10bの測距点群データを1つの座標系に統合し、連続した複数の測定空間での動体の行動解析等を行う。
(Step S106)
The control unit 20 stores the calculated coordinate conversion index in the memory 30, and ends the process. Thereafter, the control unit 20 integrates the ranging point group data of the plurality of measuring devices 10a and 10b into one coordinate system using the coordinates of the coordinate conversion stored in the memory 30, and performs a plurality of continuous measurements. Conduct behavioral analysis of moving objects in space.

このように、第1の実施形態においては、複数の測距点群データ測定装置を用いる場合に、複数の測定空間が重なる重複領域に設置された、形状情報が既知の立体物931を用いる。そして、測定により得られた立体物931の測距点群データ、および立体物931の形状情報から座標変換の指標を算出し、当該指標を用いて複数の測距点群データを1つの座標系に統合する。このようにすることで、測定空間内の測定対象物の形状、種類によらず、安定して、高精度で、重複領域を測定対象とする測距点群データ測定装置から取得した座標系の異なる複数の測距点群データを1つの座標系に統合できる。   As described above, in the first embodiment, in the case of using a plurality of distance measurement point group data measurement devices, a three-dimensional object 931 whose shape information is known and which is installed in an overlapping area where a plurality of measurement spaces overlap is used. Then, an index for coordinate conversion is calculated from the distance measurement point group data of the three-dimensional object 931 obtained by the measurement and the shape information of the three-dimensional object 931, and a plurality of distance measurement point group data Integrate into By doing this, regardless of the shape and type of the measurement object in the measurement space, it is possible to stably and accurately obtain the coordinate system acquired from the distance measurement point group data measurement device that sets the overlapping region as the measurement object. A plurality of different ranging point group data can be integrated into one coordinate system.

特に複数の測距点群データ測定装置が互いに共通な場所を測定できないような配置となっている場合、例えば、一方の測距点群データ測定装置が物体の正面を測定し、他方が背面を測定するような場合には、両測定装置で同じ位置を測定できず、指標の算出に用いる対応点を見出すことはできない。そのため指標の算出が困難となる。本実施形態においては、形状情報が既知の立体物931を用いることで、仮にこのような配置であっても、正面の測定値(座標)により、背面側の測定値を容易に算出できる。これにより共通の対応点を容易に求めることができ、指標の算出を正確に行える。   In particular, when a plurality of distance measurement point group data measurement devices are arranged such that they can not measure a common place, for example, one distance measurement point group data measurement device measures the front of the object and the other In the case of measurement, the same position can not be measured by both measurement devices, and it is not possible to find a corresponding point used to calculate the index. Therefore, it becomes difficult to calculate the index. In the present embodiment, by using the three-dimensional object 931 whose shape information is known, even in such an arrangement, it is possible to easily calculate the measurement value on the back side from the measurement value (coordinates) on the front. As a result, common corresponding points can be easily obtained, and the index can be calculated accurately.

また、予め既知の形状の立体物931を用いることで、それぞれの測距点群データ内から、立体物931の探索が容易にできるので、座標統合処理が容易となる。   Further, by using the three-dimensional object 931 having a known shape in advance, the three-dimensional object 931 can be easily searched from within each of the ranging point group data, so that the coordinate integration process becomes easy.

さらに、本実施形態においては、立体物931の測距点群データを構成する多軸の形状情報を用いることで、位置分解能に方向依存性がある測定装置10であっても、共通の対応点を高い位置精度で対応付けることができ、ひいては高精度な座標統合処理が可能となる。より具体的には、例えば、立体物931ではなく、水平面上に載置した形状情報が既知の平面図形(平面物)を用いた場合には、この形状情報は、奥行き方向と水平方向の2要素から構成されるため、奥行き方向の位置測定精度が低い場合、平面図形の形状測定精度が低下し、平面図形の位置や形状特定が不十分となり、座標変換の精度が低下する。本実施形態では形状情報が既知の立体物931を用いることにより、例えば正面視(XY方向)の座標情報により、これよりも精度が低い奥行き方向(Z方向)の座標情報を補えるのでこのような問題が生じない。   Furthermore, in the present embodiment, by using multi-axial shape information that configures the distance measurement point group data of the three-dimensional object 931, common correspondence points are obtained even in the measurement apparatus 10 that has direction dependency on position resolution. Can be associated with high positional accuracy, which in turn enables highly accurate coordinate integration processing. More specifically, for example, in the case of using not a three-dimensional object 931 but a planar figure (planar object) whose shape information placed on a horizontal surface is known, this shape information may be two in the depth direction and in the horizontal direction. Since it is composed of elements, when the position measurement accuracy in the depth direction is low, the shape measurement accuracy of the plane figure is lowered, the position and the shape specification of the plane figure become insufficient, and the coordinate conversion accuracy is lowered. In this embodiment, by using the three-dimensional object 931 whose shape information is known, for example, coordinate information in the depth direction (Z direction) whose accuracy is lower than that can be compensated by coordinate information in a front view (XY direction). There is no problem.

なお、第1の実施形態においては、2つの測定装置10を用いる例を示したが、これに限られず、3つ以上の測定装置10に適用してもよい。具体的には、3つの測定空間が1つの重複領域で重複する場合に、この重複領域に立体物931を配置し、この立体物931の測定結果によって、3つの測定装置10の座標変換の指標を算出するようにしてもよい。   In the first embodiment, an example in which two measuring devices 10 are used is shown. However, the present invention is not limited to this and may be applied to three or more measuring devices 10. Specifically, when three measurement spaces overlap in one overlapping area, a three-dimensional object 931 is disposed in this overlapping area, and the measurement results of this three-dimensional object 931 indicate the index of coordinate conversion of the three measuring devices 10. May be calculated.

((第2の実施形態)座標系統合処理の制御方法)
以下、第2の実施形態に係る測距点群データ測定システム1が実行する座標統合処理について説明する。図7は、座標統合処理を示すフローチャートである。この第2の実施形態においてはユーザーがGUIを用いて、立体物931の輪郭線の指定を行うものである。
((Second Embodiment) Control Method of Coordinate System Integration Processing)
Hereinafter, coordinate integration processing executed by the distance measuring point group data measurement system 1 according to the second embodiment will be described. FIG. 7 is a flowchart showing coordinate integration processing. In the second embodiment, the user designates the outline of the three-dimensional object 931 using a GUI.

(ステップS101からS104、およびステップS301からS303)
第2の実施形態においても、図4と同様の関係にある複数の測定装置10の重複領域601に立体物931を配置し、この立体物931を測定する。図7に示す処理において前半のステップS101からS104、およびステップS301からS303の処理は、図5のフローチャートで示した処理と同じ処理であり、その説明を省略する。ここまでの処理により、重複領域601に配置した立体物931が、測距点群データを解析することで検出され、特定されている。
(Steps S101 to S104 and Steps S301 to S303)
Also in the second embodiment, the three-dimensional object 931 is disposed in the overlapping region 601 of the plurality of measuring devices 10 in the same relationship as FIG. 4, and this three-dimensional object 931 is measured. In the process shown in FIG. 7, the processes of steps S101 to S104 and the processes of steps S301 to S303 in the first half are the same processes as the process shown in the flowchart of FIG. Through the processing up to this point, the three-dimensional object 931 disposed in the overlapping area 601 is detected and identified by analyzing the distance measurement point group data.

(ステップS111)
次に、制御部20は、入出力I/F40によって輪郭線確認用のGUIデータを表示させる。図8、図9は、立体物931の輪郭線指定用のGUIの例を示す図である。図8に示す操作画面402においては、測定装置10aの測距点群データで検出した立体物931の測定空間61におけるZ方向(正面または側面方向)から見た画像を表示領域421に表示している。また、同様に測定装置10bの測距点群データで検出した同じ立体物931の測定空間62におけるZ方向から見た画像を表示領域422に表示している。
(Step S111)
Next, the control unit 20 causes the input / output I / F 40 to display GUI data for contour line confirmation. FIG. 8 and FIG. 9 are diagrams showing examples of GUIs for specifying the outline of the three-dimensional object 931. In the operation screen 402 shown in FIG. 8, it displays an image viewed from the Z 1 direction (front or side direction) in the measurement space 61 of the three-dimensional object 931 detected by the distance measurement point cloud data of the measurement device 10a in the display area 421 ing. Further, displaying the image viewed from Z 2 direction in the measurement space 62 of the same three-dimensional object 931 detected by the distance measuring point cloud data similarly measuring device 10b in the display area 422.

(ステップS311)
ユーザーは、マウス等の入力デバイスを操作することにより、図8の操作画面402の表示領域421、422に表示している立体物931それぞれに対して一部の輪郭線を指定する。図8に示す例では、床面(地面)に接する立体物931の底辺の輪郭線を、ユーザーが入力した線b1、b2により指定している。OKボタンを操作することで指定が確定する。またこのOKボタンの操作により表示される画面は、次の図9の操作画面403に切り替わる。
(Step S311)
The user operates the input device such as a mouse to designate a part of the outline for each of the three-dimensional objects 931 displayed in the display areas 421 and 422 of the operation screen 402 in FIG. 8. In the example shown in FIG. 8, the outline of the base of the three-dimensional object 931 in contact with the floor surface (ground) is designated by the lines b1 and b2 input by the user. The specification is confirmed by operating the OK button. Further, the screen displayed by the operation of the OK button is switched to the operation screen 403 of FIG.

(ステップS112)
座標系統合部211は、立体物931の座標と底辺位置からRoll角、Pitch角(あるいはY方向の座標)に関する補正量、すなわち座標変換の指標を算出する。具体的には、ステップS311で、ユーザーに指定された線b1、b2により、立体物931の高さ方向のオフセット量、すなわちY方向の座標が設定される。これにより、測定装置10a、10bの座標系におけるY=0、Y=0の位置が確定する。確定したY方向の位置に応じて、各座標系におけるRoll角、Pitch角の補正量が設定される。
(Step S112)
The coordinate system integration unit 211 calculates the correction amount related to the Roll angle and the Pitch angle (or the coordinate in the Y direction) from the coordinates and the base position of the three-dimensional object 931, that is, an index of coordinate conversion. Specifically, in step S311, the offset amount in the height direction of the three-dimensional object 931, that is, the coordinate in the Y direction is set by the lines b1 and b2 designated by the user. Thereby, the positions of Y 1 = 0 and Y 2 = 0 in the coordinate system of the measuring devices 10 a and 10 b are determined. According to the determined position in the Y direction, correction amounts of the Roll angle and the Pitch angle in each coordinate system are set.

(ステップS312)
図9に示す操作画面403においては、測定装置10aの測距点群データで検出されたた立体物931の測定空間61におけるY方向から見た画像(上面図)が表示領域423に表示されている。同様に測定装置10bの測距点群データで検出された同じ立体物931の測定空間62におけるY方向から見た画像が表示領域424に表示されている。ユーザーは、マウス等の入力デバイスを操作することにより、図9の操作画面403の表示領域423、424に表示している立体物931それぞれに対して一部の輪郭線を指定する。図9に示す例では、立体物931の四方を囲む輪郭線を、ユーザーが入力した線b3、b4により指定する。これにより立体物931の位置と向き(回転方向)が設定される。OKボタンを操作することで指定が確定する。
(Step S312)
In the operation screen 403 shown in FIG. 9, an image (top view) seen from the Y 1 direction in the measurement space 61 of the three-dimensional object 931 detected by the distance measurement point group data of the measurement device 10a is displayed in the display area 423. ing. Similarly, an image viewed from the Y 2 direction in the measurement space 62 of the same three-dimensional object 931 detected by the distance measurement point group data of the measurement device 10 b is displayed in the display area 424. The user operates the input device such as a mouse to designate a part of the outline for each of the three-dimensional objects 931 displayed in the display areas 423, 424 of the operation screen 403 of FIG. In the example shown in FIG. 9, the outlines surrounding the four sides of the three-dimensional object 931 are designated by the lines b3 and b4 input by the user. Thereby, the position and the direction (rotational direction) of the three-dimensional object 931 are set. The specification is confirmed by operating the OK button.

(ステップS113)
座標系統合部211は、立体物931の座標と向きからYaw角(あるいはXZ方向の座標)に関する補正量、すなわち座標変換の指標を算出する。具体的には、ステップS312で、ユーザーに指定された線b3、b4により、立体物931の上面視における位置と回転方向が設定される。これにより測定装置10a、10bの座標系における全ての位置が確定する。確定した位置に応じて、各座標系におけるYaw角の補正量が設定される。
(Step S113)
The coordinate system integration unit 211 calculates the correction amount related to the Yaw angle (or the coordinate in the XZ direction) from the coordinates and the direction of the three-dimensional object 931, that is, an index of coordinate conversion. Specifically, in step S312, the position and rotation direction in top view of the three-dimensional object 931 are set by the lines b3 and b4 designated by the user. Thereby, all positions in the coordinate system of measuring device 10a, 10b are decided. The correction amount of the Yaw angle in each coordinate system is set according to the determined position.

(ステップS114)
制御部20は、ステップS112、S113で算出した座標変換の指標を、メモリ30に記憶して処理を終了する。
(Step S114)
The control unit 20 stores the index of coordinate conversion calculated in steps S112 and S113 in the memory 30, and ends the process.

このように、第2の実施形態においても、第1の実施形態と同様に複数の測距点群データ測定装置を用いる場合に、複数の測定空間が重なる重複領域に設置された、形状情報が既知の立体物931の測定結果に基づいて座標変換の指標を算出する。これにより第1の実施形態と同様の効果が得られる。さらに、第2の実施形態では、検出した各測定空間内での立体物931の画像を操作画面に表示し、この操作画面によりユーザーにより立体物931の一部の輪郭線の指定を行い、その輪郭指定情報を座標変換の指標の算出に用いる。これによって、測定装置10の奥行き方向の分解能が、他の方向の分解能に比べて低くても、ユーザーによる輪郭線の指定により、その能力を補うことができる。これにより高精度に、共通の対応点として用いる立体物931の座標を求めることができ、ひいては、より高精度で座標系の異なる複数の測距点群データを1つの座標系に統合できる。特に、第2の実施形態においては、高さ方向の位置、すなわちY=0の位置を、Z方向から見た立体物931を表示した操作画面(図8)により輪郭線を指定することにより設定している。これにより、立体物931の測距点群データのみを用いて、高さ方向(鉛直方向)のオフセット量を決定できるので計算が簡便となる。   As described above, also in the second embodiment, when using a plurality of distance measurement point group data measurement devices as in the first embodiment, the shape information provided in an overlapping area where a plurality of measurement spaces overlap is used. An index of coordinate conversion is calculated based on the measurement result of the known three-dimensional object 931. Thereby, the same effect as that of the first embodiment can be obtained. Furthermore, in the second embodiment, the image of the three-dimensional object 931 in each of the detected measurement spaces is displayed on the operation screen, and the user designates the outline of part of the three-dimensional object 931 by the user. The contour designation information is used to calculate the index of coordinate conversion. Thereby, even if the resolution in the depth direction of the measuring apparatus 10 is lower than the resolution in the other directions, the user can compensate for the capability by the designation of the outline. Thus, the coordinates of the three-dimensional object 931 used as a common corresponding point can be determined with high accuracy, and in turn, a plurality of ranging point group data with different coordinate systems can be integrated into one coordinate system with higher accuracy. In particular, in the second embodiment, the position in the height direction, that is, the position of Y = 0, is set by designating an outline on the operation screen (FIG. 8) on which the three-dimensional object 931 viewed from the Z direction is displayed. doing. As a result, since the offset amount in the height direction (vertical direction) can be determined using only the distance measurement point group data of the three-dimensional object 931, the calculation becomes simple.

なお、図7から図9に示した第2の実施形態においては、ユーザーによって、立体物931の底辺の輪郭線、および上面視の四方を囲む輪郭線を指定する例を示したが、これに限られず、底辺のみ、あるいは四方を囲む輪郭線のみを指定するようにしてもよい。   In the second embodiment shown in FIG. 7 to FIG. 9, an example is shown in which the user designates the outline of the base of the three-dimensional object 931 and the outline surrounding four sides of the top view. There is no limitation, and it is also possible to designate only the bottom side or only the outline surrounding the four sides.

(変形例1)
図10は、変形例1に係る測距点群データ測定システム1で使用する地表マーカーを示す模式図である。この変形例1においては、上述の立体物931に加えて、立体物931が配置されている地面(床面)に置いた、形状情報が既知の3個の地表マーカー71、72、73を用い、これの測定結果により、高さ方向のオフセット量を決定する。地表マーカーは、例えば、シート状の形状が既知の平面部材である。
(Modification 1)
FIG. 10 is a schematic view showing a ground marker used in the distance measuring point group data measurement system 1 according to the first modification. In this modification 1, in addition to the above-described three-dimensional object 931, three ground markers 71, 72, 73 of which shape information is known are placed on the ground (floor surface) on which three-dimensional object 931 is disposed. The amount of offset in the height direction is determined according to the measurement result of this. The ground marker is, for example, a flat member whose sheet-like shape is known.

第2の実施形態においては、底辺の輪郭線をユーザーにより指定していたが、この変形例1においては、ユーザーによる輪郭線の指定に換えて、地面に配置した3個の地表マーカー71、72、73を用いて、立体物931の高さ方向のオフセット量、すなわちY方向の座標を設定する。これにより、ユーザーによる輪郭線の指定操作を強いることなく、第2の実施形態と同様の効果を得ることができる。   In the second embodiment, the outline of the base is specified by the user. However, in the first modification, three ground markers 71, 72 arranged on the ground are used instead of the specification of the outline by the user. , 73 to set the offset amount in the height direction of the three-dimensional object 931, that is, the coordinate in the Y direction. As a result, the same effect as that of the second embodiment can be obtained without forcing the user to specify an outline.

(第3の実施形態)
第1、第2の実施形態においては、2個またはこれ以上の測定装置10が、1つの重複領域を通じて複数の測定空間が連続する例を示した。以下に示す第3の実施形態においては、3個以上の測定装置10の測定空間が、1つの重複領域を通じて連続せずに、複数の重複領域を通じて連続する場合に適用するものである。より具体的には、第3の実施形態では、複数の重複領域のいずれかを測定対象とする複数の測定装置10により、重複領域に設置された立体物を測定し、その測定結果から座標系の統合に関する指標等を取得し、これを用いて複数の測定空間の座標系の統合を行う。
Third Embodiment
In the first and second embodiments, two or more measurement devices 10 show an example in which a plurality of measurement spaces are continuous through one overlapping area. In the third embodiment described below, the measurement space of three or more measurement devices 10 is applied not to be continuous through one overlapping region but to be continuous through a plurality of overlapping regions. More specifically, in the third embodiment, a three-dimensional object placed in the overlapping area is measured by the plurality of measuring devices 10 which measure any of the plural overlapping areas, and the coordinate system is determined from the measurement result Integrate the coordinate systems of multiple measurement spaces using the index etc. regarding the integration of.

図11は、第3の実施形態において、3つの測定空間が2つの重複領域を通じて連続した状態を示す模式図である。図12は、第3の実施形態に係る測距点群データ測定システム1で実行する座標統合処理を示すフローチャートである。   FIG. 11 is a schematic view showing that three measurement spaces are continuous through two overlapping regions in the third embodiment. FIG. 12 is a flowchart showing coordinate integration processing executed by the distance measuring point group data measurement system 1 according to the third embodiment.

図11に示すように測定装置10a、10b、10cは、それぞれ測定空間61、62、63を測定対象とし、走査することで測距点群データを生成する。また測定空間61と測定空間62は重複領域601で重なり、測定空間61と測定空間63は重複領域602で重なる。3つの測定空間61、62、63は、重複領域601、602を通じて連続する。   As shown in FIG. 11, the measuring devices 10a, 10b and 10c respectively measure the measurement spaces 61, 62 and 63 as measurement targets, and generate ranging point group data by scanning. The measurement space 61 and the measurement space 62 overlap in the overlapping area 601, and the measurement space 61 and the measurement space 63 overlap in the overlapping area 602. The three measurement spaces 61, 62, 63 are continuous through the overlapping areas 601, 602.

(座標系統合処理の制御方法)
以下、図12を参照し、第3の実施形態に係る測距点群データ測定システム1が実行する座標統合処理について説明する。同図のステップS501からS506は、基本的には図5の第1の実施形態におけるステップS101からS106に対応する。そのため一部についてはその説明を省略する。また、図12においてはユーザー側も図5と同様の処理を行うが、記載を省略している。
(Control method of coordinate system integration process)
Hereinafter, with reference to FIG. 12, coordinate integration processing executed by the distance measuring point group data measurement system 1 according to the third embodiment will be described. Steps S501 to S506 in the figure basically correspond to steps S101 to S106 in the first embodiment of FIG. Therefore, the explanation is omitted about a part. Further, in FIG. 12, the user side also performs the same processing as in FIG. 5, but the description is omitted.

(ステップS501)
制御部20は、入出力I/F40によって形状情報入力用のGUIデータを表示させる。ユーザーは、操作画面401(図6参照)を介して対象となる測定装置10(例えば10a、10b)の識別番号を入力エリア413に入力する。対象となる複数の測定装置10間の重複領域(例えば重複領域601)に設置した立体物931の形状情報を、操作画面401を介して入力する。
(Step S501)
The control unit 20 causes the input / output I / F 40 to display GUI data for shape information input. The user inputs the identification number of the target measuring device 10 (for example, 10a and 10b) in the input area 413 via the operation screen 401 (see FIG. 6). The shape information of the three-dimensional object 931 installed in the overlapping area (for example, the overlapping area 601) between the plurality of measuring devices 10 to be targets is input through the operation screen 401.

(ステップS502からS506)
制御部20は、第1の実施形態のステップS101からS106と同様の処理を行い、対象となる測定装置10(例えば測定装置10a、10b)間の座標変換の指標をメモリ30に記憶する。
(Steps S502 to S506)
The control unit 20 performs the same processing as steps S101 to S106 in the first embodiment, and stores in the memory 30 an index of coordinate conversion between the target measuring devices 10 (for example, the measuring devices 10a and 10b).

(ステップS507)
全ての重複領域での測定が終わっていなければ(NO)、制御部20は、ステップS501以下の処理を繰り返す。例えば、図11に示すように、ユーザーは重複領域601に設置していた立体物931を隣の重複領域602に移動させてから、立体物931の形状情報を入力する。その後、測定開始ボタン(図6参照)を操作することで、以降は同じ処理を繰り返し、対象となる測定装置10(例えば10a、10c)間の座標変換の指標をメモリ30に記憶する。なお、同じ立体物931を使用する場合には、2回目以降の形状情報の入力を省略するようにしてもよい。
(Step S507)
If the measurement in all the overlapping regions is not completed (NO), the control unit 20 repeats the processing of step S501 and the subsequent steps. For example, as shown in FIG. 11, the user moves the three-dimensional object 931 placed in the overlapping area 601 to the adjacent overlapping area 602, and then inputs the shape information of the three-dimensional object 931. Thereafter, by operating the measurement start button (see FIG. 6), the same processing is repeated thereafter, and the index of coordinate conversion between the target measuring devices 10 (for example 10a, 10c) is stored in the memory 30. When the same three-dimensional object 931 is used, the second and subsequent input of the shape information may be omitted.

一方で、制御部20は、全ての重複領域での測定が終了した場合(YES)、すなわち全ての座標変換の指標が得られたならば、処理をステップS508に進める。   On the other hand, when the measurement in all the overlapping regions is completed (YES), that is, when the index of all the coordinate conversions is obtained, the control unit 20 advances the process to step S508.

(ステップS508)
座標系統合部211は、座標を統合する手順を記述した指定情報を設定し、メモリ30に記憶する。例えば、測定装置10aをメインとし、他の測定装置10b、10cをサブに設定した場合、測定装置10b、10cの座標系をそれぞれ測定装置10aに統合することで、全ての測定空間の座標系を1つに統合する。また、測定装置10cがメインで、他の測定装置10a、10bがサブであれば、測定装置10bの座標系を測定装置10aの座標系に統合し、その後、統合した座標系を、測定装置10cの座標系に統合することで、全ての測定空間の座標系を1つに統合する。このような統合手順が指定情報には設定されている。なお、メイン、サブの設定はユーザーが行うようにしてもよく、座標系統合部211が自動的に設定するようにしてもよい。
(Step S508)
The coordinate system integration unit 211 sets specification information in which a procedure for integrating coordinates is described, and stores the specification information in the memory 30. For example, when the measuring device 10a is the main and the other measuring devices 10b and 10c are set to the sub, the coordinate systems of the measuring devices 10b and 10c are integrated into the measuring device 10a, respectively. Integrate into one. Moreover, if the measuring device 10c is the main and the other measuring devices 10a and 10b are sub, the coordinate system of the measuring device 10b is integrated into the coordinate system of the measuring device 10a, and then the integrated coordinate system is measured by the measuring device 10c. Integrate the coordinate system of all measurement space into one. Such integration procedure is set in the designated information. The main and sub settings may be performed by the user, or may be set automatically by the coordinate system integration unit 211.

このように第3の実施形態においては、複数の重複領域にそれぞれ設置した形状情報が既知の立体物931を複数の測定装置10で測定することにより得られた立体物931の測距点群データ、および立体物の形状情報から、それぞれの測定装置10の座標変換の指標を算出するとともに、座標を統合する手順を記述した指定情報を設定する。これにより、図11に示すような、測定空間が1つの重複領域を通じて連続せずに、複数の重複領域を通じて連続する場合において、全ての測定空間の座標系を1つの座標系に統合できる。   As described above, in the third embodiment, the distance measurement point cloud data of the three-dimensional object 931 obtained by measuring the three-dimensional object 931 with known shape information respectively installed in the plurality of overlapping regions by the plurality of measuring devices 10. And, from the shape information of the three-dimensional object, while calculating the index of the coordinate transformation of each measuring device 10, it also specifies the specification information that describes the procedure of integrating the coordinates. As a result, as shown in FIG. 11, the coordinate system of all measurement spaces can be integrated into one coordinate system in the case where the measurement spaces are not continuous through one overlapping region but are continuous through a plurality of overlapping regions.

(変形例2)
図13は、変形例2に係る測距点群データ測定システム1で使用する複数の立体物を示す模式図である。図11等に示した、第3の実施形態では1個の立体物931を用い、これを順次移動させて、座標変換の指標を算出した。変形例2においては、複数の立体物932、933を重複領域に予め配置しておき、これを用いて、座標変換の指標を算出するものである。変形例2においても、ユーザーは、それぞれの立体物932、933の形状情報を入力することで、第3の実施形態と同様の効果を得ることができる。
(Modification 2)
FIG. 13 is a schematic view showing a plurality of three-dimensional objects used in a distance measuring point group data measurement system 1 according to a second modification. In the third embodiment shown in FIG. 11 and the like, one solid object 931 is used, and this is sequentially moved to calculate an index of coordinate conversion. In the second modification, a plurality of three-dimensional objects 932 and 933 are arranged in advance in the overlapping area, and the index of coordinate conversion is calculated using this. Also in the second modification, the user can obtain the same effect as that of the third embodiment by inputting the shape information of each of the three-dimensional objects 932 and 933.

以上に説明した測距点群データ測定システムの構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な測距点群データ測定システムが備える構成を排除するものではない。   The configuration of the distance measurement point group data measurement system described above is the main configuration described in describing the features of the above-described embodiment, and is not limited to the above-described configuration, and various modifications are possible within the scope of the claims. can do. Moreover, the configuration provided in a general ranging point group data measurement system is not excluded.

例えば、第2の実施形態、および変形例1を第3の実施形態と組み合わせてもよい。また、立体物931の形状情報の入力は長さを数値(mm)により入力する例を示したがこれに限られず、立体物931の形状情報を識別番号とともに予めメモリ30に記憶しておき、ユーザーは立体物931の識別番号を選択することで、形状情報の入力を省略するようにしてもよい。   For example, the second embodiment and the first modification may be combined with the third embodiment. In addition, although the input of the shape information of the three-dimensional object 931 shows an example of inputting the length by a numerical value (mm), the present invention is not limited to this. The user may omit the input of the shape information by selecting the identification number of the three-dimensional object 931.

上述した実施形態に係る測距点群データ測定システムにおける各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、たとえば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、測距点群データ測定装置の一機能としてその装置のソフトウエアに組み込まれてもよい。   The means and method for performing various processes in the range-finding point group data measurement system according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Also, the above program may be provided as a single application software, or may be incorporated into the software of the range-finding point group data measurement device as a function of the device.

1 測距点群データ測定システム
10、10a、10b 測距点群データ測定装置
11 投受光ユニット
12 測距点群データ生成部
20 制御部
211 座標系統合部
212 行動解析部
30 メモリ
40 入出力I/F
61、62、63 測定空間
601、602 重複領域
71、72、73 地表マーカー
91 壁
92 背景対象物
93 物体(侵入物)
931、932、933 立体物
900 フレーム
DESCRIPTION OF SYMBOLS 1 ranging point group data measurement system 10, 10a, 10b ranging point group data measurement apparatus 11 light emission / reception unit 12 ranging point group data generation part 20 control part 211 coordinate system integration part 212 action analysis part 30 memory 40 input / output I / F
61, 62, 63 Measurement space 601, 602 Overlap area 71, 72, 73 Ground marker 91 Wall 92 Background object 93 Object (Invasion)
931, 932, 933 Three-dimensional object 900 frame

Claims (10)

測定対象となる測定空間内の対象物までの距離値の分布を示す測距点群データを取得する、複数の測距点群データ測定装置と、
複数の前記測距点群データ測定装置が取得したそれぞれの測距点群データを1つの座標系に統合する座標系統合部と、を備え、
前記座標系統合部は、複数の前記測距点群データ測定装置の前記測定空間が重なる重複領域に設置された、形状情報が既知の立体物を複数の前記測距点群データ測定装置で測定することで得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から座標変換の指標を算出し、該指標を用いて前記重複領域を測定対象とする複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合する、測距点群データ測定システム。
A plurality of distance measuring point group data measuring devices for acquiring distance measuring point group data indicating a distribution of distance values to an object in a measurement space to be measured;
A coordinate system integration unit that integrates the respective ranging point group data acquired by the plurality of ranging point group data measurement devices into one coordinate system;
The coordinate system integration unit measures a three-dimensional object whose shape information is known, which is installed in an overlapping area where the measurement spaces of a plurality of distance measurement point group data measurement devices overlap, with a plurality of distance measurement point group data measurement devices An index of coordinate conversion is calculated from the distance measurement point group data of the three-dimensional object obtained by performing the measurement and the shape information of the three-dimensional object, and a plurality of the measurement for measuring the overlapping area using the index A range-finding point group data measurement system that integrates a plurality of range-finding point group data acquired from a range-point group data measurement device into one coordinate system.
ユーザーによる前記立体物の前記形状情報を受け付ける入力部をさらに備える、請求項1に記載の測距点群データ測定システム。   The ranging point cloud data measurement system according to claim 1, further comprising an input unit configured to receive the shape information of the three-dimensional object by a user. さらに表示部を備え、
前記測定空間内に配置した前記立体物の画像を前記表示部に表示し、
前記表示部に表示した前記立体物の一部の輪郭線の指定を、前記入力部から受け付ける、請求項2に記載の測距点群データ測定システム。
Furthermore, the display unit is provided,
Displaying an image of the three-dimensional object disposed in the measurement space on the display unit;
The range-finding point group data measurement system according to claim 2, wherein the designation of the outline of the part of the three-dimensional object displayed on the display unit is received from the input unit.
前記測定空間内において、前記立体物を配置した地面上に、さらに3個以上のマーカーを配置し、
前記マーカーの位置により、前記立体物が配置された地面の位置を算出する、請求項1から請求項3のいずれか1つに記載の測距点群データ測定システム。
In the measurement space, three or more markers are further disposed on the ground on which the three-dimensional object is disposed;
The distance measuring point group data measurement system according to any one of claims 1 to 3, wherein the position of the ground on which the three-dimensional object is arranged is calculated according to the position of the marker.
前記立体物は、直方体、または互いに平行な2面を有する多面体である、請求項1から請求項4のいずれか1つに記載の測距点群データ測定システム。   The ranging point group data measurement system according to any one of claims 1 to 4, wherein the three-dimensional object is a rectangular parallelepiped or a polyhedron having two planes parallel to each other. 前記測距点群データ測定装置は、3個以上であり、かつ、全ての前記測距点群データ測定装置の前記測定空間が1つの前記重複領域を通じて連続せずに、複数の前記重複領域を通じて連続する場合に、複数の前記重複領域にそれぞれ設置された前記立体物を、複数の前記重複領域のいずれかを測定対象とする複数の前記測距点群データ測定装置で測定することにより得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から、複数の前記指標を算出するとともに、座標を統合する手順を記述した指定情報を設定し、
複数の前記指標、および前記指定情報を用いて、複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合する、請求項1から請求項5のいずれか1つに記載の測距点群データ測定システム。
The range-finding point group data measurement apparatus is three or more, and the measurement spaces of all the range-finding point group data measurement apparatuses are not continuous through one overlapping area, but through a plurality of overlapping areas. When continuous, it is obtained by measuring the three-dimensional objects respectively installed in a plurality of the overlapping regions by a plurality of the distance measuring point group data measuring devices which measure any of the plurality of the overlapping regions. From the distance measurement point group data of the three-dimensional object and the shape information of the three-dimensional object, a plurality of indices are calculated, and specification information describing a procedure for integrating coordinates is set.
The plurality of ranging point group data acquired from the plurality of ranging point group data measuring devices are integrated into one coordinate system using the plurality of indices and the designation information. The ranging point cloud data measurement system according to any one.
前記座標系統合部が1つの座標系に統合した、複数の前記測距点群データ測定装置から取得した前記測距点群データを用いて、複数の前記測定空間内の動体の行動を解析する行動解析部を、さらに備える、請求項1から請求項6のいずれか1つに記載の測距点群データ測定システム。   The movement of the moving body in the plurality of measurement spaces is analyzed using the distance measurement point group data acquired from the plurality of distance measurement point group data measurement devices integrated by the coordinate system integration unit into one coordinate system. The ranging point-group data measurement system according to any one of claims 1 to 6, further comprising a behavior analysis unit. 測定対象となる測定空間内の対象物までの距離値の分布を示す測距点群データを取得する、複数の測距点群データ測定装置を備えた、測距点群データ測定システムを制御するコンピューターで実行される制御プログラムであって、
複数の前記測距点群データ測定装置の測定空間が重なる重複領域に設置された、形状情報が既知の立体物を複数の前記測距点群データ測定装置で測定するステップ(a)と、
前記ステップ(a)で得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から、座標変換の指標を算出するステップ(b)と、
前記指標を用いて前記重複領域を測定対象とする複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合するステップ(c)と、
を前記コンピューターに実行させるための制御プログラム。
A ranging point group data measurement system comprising a plurality of ranging point group data measurement devices for acquiring ranging point group data indicating a distribution of distance values to an object in a measurement space to be measured is controlled A control program executed by a computer,
Measuring a three-dimensional object of which shape information is known, which is installed in an overlapping area where measurement spaces of a plurality of distance measuring point group data measuring devices overlap, with a plurality of the distance measuring point group data measuring devices;
Calculating an index of coordinate conversion from the distance measurement point group data of the solid object obtained in the step (a) and the shape information of the solid object;
Integrating a plurality of distance measurement point group data acquired from the plurality of distance measurement point group data measurement devices whose measurement target is the overlapping region using the index into one coordinate system;
A control program for causing the computer to execute.
さらに、ステップ(b)の前に、前記立体物の前記形状情報を受け付けるステップ(d)を前記コンピューターに実行させる、請求項8に記載の制御プログラム。   The control program according to claim 8, further comprising the step of: (d) receiving the shape information of the three-dimensional object before the step (b). 前記測距点群データ測定装置は3個以上であり、かつ、全ての前記測距点群データ測定装置の前記測定空間が1つの前記重複領域を通じて連続せずに、複数の前記重複領域を通じて連続し、
前記ステップ(a)では、複数の前記重複領域にそれぞれ設置された前記立体物を、複数の前記重複領域のいずれかを測定対象とする複数の前記測距点群データ測定装置で測定し、
前記ステップ(b)では、前記ステップ(a)で得られた前記立体物の測距点群データ、および前記立体物の前記形状情報から、座標統合に関する複数の前記指標を算出するとともに、座標を統合する手順を記述した指定情報を設定し、
前記ステップ(c)では、複数の前記指標、および前記指定情報を用いて、複数の前記測距点群データ測定装置から取得した複数の測距点群データを1つの座標系に統合する、請求項8または請求項9に記載の制御プログラム。
The number of distance measurement point group data measurement devices is three or more, and the measurement spaces of all the distance measurement point group data measurement devices are continuous through a plurality of overlapping regions without being continuous through one overlapping region. And
In the step (a), the three-dimensional object installed in each of the plurality of overlapping regions is measured by the plurality of distance measuring point group data measuring devices which measure any one of the plurality of overlapping regions;
In the step (b), a plurality of indices related to coordinate integration are calculated from the distance measurement point group data of the solid object obtained in the step (a) and the shape information of the solid object, and coordinates are calculated. Set specification information that describes the integration procedure,
In the step (c), a plurality of ranging point group data acquired from the plurality of ranging point group data measuring devices are integrated into one coordinate system using the plurality of indices and the designation information. The control program of Claim 8 or Claim 9.
JP2017236060A 2017-12-08 2017-12-08 Distance measurement point group data measurement system and control program Withdrawn JP2019101000A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017236060A JP2019101000A (en) 2017-12-08 2017-12-08 Distance measurement point group data measurement system and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236060A JP2019101000A (en) 2017-12-08 2017-12-08 Distance measurement point group data measurement system and control program

Publications (1)

Publication Number Publication Date
JP2019101000A true JP2019101000A (en) 2019-06-24

Family

ID=66973775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236060A Withdrawn JP2019101000A (en) 2017-12-08 2017-12-08 Distance measurement point group data measurement system and control program

Country Status (1)

Country Link
JP (1) JP2019101000A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850407A (en) * 2019-11-26 2020-02-28 深圳市国测测绘技术有限公司 Terrain measurement method based on radar technology
JPWO2021033479A1 (en) * 2019-08-20 2021-02-25
JP2021050917A (en) * 2019-09-20 2021-04-01 ピクシーダストテクノロジーズ株式会社 Control device, marker, method and program
JPWO2021106207A1 (en) * 2019-11-29 2021-06-03
WO2022059051A1 (en) * 2020-09-15 2022-03-24 日本電信電話株式会社 Device, method, and program which convert coordinates of 3d point cloud
JP2022069783A (en) * 2020-10-26 2022-05-12 日本電気株式会社 Laser observation system
WO2022168260A1 (en) * 2021-02-05 2022-08-11 日本電信電話株式会社 Device, method, and program which convert coordinates of 3d point cloud
WO2022195954A1 (en) 2021-03-17 2022-09-22 ソニーセミコンダクタソリューションズ株式会社 Sensing system
JP2023118608A (en) * 2022-02-15 2023-08-25 株式会社小糸製作所 Object detection system

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021033479A1 (en) * 2019-08-20 2021-02-25
WO2021033479A1 (en) * 2019-08-20 2021-02-25 パナソニックIpマネジメント株式会社 Distance measurement apparatus, information processing method, and information processing device
CN113994232A (en) * 2019-08-20 2022-01-28 松下知识产权经营株式会社 Distance measuring device, information processing method, and information processing device
JP7457950B2 (en) 2019-08-20 2024-03-29 パナソニックIpマネジメント株式会社 Distance measuring device, information processing method, and information processing device
JP2021050917A (en) * 2019-09-20 2021-04-01 ピクシーダストテクノロジーズ株式会社 Control device, marker, method and program
CN110850407B (en) * 2019-11-26 2023-07-21 深圳市国测测绘技术有限公司 Topography measurement method based on radar technology
CN110850407A (en) * 2019-11-26 2020-02-28 深圳市国测测绘技术有限公司 Terrain measurement method based on radar technology
US12449542B2 (en) 2019-11-29 2025-10-21 Nec Corporation Measurement apparatus, information processing apparatus, data specifying method, and non-transitory computer-readable medium
JPWO2021106207A1 (en) * 2019-11-29 2021-06-03
WO2021106207A1 (en) * 2019-11-29 2021-06-03 日本電気株式会社 Measurement device, information processing device, data specification method, and non-transitory computer-readable medium
JP7276504B2 (en) 2019-11-29 2023-05-18 日本電気株式会社 Measurement device, information processing device, and data identification method
JPWO2022059051A1 (en) * 2020-09-15 2022-03-24
JP7409517B2 (en) 2020-09-15 2024-01-09 日本電信電話株式会社 Apparatus, method and program for converting coordinates of 3D point cloud
WO2022059051A1 (en) * 2020-09-15 2022-03-24 日本電信電話株式会社 Device, method, and program which convert coordinates of 3d point cloud
JP7549290B2 (en) 2020-10-26 2024-09-11 日本電気株式会社 Laser Observation System
JP2022069783A (en) * 2020-10-26 2022-05-12 日本電気株式会社 Laser observation system
WO2022168260A1 (en) * 2021-02-05 2022-08-11 日本電信電話株式会社 Device, method, and program which convert coordinates of 3d point cloud
JP7563498B2 (en) 2021-02-05 2024-10-08 日本電信電話株式会社 Apparatus, method and program for converting coordinates of 3D point cloud
JPWO2022168260A1 (en) * 2021-02-05 2022-08-11
KR20230158474A (en) 2021-03-17 2023-11-20 소니 세미컨덕터 솔루션즈 가부시키가이샤 sensing system
WO2022195954A1 (en) 2021-03-17 2022-09-22 ソニーセミコンダクタソリューションズ株式会社 Sensing system
JP2023118608A (en) * 2022-02-15 2023-08-25 株式会社小糸製作所 Object detection system

Similar Documents

Publication Publication Date Title
JP2019101000A (en) Distance measurement point group data measurement system and control program
US9965870B2 (en) Camera calibration method using a calibration target
US11035955B2 (en) Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9513107B2 (en) Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US9989353B2 (en) Registering of a scene disintegrating into clusters with position tracking
US9761016B1 (en) Automated generation of a three-dimensional scanner video
US9869755B2 (en) Laser scanner and method of registering a scene
US20170292828A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US20170336508A1 (en) Using two-dimensional camera images to speed registration of three-dimensional scans
JP2015535337A (en) Laser scanner with dynamic adjustment of angular scan speed
JP2017528727A (en) Augmented reality camera used in combination with a 3D meter to generate a 3D image from a 2D camera image
JP2012529031A (en) 3D surface detection method and apparatus using dynamic reference frame
CN206321237U (en) Linear optical range finding apparatus
JP2014145735A (en) Shape measurement device, structure production system, evaluation device, shape measurement method, structure production method, and shape measurement program
US20210055420A1 (en) Base for spherical laser scanner and method for three-dimensional measurement of an area
WO2016040271A1 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
EP3989169A1 (en) Hybrid photogrammetry
JP6825624B2 (en) Monitoring system
WO2016089430A1 (en) Using two-dimensional camera images to speed registration of three-dimensional scans
CN103852031B (en) A kind of electronic equipment and the method for measuring body form
US11614528B2 (en) Setting method of monitoring system and monitoring system
EP3460758A1 (en) Virtual reality system for viewing point cloud volumes while maintaining a high point cloud graphical resolution
US20250356526A1 (en) Image-based localization and tracking using three-dimensional data
US20250157153A1 (en) Method and apparatus for removing unwanted points from point clouds
Win Curve and Circle Fitting of 3D Data Acquired by RGB-D Sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200918