[go: up one dir, main page]

JP2014077698A - Mapping device - Google Patents

Mapping device Download PDF

Info

Publication number
JP2014077698A
JP2014077698A JP2012225379A JP2012225379A JP2014077698A JP 2014077698 A JP2014077698 A JP 2014077698A JP 2012225379 A JP2012225379 A JP 2012225379A JP 2012225379 A JP2012225379 A JP 2012225379A JP 2014077698 A JP2014077698 A JP 2014077698A
Authority
JP
Japan
Prior art keywords
line
mapping
dimensional image
shaped object
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012225379A
Other languages
Japanese (ja)
Inventor
Yosuke Ogawa
陽輔 小川
Kazuhiko Maniwa
一彦 真庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Power Solutions Co Ltd
Original Assignee
Hitachi Power Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Power Solutions Co Ltd filed Critical Hitachi Power Solutions Co Ltd
Priority to JP2012225379A priority Critical patent/JP2014077698A/en
Publication of JP2014077698A publication Critical patent/JP2014077698A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mapping device capable of inexpensively and highly accurately specifying the arrangement position of a linear object arranged at an arbitrary place.SOLUTION: A mapping device 10 includes: a stereo-camera 21 for photographing a linear object represented by a linear sensor 51 arranged in a field 55 as an arbitrary place as a three-dimensional image expressed with three-dimensional coordinates; and a mapping processing part 11 for performing processing of associating the positions of height, width and breadth of the place where the linear object is arranged with the three-dimensional image of the linear object photographed by the stereo-camera 21, and recognizably expressing the arrangement position of the height, width and breadth in the three-dimensional image of the linear object.

Description

本発明は、ライン状の物体(ライン状物体)の配置位置を特定するマッピング装置に関する。   The present invention relates to a mapping device that specifies an arrangement position of a line-shaped object (line-shaped object).

従来、地面から放射される放射線量を計測する装置として図6に示す計測装置50がある。この計測装置50は、紐状のライン状物体であるライン状センサ51と、このライン状センサ51が接続されたライン状センサ計測器52とを備えて構成されている。   Conventionally, there is a measuring device 50 shown in FIG. 6 as a device for measuring the amount of radiation emitted from the ground. The measuring device 50 includes a line sensor 51 that is a string-like line object, and a line sensor measuring instrument 52 to which the line sensor 51 is connected.

ライン状センサ51は、各種長さのものがあるが、ここでは例えば10mの長さがあるとする。このライン状センサ51を、放射線の被計測地であるフィールド55に人が這わせて配置し放射線を検出する。ライン状センサ51は、軸芯に放射線を感知して発光する光ファイバであるPSF(プラスチックシンチレーションファイバ)を1乃至複数本束ねて用い、これを樹脂材料であるクラッドで被覆し、更に外皮で覆ったケーブル構造となっている。放射線の入射により発光(入射位置で発光)した光ファイバの両端で、発光光を検知してライン状センサ51における発光位置(検出ポイント)を特定する原理となっている。本例ではライン状センサ51の検出ポイント間隔が最小検出間隔の10cmに設定されているとする。   Although the line-shaped sensor 51 has various lengths, it is assumed here that the length is, for example, 10 m. The line-shaped sensor 51 is placed by a person on the field 55 which is a radiation measurement site, and the radiation is detected. The line-shaped sensor 51 uses one or more PSFs (plastic scintillation fibers) that are optical fibers that emit light upon sensing radiation on the shaft core, and these are covered with a clad that is a resin material and further covered with an outer cover. Cable structure. The principle is that the emitted light is detected at both ends of the optical fiber that emits light (emits light at the incident position) upon incidence of radiation, and the light emitting position (detection point) in the line-shaped sensor 51 is specified. In this example, it is assumed that the detection point interval of the line sensor 51 is set to the minimum detection interval of 10 cm.

従って、ライン状センサ計測器52では、図6に示すライン状センサ51の起点51aからの全長と、各検出ポイントまでの距離が分かっているので、図7(b)に示すように、各検出ポイント{長さ方向位置(%)}と、当該ポイントでの計測値である放射線量Lとを対応付けて放射線計測データを取得している。なお、図7(b)の例では、ライン状センサ51における起点51a(図6参照)からの放射線量検出ポイントまでの長さ方向位置(%)と、この長さ方向位置(%)での放射線量とが対応付けてある。   Therefore, since the total length from the starting point 51a of the line-shaped sensor 51 shown in FIG. 6 and the distance to each detection point are known in the line-shaped sensor measuring instrument 52, each detection is performed as shown in FIG. 7B. Radiation measurement data is acquired by associating a point {position in the length direction (%)} with a radiation dose L that is a measurement value at the point. In the example of FIG. 7B, the length direction position (%) from the starting point 51a (see FIG. 6) to the radiation dose detection point in the line sensor 51 and the length direction position (%). The radiation dose is associated.

このようにフィールド55の任意位置の放射線量を計測する。この際、図7(b)に示すように許容基準を超える放射線量のピークLpがある場合、図7(a)及び(c)に示すように、フィールド55の実際の地理上のどの位置(地理上検出位置ともいう)55aに、ピークLpがあるかを知る必要がある。しかし、ライン状センサ51における各検出ポイントは分かっているが、地理上のどの位置の放射線量であるかは分からない。そこで、人が地理上検出位置55aを測量機器で測定するか、GPS(Global Positioning System)で測定し、地理上検出位置55aとライン状センサ51の放射線検出ポイントとを対応付けるマッピングを行っている。この種のマッピング装置として、特許文献1に記載の技術がある。   In this way, the radiation dose at an arbitrary position in the field 55 is measured. At this time, as shown in FIG. 7B, when there is a peak Lp of the radiation dose exceeding the allowable standard, as shown in FIGS. 7A and 7C, as shown in FIGS. It is necessary to know whether there is a peak Lp at 55a (also referred to as a geographical detection position). However, although each detection point in the line-shaped sensor 51 is known, it is not known at which position in the geographic radiation dose. Therefore, a person measures the geographical detection position 55a with a surveying instrument or measures with a GPS (Global Positioning System), and performs mapping that associates the geographical detection position 55a with the radiation detection point of the line sensor 51. As this type of mapping apparatus, there is a technique described in Patent Document 1.

特開2011−113364号公報JP 2011-113364 A

しかし、上記のようにマッピングを行う際に、人が実際のフィールド55の位置を測定して行う場合、放射線量のピークLpが1か所だけならよいが、ピークLpが多数ある場合、各地理上検出位置55aの測定に時間と労力が掛かる。更に、フィールド55は平面だけでなく、図7(c)のフィールド55の断面図に示すように起伏が存在、即ち上下に凹凸が存在したり、図7(a)の平面図に示すように、その凹部や凸部が左右に蛇行していたりする。このため、人による測定が困難となり、各地理上検出位置55aの測定に余計に時間と労力が掛かってしまう。言い換えれば、マッピングのためのコストが高くなるという問題がある。
また、GPSで測定する場合、GPSの分解能は約5mと数十cmに比較して低いので、10cm単位の検出ポイントの位置を正確に特定することができないという問題がある。
However, when mapping is performed as described above, when a person measures the actual position of the field 55, the radiation dose peak Lp only needs to be one, but when there are many peaks Lp, It takes time and labor to measure the upper detection position 55a. Further, the field 55 is not only a plane, but also has undulations as shown in the sectional view of the field 55 in FIG. 7C, that is, there are irregularities on the top and bottom, as shown in the plan view in FIG. The concave and convex portions meander from side to side. For this reason, measurement by a person becomes difficult, and it takes extra time and labor to measure each geographically detected position 55a. In other words, there is a problem that the cost for mapping becomes high.
Moreover, when measuring with GPS, since the resolution of GPS is low compared with about 5 m and several tens of centimeters, there is a problem that the position of the detection point in units of 10 cm cannot be specified accurately.

本発明は、このような事情に鑑みてなされたものであり、任意の場所に配置したライン状物体の配置位置を低コストで高精度に特定することができるマッピング装置を提供することを目的とする。   This invention is made in view of such a situation, and it aims at providing the mapping apparatus which can pinpoint the arrangement position of the line-shaped object arrange | positioned in arbitrary places at low cost with high precision. To do.

上記課題を解決するために、本発明は、任意の場所に配置されたライン状物体を、3次元座標で表される3次元画像として撮影するステレオカメラと、前記ステレオカメラで撮影されたライン状物体の3次元画像に、前記ライン状物体が配置された場所の縦横高さの位置を対応付け、当該ライン状物体の3次元画像中の縦横高さの配置位置を認識可能に表す処理を行うマッピング処理部とを備えることを特徴とした。   In order to solve the above-described problems, the present invention provides a stereo camera that captures a line-shaped object arranged at an arbitrary place as a three-dimensional image represented by three-dimensional coordinates, and a line shape captured by the stereo camera. A process of associating the vertical and horizontal height position of the place where the line-shaped object is arranged with the three-dimensional image of the object and recognizing the arrangement position of the vertical and horizontal height in the three-dimensional image of the line-shaped object is performed. And a mapping processing unit.

本発明によれば、任意の場所に配置したライン状物体の配置位置を低コストで高精度に特定することができるマッピング装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the mapping apparatus which can pinpoint the arrangement position of the line-shaped object arrange | positioned in arbitrary places with high precision at low cost can be provided.

本発明の実施形態に係るマッピング装置の構成を示すブロック図である。It is a block diagram which shows the structure of the mapping apparatus which concerns on embodiment of this invention. 本実施形態のマッピング装置のマッピング処理部によるマッピング処理過程を示し、(a)はライン3D化部及びライン長対応付部の処理説明図、(b)はライン長対応付部の処理による3D画像図、(c)は位置・計測データ合成処理部の処理による3D画像図、(d)は座標変換処理部の処理による3D画像図である。The mapping process process by the mapping process part of the mapping apparatus of this embodiment is shown, (a) is process explanatory drawing of a line 3D conversion part and a line length corresponding | compatible part, (b) is 3D image by the process of a line length corresponding | compatible part. FIG. 4C is a 3D image diagram obtained by processing of the position / measurement data synthesis processing unit, and FIG. 5D is a 3D image diagram obtained by processing of the coordinate conversion processing unit. マッピング処理部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of a mapping process part. 本実施形態のマッピング装置によるマッピング処理の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the mapping process by the mapping apparatus of this embodiment. 図5(a)は本実施形態のマッピング装置に備えられるセンサ移動装置の構成を示す斜視図、(b)はセンサ移動装置のセンサ設置台の構成を示す平面図である。FIG. 5A is a perspective view showing a configuration of a sensor moving device provided in the mapping device of the present embodiment, and FIG. 5B is a plan view showing a configuration of a sensor installation base of the sensor moving device. 計測装置のライン状センサの配置及び構成を示す図である。It is a figure which shows arrangement | positioning and a structure of the line-shaped sensor of a measuring device. (a)ライン状センサの配置フィールド55の平面図、(b)ライン状センサ計測装置により計測された放射線のレベル図、(c)ライン状センサの配置フィールド55の断面図である。5A is a plan view of an arrangement field 55 of a line sensor, FIG. 5B is a level diagram of radiation measured by the line sensor measurement device, and FIG. 5C is a cross-sectional view of the arrangement field 55 of the line sensor.

以下、本発明の実施形態を、図面を参照して説明する。
<実施形態の構成>
図1は、本発明の実施形態に係るマッピング装置10の構成を示すブロック図である。
マッピング装置10は、前述の背景技術で説明した計測装置50のライン状センサ(ライン状物体)51と、フィールド55におけるライン状センサ51が配置された地理上位置とのマッピングを行うものであり、マッピング処理部11と、キーボードやマウス等の入力操作部20と、ステレオカメラ21と、GPSコンパス22とを備えて構成されている。
但し、この例での地理上位置とは、地球上の緯度及び経度の交差位置で、尚且つ海抜何メートル等の高度も加味された位置である。
Embodiments of the present invention will be described below with reference to the drawings.
<Configuration of Embodiment>
FIG. 1 is a block diagram showing a configuration of a mapping apparatus 10 according to the embodiment of the present invention.
The mapping device 10 performs mapping between the line-shaped sensor (line-shaped object) 51 of the measuring device 50 described in the background art described above and the geographical position where the line-shaped sensor 51 in the field 55 is arranged. A mapping processing unit 11, an input operation unit 20 such as a keyboard and a mouse, a stereo camera 21, and a GPS compass 22 are configured.
However, the geographical position in this example is a position where the latitude and longitude on the earth intersect, and an altitude such as several meters above sea level is taken into account.

ステレオカメラ21は、同性能の2つのレンズを所定間隔で左右に並べ、2つのレンズで同一の被写体であるライン状センサ51を同時に2枚の画面に撮影することにより、後述のカメラ座標で表されるライン状センサ51のステレオ画像を得るものである。このステレオ画像は、後述のライン3D化部12で図2(a)に示すカメラ座標に対応付けられ、尚且つ画像を構成する画素1つ1つが物理的な縦横高さの距離にも対応付けられる。
ここで、カメラ座標とは、ステレオカメラ21が持つ、図2(a)に示すXc軸、Yc軸、Zc軸で表される3次元座標系であり、ステレオカメラ21の任意のレンズの焦点位置を原点として、右(又は左)方向がYc軸の方向、上(又は下)方向がZc軸の方向、ステレオカメラ21の撮影方向(奥行き)がXc軸の方向となる。各Xc,Yc,Zc軸の座標のスケールは原点からの絶対距離に相当する。
The stereo camera 21 arranges two lenses with the same performance on the left and right at predetermined intervals, and images the line sensor 51, which is the same subject, on the two screens at the same time with the two lenses. A stereo image of the line sensor 51 to be obtained is obtained. This stereo image is associated with the camera coordinates shown in FIG. 2A by the line 3D conversion unit 12 described later, and each pixel constituting the image is also associated with a physical vertical and horizontal height distance. It is done.
Here, the camera coordinates are a three-dimensional coordinate system represented by the Xc axis, Yc axis, and Zc axis shown in FIG. 2A that the stereo camera 21 has, and the focal position of an arbitrary lens of the stereo camera 21. , The right (or left) direction is the Yc axis direction, the upper (or lower) direction is the Zc axis direction, and the shooting direction (depth) of the stereo camera 21 is the Xc axis direction. The scale of the coordinates of each Xc, Yc, Zc axis corresponds to the absolute distance from the origin.

図1に戻って、GPSコンパス22は、一例を述べると2つのアンテナを船首方向に取り付け、2つのアンテナの相対的な位置関係から方位を測定する方位センサであり、本実施形態では、ステレオカメラ21の撮影方向である方位並びにステレオカメラ21の地理上位置を測定する。つまり、GPSコンパス22は、ステレオカメラ21と対で配置(例えば互いが当接状態に配置)されており、GPSコンパス22の2つのアンテナが、ステレオカメラ21の撮影方向に向く直線上に配列されている。   Returning to FIG. 1, the GPS compass 22 is an azimuth sensor that mounts two antennas in the bow direction and measures the azimuth from the relative positional relationship between the two antennas. In this embodiment, a stereo camera is used. The azimuth that is the shooting direction of 21 and the geographical position of the stereo camera 21 are measured. That is, the GPS compass 22 is arranged in a pair with the stereo camera 21 (for example, arranged in contact with each other), and the two antennas of the GPS compass 22 are arranged on a straight line facing the shooting direction of the stereo camera 21. ing.

マッピング処理部11は、ライン3D(three dimensions)化部12と、ライン長対応付部13と、位置・計測データ合成処理部(単に、合成処理部ともいう)14と、GPSコンパス処理部15と、座標変換処理部16と、地図データDB(Data Base)部17とを備えて構成されている。   The mapping processing unit 11 includes a line 3D (three dimensions) unit 12, a line length association unit 13, a position / measurement data synthesis processing unit (also simply referred to as a synthesis processing unit) 14, a GPS compass processing unit 15, The coordinate conversion processing unit 16 and a map data DB (Data Base) unit 17 are provided.

ライン3D化部12は、ステレオカメラ21及び入力操作部20が接続されており、ステレオカメラ21の撮影ステレオ画像情報が入力され、この入力ステレオ画像情報における立体画像を図示せぬディスプレイに認識可能に表示可能とする3次元画像データを得る処理を行う。更に説明すると、ライン3D化部12は、ステレオカメラ21での撮像画像(背景を含む)データを輝度(階調)の違い及び色の違いに応じて、複数のデータを、その類似度に基いて分類するクラスタリングを行い、これにより得られるクラスタリングデータの中からライン状の連続性のあるデータを抽出し、ライン状物体(ライン状センサ51)として認識する。このように得られる撮影画像はライン3D化部12で認識不可能な場合もある。   The line 3D conversion unit 12 is connected to the stereo camera 21 and the input operation unit 20, and receives stereo image information captured by the stereo camera 21 so that a stereoscopic image in the input stereo image information can be recognized by a display (not shown). Processing for obtaining three-dimensional image data that can be displayed is performed. More specifically, the line 3D conversion unit 12 converts the data captured by the stereo camera 21 (including the background) into a plurality of data based on the degree of similarity according to the difference in luminance (gradation) and the difference in color. Clustering is performed, line-like continuous data is extracted from the obtained clustering data, and recognized as a line-like object (line-like sensor 51). The captured image obtained in this way may not be recognized by the line 3D conversion unit 12.

そこで、ライン3D化部12は、認識不可能な撮影画像を補間する。この補間のために、図1に示すように、人が入力操作部20により、ディスプレイに表示された3Dライン画像としてのライン状センサ51の起点51a及び終点をマーキングし、更に起点51aから終点間の任意位置に複数のマーク51mをマーキングする。   Therefore, the line 3D conversion unit 12 interpolates a captured image that cannot be recognized. For this interpolation, as shown in FIG. 1, a person marks the starting point 51a and the end point of the line-shaped sensor 51 as a 3D line image displayed on the display by the input operation unit 20, and further between the starting point 51a and the end point. A plurality of marks 51m are marked at arbitrary positions.

ライン3D化部12は、そのマーキングが完了すると、図2(a)に破線51bの上に示すように、起点51a及び終点と、複数のマーク51mとを認識する。更に、起点51aと終点間を、起点51a及び終点、各マーク51m並びに前後のデータを含めて補間処理を行って接続する。例えば、ライン状センサ51自体に弾性があるので、曲線で結ぶスプライン関数等を用いて補間処理を行う。なお、上記の認識不可能な場合、ステレオカメラ21での撮影を再度何回か行っても良い。   When the marking is completed, the line 3D conversion unit 12 recognizes the start point 51a and the end point, and a plurality of marks 51m, as shown on the broken line 51b in FIG. Further, the start point 51a and the end point are connected by performing interpolation processing including the start point 51a and the end point, each mark 51m, and the data before and after. For example, since the line sensor 51 itself has elasticity, an interpolation process is performed using a spline function connected by a curve. If the above recognition is impossible, photographing with the stereo camera 21 may be performed again several times.

この処理により、起点51aから終点まで連続的に繋がった認識可能なライン状センサ51の3Dライン画像51bを得る。この3Dライン画像51bのデータである図1に示す3Dライン画像データ12d(単に、データ12dともいう)を、ライン長対応付部13へ出力する。   By this process, a 3D line image 51b of the recognizable line sensor 51 continuously connected from the start point 51a to the end point is obtained. The 3D line image data 12d shown in FIG. 1, which is data of the 3D line image 51b (also simply referred to as data 12d), is output to the line length association unit 13.

そのデータ12dによる3Dライン画像51bは、上述したように地理上の物理的な距離に対応づけられているが、正確さに欠ける場合がある。そこで、ライン長対応付部13で3Dライン画像51bに長さを対応付ける。
即ち、ライン長対応付部13は、3Dライン画像51bの起点位置から任意の位置までをライン上をなぞって距離を求る。これにより、図2(a)に示すように、フィールド55における物理的な長さ(国際単位系の長さ)に対応した1次元のライン長座標(1D)に対応付けることができる。この対応付けにより、図2(b)に一点鎖線51cで示すような、3Dライン画像51bが物理的な長さに対応付けられた3次元のライン長画像を得る。この3Dライン長画像51cのデータである図1に示す3Dライン長画像データ13d(単に、データ13dともいう)を、位置・計測データ合成処理部14へ出力する。
The 3D line image 51b based on the data 12d is associated with a geographical physical distance as described above, but may not be accurate. Therefore, the line length association unit 13 associates the length with the 3D line image 51b.
That is, the line length association unit 13 obtains the distance by tracing the line from the starting position of the 3D line image 51b to an arbitrary position. As a result, as shown in FIG. 2A, it can be associated with a one-dimensional line length coordinate (1D) corresponding to the physical length in the field 55 (the length of the international unit system). By this association, a three-dimensional line length image in which the 3D line image 51b is associated with the physical length as shown by a one-dot chain line 51c in FIG. 2B is obtained. The 3D line length image data 13d shown in FIG. 1, which is the data of the 3D line length image 51c (also simply referred to as data 13d), is output to the position / measurement data composition processing unit 14.

位置・計測データ合成処理部14は、ライン状センサ計測器52で得られた放射線計測データ(背景技術で説明済み)52dを、3Dライン長画像データ13dに重ねて表すことにより、図2(c)に示すような、3Dライン長画像51cの上に、計測値である放射線量Lが対応付けられた3Dライン位置計測画像51Lを得る。即ち、合成処理部14は、3Dライン長画像データ13dの画素のうち、ライン状センサ51の検出ポイントを示す画素の情報に、計測した放射線量Lの情報を付加した3Dライン位置計測画像データ14d(単に、データ14dともいう)を生成し、座標変換処理部16へ出力する。   The position / measurement data synthesis processing unit 14 expresses radiation measurement data (explained in the background art) 52d obtained by the line sensor measurement device 52 by superimposing the 3D line length image data 13d on FIG. The 3D line position measurement image 51L in which the radiation amount L as the measurement value is associated is obtained on the 3D line length image 51c as shown in FIG. That is, the synthesis processing unit 14 adds 3D line position measurement image data 14d by adding information on the measured radiation dose L to information on pixels indicating the detection point of the line sensor 51 among the pixels of the 3D line length image data 13d. (Simply referred to as data 14d) is generated and output to the coordinate conversion processing unit 16.

そのデータ14dでは、上述した通り、放射線量Lが、3次元の物理的な長さに対応付けられた3Dライン長画像51cに対応付けられている。しかし、データ14dは、実際の緯度経度及び高度には対応付けられていないので、実際の地形上(地理上)のどの位置のどの方位にライン状センサ51が配置されているか不明の状態となっている。
そこで、GPSコンパス処理部15及び座標変換処理部16が、データ14dを、地球空間全体のワールド座標に対応付ける処理を次のように行う。
In the data 14d, as described above, the radiation dose L is associated with the 3D line length image 51c associated with the three-dimensional physical length. However, since the data 14d is not associated with the actual latitude / longitude and altitude, it is unknown whether the line-shaped sensor 51 is arranged in which direction on which position on the actual topography (geographically). ing.
Therefore, the GPS compass processing unit 15 and the coordinate conversion processing unit 16 perform processing for associating the data 14d with the world coordinates of the entire earth space as follows.

GPSコンパス処理部15は、GPSコンパス22で測定されたステレオカメラ21の位置の地理座標及び撮影方向の方位を取得し、これをワールド座標データ15dに変換して、座標変換処理部16へ出力する。但し、ワールド座標とは、ディスプレイ上において地理座標で画像を表示する際に用いられる座標であり、地理座標に関連付けられて対応している。ワールド座標データ15dは、そのワールド座標及び方位を含むデータである。
地図データDB部17は、地球や日本国等の地域における実際の地理上の緯度経度及び高度の情報を有する地図データを備えた検索機能を有している。地図データDB部17は、座標変換処理部16から後述のように要求される緯度経度の位置の高度を、地図データから検索し、これを高度情報17dとして座標変換処理部16へ出力する。
The GPS compass processing unit 15 acquires the geographic coordinates of the position of the stereo camera 21 measured by the GPS compass 22 and the direction of the shooting direction, converts them into world coordinate data 15 d, and outputs them to the coordinate conversion processing unit 16. . However, the world coordinates are coordinates used when displaying an image with geographical coordinates on the display, and correspond to the geographical coordinates. The world coordinate data 15d is data including the world coordinates and direction.
The map data DB unit 17 has a search function including map data having actual geographical latitude / longitude and altitude information in regions such as the earth and Japan. The map data DB unit 17 searches the map data for the altitude at the position of the latitude and longitude requested from the coordinate conversion processing unit 16 as will be described later, and outputs this to the coordinate conversion processing unit 16 as altitude information 17d.

座標変換処理部16は、後述の原理に従って、3Dライン位置計測画像データ14dで表されるカメラ座標の3Dライン位置計測画像51Lを、ワールド座標データ15dによるワールド座標に基き変換された、ライン状センサ51の配置位置のワールド座標で表す。
この原理を説明する。ワールド座標データ15dによるワールド座標はステレオカメラ21の位置のワールド座標であり、ステレオカメラ21で撮影されたライン状センサ51の配置位置の座標ではない。ライン状センサ51の配置位置の座標は現在カメラ座標であり、縦横高さの情報は持っているが、緯度経度及び高度の情報は持っていない。しかし、ステレオカメラ21のワールド座標は上述のようにGPSコンパス22で測定され、更にGPSコンパス22では撮影方向の方位も測定されている。また、ステレオカメラ21ではライン状センサ51までの距離が撮影によって得られ、ライン状センサ51の3次元画像の各画素に表わされている。
このことから、ステレオカメラ21の位置のワールド座標と、ステレオカメラ21からライン状センサ51までの方位及び距離が分かるので、ライン状センサ51の配置位置のワールド座標を求めることができる。これにより、カメラ座標で表されたライン状センサ51の3次元画像を、ライン状センサ51の配置位置のワールド座標で表すことが可能となる。
更に、座標変換処理部16は、ワールド座標で表された3Dライン位置計測画像51Lの部分の緯度経度の位置を地図データDB部17へ出力し、当該地図データDB部17から、その位置の高度情報17dを取得する。この取得した高度情報17dの高度に、ワールド座標で表された3Dライン位置計測画像51Lの部分を合わせる処理を行う。この処理により、図2(d)に示すように、ワールド座標(3D)で表された3Dライン計測座標画像51LWを得る。この3Dライン計測座標画像51LWのデータがマッピングデータ16dとして、マッピング処理部11で得られることになる。
The coordinate conversion processing unit 16 converts the 3D line position measurement image 51L of the camera coordinates represented by the 3D line position measurement image data 14d based on the world coordinates by the world coordinate data 15d according to the principle described later. This is expressed in world coordinates of 51 positions.
This principle will be described. The world coordinates by the world coordinate data 15d are the world coordinates of the position of the stereo camera 21, and are not the coordinates of the arrangement position of the line sensor 51 photographed by the stereo camera 21. The coordinates of the arrangement position of the line-shaped sensor 51 are currently camera coordinates, and have information on the height and width, but do not have information on latitude and longitude and altitude. However, the world coordinates of the stereo camera 21 are measured by the GPS compass 22 as described above, and the direction of the shooting direction is also measured by the GPS compass 22. In the stereo camera 21, the distance to the line sensor 51 is obtained by photographing, and is represented by each pixel of the three-dimensional image of the line sensor 51.
From this, since the world coordinates of the position of the stereo camera 21 and the azimuth and distance from the stereo camera 21 to the line sensor 51 can be known, the world coordinates of the arrangement position of the line sensor 51 can be obtained. As a result, the three-dimensional image of the line sensor 51 represented by the camera coordinates can be represented by the world coordinates of the arrangement position of the line sensor 51.
Further, the coordinate conversion processing unit 16 outputs the position of the latitude and longitude of the portion of the 3D line position measurement image 51L represented by the world coordinates to the map data DB unit 17, and the map data DB unit 17 outputs the altitude of the position. Information 17d is acquired. A process of aligning the portion of the 3D line position measurement image 51L represented by world coordinates with the height of the acquired height information 17d is performed. By this process, as shown in FIG. 2D, a 3D line measurement coordinate image 51LW expressed in world coordinates (3D) is obtained. The data of the 3D line measurement coordinate image 51LW is obtained by the mapping processing unit 11 as the mapping data 16d.

即ち、マッピングデータ16dをディスプレイに表示した3Dライン計測座標画像51LWは、放射線量Lが、地理上位置の物理的な長さに対応付けられた3Dライン長画像51cに対応付けられ、これが更に、地理上の緯度経度及び高度に対応付けられたものとなる。従って、3Dライン計測座標画像51LWからは、3D画像であるライン状センサ51の地理上の緯度経度及び高度の位置が分かり、この位置におけるライン状センサ51の検出ポイントの放射線量が分かることになる。   That is, the 3D line measurement coordinate image 51LW in which the mapping data 16d is displayed on the display is associated with the 3D line length image 51c in which the radiation dose L is associated with the physical length of the geographical position. It is associated with geographical latitude and longitude and altitude. Therefore, from the 3D line measurement coordinate image 51LW, the geographical latitude and longitude and the altitude position of the line sensor 51, which is a 3D image, are known, and the radiation dose at the detection point of the line sensor 51 at this position is known. .

但し、マッピング処理部11は、図3に示すように、CPU(Central Processing Unit)101a、ROM(Read Only Memory)101b、RAM(Random Access Memory)101c、記憶装置(HDD:Hard Disk Drive等)101dを備え、これら101a〜101dがバス102に接続された一般的な構成となっている。このような構成において、例えばCPU101aがROM101bに書き込まれたプログラム101fを実行して、上述したマッピング処理部11の処理を実現するようになっている。   However, as shown in FIG. 3, the mapping processing unit 11 includes a CPU (Central Processing Unit) 101a, a ROM (Read Only Memory) 101b, a RAM (Random Access Memory) 101c, and a storage device (HDD: Hard Disk Drive, etc.) 101d. And 101a to 101d are connected to the bus 102 in a general configuration. In such a configuration, for example, the CPU 101a executes the program 101f written in the ROM 101b to realize the processing of the mapping processing unit 11 described above.

<実施形態の動作>
次に、本実施形態のマッピング装置10によるマッピング処理の動作を、図4に示すフローチャートを参照して説明する。
ステップS1において、図1に示すステレオカメラ21で被計測地であるフィールド55に配置されたライン状センサ51が撮影されると、この撮影されたライン状センサ51のステレオ画像がライン3D化部12へ入力される。
また、ステップS2において、GPSコンパス22で、ステレオカメラ21の方位を含む地理上位置が測定される。
<Operation of Embodiment>
Next, the operation of the mapping process by the mapping apparatus 10 of this embodiment will be described with reference to the flowchart shown in FIG.
In step S1, when the line-shaped sensor 51 arranged in the field 55 that is the measurement target is photographed by the stereo camera 21 shown in FIG. 1, the stereo image of the photographed line-shaped sensor 51 is converted into the line 3D conversion unit 12. Is input.
In step S <b> 2, the geographical position including the orientation of the stereo camera 21 is measured by the GPS compass 22.

次に、ステップS3において、ライン3D化部12で、そのステレオ画像が3次元画像化された後、この3次元画像中のライン状センサ51であるライン画像が認識可能か否かが判断される。
認識不可能(No)な場合、ステップS4において、撮影画像である撮影ライン状センサ51がディスプレイに表示され、人が入力操作部20から、図2(a)に示すように、撮影ライン状センサ51上の起点51aを指定(マーキング)し、更に、指定された起点51aからライン終点間の任意位置に複数のマーク51mをマーキングする。
Next, in step S3, after the stereo image is converted into a three-dimensional image by the line 3D conversion unit 12, it is determined whether or not the line image as the line sensor 51 in the three-dimensional image can be recognized. .
If it is not recognizable (No), in step S4, the photographic line-shaped sensor 51, which is a photographic image, is displayed on the display, and a person takes the photographic line-shaped sensor from the input operation unit 20 as shown in FIG. A starting point 51a on 51 is designated (marked), and a plurality of marks 51m are marked at arbitrary positions between the designated starting point 51a and the line end point.

このマーキング完了後、ステップS5において、ライン3D化部12では、図2(a)に示すように、起点51a及び終点、複数のマーク51mを認識し、起点51a及び終点間における各マーク51m間等を、破線51bで示すように接続して補間する。この補間処理により、起点51aから終点まで連続的に繋がった認識可能な3Dライン画像51bが得られる。
なお、上記ステップS3において、認識不可能な場合、ステップS1におけるステレオカメラ21での撮影を再度行っても良い。
After completion of the marking, in step S5, the line 3D conversion unit 12 recognizes the starting point 51a and the end point, a plurality of marks 51m, as shown in FIG. 2A, and between the marks 51m between the starting point 51a and the end point. Are interpolated as shown by the broken line 51b. By this interpolation processing, a recognizable 3D line image 51b continuously obtained from the start point 51a to the end point is obtained.
If it is not possible to recognize in step S3, photographing with the stereo camera 21 in step S1 may be performed again.

一方、上記ステップS3の判断で入力撮影画像が認識可能(Yes)と判断された場合は、ライン3D化部12では入力撮影画像が3Dライン画像51bとなる。
上記ステップS3又はS5で得られた3Dライン画像51bのデータ12dは、ライン長対応付部13へ出力される。
On the other hand, if it is determined in step S3 that the input captured image is recognizable (Yes), the line 3D conversion unit 12 changes the input captured image to the 3D line image 51b.
The data 12d of the 3D line image 51b obtained in step S3 or S5 is output to the line length correspondence unit 13.

次に、ステップS6において、ライン長対応付部13では、3Dライン画像51bが、図2(a)に示すように、ライン長座標(1D)に対応付けられる。この対応付けにより、図2(b)に一点鎖線51bで示すような、3Dライン画像51bが規定の物理的な長さに対応付けられた3Dライン長画像51cが得られる。この3Dライン長画像51cのデータ13dは図1に示す合成処理部14へ出力される。   Next, in step S6, the line length association unit 13 associates the 3D line image 51b with the line length coordinates (1D) as shown in FIG. By this association, a 3D line length image 51c in which the 3D line image 51b is associated with a specified physical length, as indicated by a one-dot chain line 51b in FIG. 2B, is obtained. The data 13d of the 3D line length image 51c is output to the synthesis processing unit 14 shown in FIG.

次に、ステップS7において、合成処理部14では、ライン状センサ計測器52で得られた放射線計測データ52dによる放射線量Lのレベルが、3Dライン長画像データ13dによる3Dライン長画像51cの上に重ねて表わされる。これにより、図2(c)に示すような、3Dライン長画像51cの上に、計測値である放射線量Lが対応付けられた3Dライン位置計測画像51Lが得られる。この3Dライン位置計測画像51Lのデータ14dが、図1に示す座標変換処理部16へ出力される。
このデータ14dの3Dライン位置計測画像51Lは、実際の緯度経度及び高度には対応付けられていないので、次のように地球空間全体のワールド座標に対応付けられる、
即ち、ステップS8において、GPSコンパス処理部15では、GPSコンパス22で測定されたステレオカメラ21の地理上位置から、この位置のワールド座標が取得される。このワールド座標のデータ15dが座標変換処理部16へ出力される。但し、そのワールド座標のデータ15dには、GPSコンパス22で測定されたステレオカメラ21の撮影方向、即ち、ライン状センサ51へ向かう方位の情報も含まれる。
Next, in step S7, in the synthesis processing unit 14, the level of the radiation dose L based on the radiation measurement data 52d obtained by the line sensor measuring instrument 52 is placed on the 3D line length image 51c based on the 3D line length image data 13d. Overlaid. As a result, a 3D line position measurement image 51L in which a radiation dose L as a measurement value is associated with the 3D line length image 51c as shown in FIG. 2C is obtained. The data 14d of the 3D line position measurement image 51L is output to the coordinate conversion processing unit 16 shown in FIG.
Since the 3D line position measurement image 51L of the data 14d is not associated with actual latitude and longitude and altitude, it is associated with the world coordinates of the entire earth space as follows.
That is, in step S8, the GPS compass processing unit 15 acquires the world coordinates of this position from the geographical position of the stereo camera 21 measured by the GPS compass 22. The world coordinate data 15 d is output to the coordinate conversion processing unit 16. However, the world coordinate data 15 d also includes information on the shooting direction of the stereo camera 21 measured by the GPS compass 22, that is, the direction toward the line sensor 51.

次に、ステップS9において、座標変換処理部16で、ワールド座標データ15dによるステレオカメラ21の位置に対応したワールド座標からライン状センサ51の配置位置のワールド座標が求められ、このワールド座標に、3Dライン位置計測画像データ14dに基くカメラ座標の3Dライン位置計測画像51Lが対応付けられて表わされる。この際のワールド座標の緯度経度の位置に応じて、地図データDB部17から取得された高度情報17dの高度に、3Dライン位置計測画像51Lが合わせられてライン状センサ51の配置位置のワールド座標で表される。
この処理により、座標変換処理部16で、図2(d)に示すように、ライン状センサ51の配置位置の正確な緯度経度及び高度が3Dライン位置計測画像51Lに対応付けられた、3Dライン計測座標画像51LWが得られる。
Next, in step S9, the coordinate transformation processing unit 16 obtains the world coordinates of the arrangement position of the line sensor 51 from the world coordinates corresponding to the position of the stereo camera 21 based on the world coordinate data 15d. A 3D line position measurement image 51L of camera coordinates based on the line position measurement image data 14d is represented in association with each other. The 3D line position measurement image 51L is combined with the altitude of the altitude information 17d acquired from the map data DB unit 17 according to the position of the latitude and longitude of the world coordinates at this time, and the world coordinates of the arrangement position of the line sensor 51 It is represented by
As a result of this processing, the coordinate conversion processing unit 16 associates the accurate latitude / longitude and altitude of the arrangement position of the line sensor 51 with the 3D line position measurement image 51L as shown in FIG. 2D. A measurement coordinate image 51LW is obtained.

そして、ステップS10において、その3Dライン計測座標画像51LWのデータがマッピングデータ16dとして、マッピング処理部11で得られることになる。
但し、上述したマッピング処理部11において、地図データDB部17が無い構成であっても良い。この場合、ワールド座標データ15dでは高度も含むので、高度情報17dを用いる場合に比べて、ワールド座標のみでは高度位置の精度が低下するが、ライン状センサ51の高度も画像として表すことができる。
In step S10, the data of the 3D line measurement coordinate image 51LW is obtained by the mapping processing unit 11 as the mapping data 16d.
However, the above-described mapping processing unit 11 may be configured without the map data DB unit 17. In this case, since the world coordinate data 15d includes the altitude, the accuracy of the altitude position is lowered only with the world coordinates compared to the case where the altitude information 17d is used, but the altitude of the line sensor 51 can also be expressed as an image.

<実施形態の効果>
以上説明したように、本実施形態のマッピング装置10を、任意の場所であるフィールド55に配置されたライン状センサ51に代表されるライン状物体を配置場所と共に、ステレオ画像として撮影するステレオカメラ21と、ステレオカメラ21と対に配置され、当該ステレオカメラ21の位置の緯度経度及び高度の地理座標及び当該ステレオカメラ21の撮影方向の方位を測定するGPSコンパス22と、撮影されたステレオ画像を3次元画像に変換してライン状物体の3次元画像を抽出し、GPSコンパス22で測定された地理座標及び方位を基に、ステレオカメラ21で撮影されたライン状物体の配置位置の地理座標に対応するワールド座標を求め、この求めたワールド座標中に、当該抽出されたライン状物体の3次元画像を緯度経度及び高度を認識可能に表示する処理を行うマッピング処理部11とを備えて構成した。
<Effect of embodiment>
As described above, the mapping apparatus 10 according to the present embodiment uses the stereo camera 21 to capture a line object represented by the line sensor 51 arranged in the field 55 that is an arbitrary place as a stereo image together with the arrangement place. A GPS compass 22 that is arranged in a pair with the stereo camera 21 and measures the latitude / longitude and altitude geographical coordinates of the position of the stereo camera 21 and the direction of the shooting direction of the stereo camera 21, and 3 Converts to a three-dimensional image to extract a three-dimensional image of the line-shaped object, and corresponds to the geographical coordinates of the arrangement position of the line-shaped object photographed by the stereo camera 21 based on the geographical coordinates and orientation measured by the GPS compass 22 The obtained world coordinates are obtained, and in the obtained world coordinates, the extracted three-dimensional image of the line-shaped object is converted into latitude and longitude. And constructed by a mapping processing unit 11 that performs processing for recognizably displaying altitude.

この構成によれば次のような効果が得られる。ライン状センサ51の他に、ロープやケーブル等のライン状の物体であるライン状物体を、平地や山間部等の地面であるフィールド55に、引き伸ばしたり、所定の形状にしたりして配置したとする。この場合、そのライン状物体をステレオカメラ21で撮影することにより、ライン状物体が地理上の3次元の物理的な距離で把握可能に表わされる。更に、GPSコンパス22で測定された地理座標及び方位を基に、そのライン状物体の配置位置の地理座標に対応するワールド座標中に、ライン状物体の3次元画像が緯度経度及び高度を認識可能に表示される。従って、ライン状物体の実際の地理上の緯度経度及び高さを把握することができる。   According to this configuration, the following effects can be obtained. In addition to the line-shaped sensor 51, a line-shaped object, which is a line-shaped object such as a rope or a cable, is stretched or arranged in a predetermined shape on a field 55 that is the ground such as a flat ground or a mountainous area. To do. In this case, the line-shaped object is represented by a geographical three-dimensional physical distance by capturing the line-shaped object with the stereo camera 21. Furthermore, based on the geographic coordinates and orientation measured by the GPS compass 22, the 3D image of the line object can recognize the latitude and longitude and the altitude in the world coordinates corresponding to the geographical coordinates of the position of the line object. Is displayed. Accordingly, it is possible to grasp the actual geographical latitude and longitude and height of the line-shaped object.

つまり、ライン状物体の配置位置の縦横高さを人が実際に測定しなくても良く、容易に迅速に測定することができる。更に言えば、ライン状物体の配置位置であるフィールド55の縦横高さの長さを低コストで高精度に測定することができる。
但し、ライン状センサ51は、少なくとも温度、放射線、電気抵抗の何れかを含む物理量を検出するセンサであってもよい。
That is, it is not necessary for a person to actually measure the height and width of the arrangement position of the line-shaped object, and it can be easily and quickly measured. Furthermore, the length of the field 55 that is the arrangement position of the line-shaped object can be measured with high accuracy at low cost.
However, the line sensor 51 may be a sensor that detects a physical quantity including at least one of temperature, radiation, and electrical resistance.

また、抽出されたライン状物体の3次元画像に、マーク51mを付ける入力操作部20を更に備え、マッピング処理部11は、ライン状物体の3次元画像が認識不可能な場合、入力操作部20によりライン状物体の3次元画像に複数のマーク51mが付けられた際に、認識不可能なライン状物体の3次元画像を、当該マークと当該ライン状物体の3次元画像の認識可能部分とを基に、認識可能に連続したライン状物体画像に補間する処理を行う構成とした。   Further, the input operation unit 20 for attaching the mark 51m to the extracted three-dimensional image of the line-shaped object is further provided. When the three-dimensional image of the line-shaped object cannot be recognized, the mapping processing unit 11 When a plurality of marks 51m are attached to the three-dimensional image of the line-shaped object, the three-dimensional image of the line-shaped object that cannot be recognized is represented by the mark and the recognizable portion of the three-dimensional image of the line-shaped object. On the basis of this, a process of performing interpolation on a continuous line-shaped object image so as to be recognized is performed.

この構成によれば、認識不可能な3次元画像であるライン状物体が連続的に繋がるので、認識可能な3次元画像とすることができる。従って、3次元画像としてのライン状物体の縦横高さの長さを、認識可能な状態で把握することができる。   According to this configuration, since the line-like objects that are unrecognizable three-dimensional images are continuously connected, a recognizable three-dimensional image can be obtained. Accordingly, it is possible to grasp the length of the line-shaped object as a three-dimensional image in a recognizable state.

また、ライン状物体が物理量を検出するライン状センサ51である場合に、マッピング処理部11は、前記ワールド座標中のライン状センサ51の3次元画像の上に、当該ライン状センサ51で検出される値のレベルを重ねて表す処理を行う構成とした。
この構成によれば、実際の地理上の3次元の物理的な距離で把握可能に表わされたライン状センサ51に、当該ライン状センサ51での検出による例えば放射線量等のレベルを重ねて表わすことができる。従って、図2(d)に示すような、放射線量のピークLpがライン状センサ51のどの位置で発生しているかを容易に特定することができる。これはピークLpが多数あっても容易に特定することができる。
Further, when the line-shaped object is a line-shaped sensor 51 that detects a physical quantity, the mapping processing unit 11 is detected by the line-shaped sensor 51 on the three-dimensional image of the line-shaped sensor 51 in the world coordinates. In this configuration, the level of a certain value is represented in an overlapping manner.
According to this configuration, the level of radiation dose or the like by the detection by the line sensor 51 is superimposed on the line sensor 51 that can be grasped by an actual geographical three-dimensional physical distance. Can be represented. Therefore, it is possible to easily identify at which position of the line sensor 51 the peak Lp of the radiation dose as shown in FIG. This can be easily identified even if there are many peaks Lp.

更に言えば、ライン状センサ51を配置したフィールド55の位置を低コストで高精度に特定することができる。更には、放射線の測定場所が放射線量が多く、人が立ち入れない場合等に、その放射線の影響が無い離れた位置においてステレオカメラ21でライン状センサ51を撮影すると共にGPSコンパス22で地理上位置を計測すれば、人が安全に放射線量及びこの計測位置を特定することができる。   Furthermore, the position of the field 55 where the line sensor 51 is arranged can be specified with high accuracy at low cost. Furthermore, when the radiation measurement place has a large amount of radiation and a person cannot enter, the line sensor 51 is photographed by the stereo camera 21 at a remote position where there is no influence of the radiation, and the GPS compass 22 If the position is measured, a person can safely specify the radiation dose and the measurement position.

更に、マッピング処理部11は、実際の地理上の緯度経度及び高度の情報を有する地図データのデータベース部としての地図データDB部17を備え、ワールド座標中のライン状センサの3次元画像の緯度経度位置の高度を、データベース部17から検索し、この検索した高度に、当該ワールド座標中のライン状センサの3次元画像の緯度経度位置の高度を合わせて表示する処理を行う構成とした。   Further, the mapping processing unit 11 includes a map data DB unit 17 as a database unit of map data having actual latitude / longitude and altitude information, and the latitude / longitude of the three-dimensional image of the line sensor in the world coordinates. The altitude of the position is retrieved from the database unit 17, and the retrieved altitude is combined with the altitude of the latitude / longitude position of the three-dimensional image of the line sensor in the world coordinates to display.

この構成によれば、ライン状物体の実際の地理上の位置の高度を、高精度に表すことができる。また、ライン状物体がライン状センサ51である場合、ライン状センサ51における実際のピークLpの検出位置を、実際の被計測地の緯度経度及び高度に対応付けて容易に特定することができる。   According to this configuration, the altitude of the actual geographical position of the line-shaped object can be expressed with high accuracy. When the line-shaped object is the line-shaped sensor 51, the actual peak Lp detection position in the line-shaped sensor 51 can be easily identified in association with the actual latitude / longitude and altitude of the measured area.

<実施形態の付加例>
図5(a)は本実施形態のマッピング装置10の付属品として備えられるセンサ移動装置31の構成を示す斜視図、(b)はセンサ移動装置31のセンサ設置台32の構成を示す平面図である。
図5(a)に示すように、センサ移動装置(移動手段)31は、センサ設置台(設置台)32と、複数の取付部33と、複数の車輪34とを備えて構成されている。
<Additional example of embodiment>
FIG. 5A is a perspective view showing the configuration of the sensor moving device 31 provided as an accessory of the mapping device 10 of the present embodiment, and FIG. 5B is a plan view showing the configuration of the sensor installation base 32 of the sensor moving device 31. is there.
As shown in FIG. 5A, the sensor moving device (moving means) 31 includes a sensor installation base (installation base) 32, a plurality of attachment portions 33, and a plurality of wheels 34.

センサ設置台32は、細長い板状を成し、この長手方向に柔軟性を有しており、ライン状センサ51が上面に載置される。
取付部33は、センサ設置台32の下面に、当該下面と垂直方向で且つセンサ設置台32の長手方向に沿って所定間隔で複数取り付けられており、複数の取付部33が全て同じ長さとなっている。
The sensor mounting base 32 has an elongated plate shape and is flexible in the longitudinal direction, and the line sensor 51 is placed on the upper surface.
A plurality of attachment portions 33 are attached to the lower surface of the sensor installation table 32 at a predetermined interval in a direction perpendicular to the lower surface and along the longitudinal direction of the sensor installation table 32. The plurality of attachment portions 33 all have the same length. ing.

車輪34は、取付部33の先端部に回転自在に取り付けられている。各車輪34は、センサ設置台32が、矢印Y1又はY2で示すように、走行面(フィールド)55cを、センサ設置台32の長手方向と直交な方向を含む交差方向に移動するように取り付けられている。
但し、センサ設置台32は、その移動方向に剛性を有する構成とするのが好ましい。この構成例は、図5(b)に示すように、長方形状で剛性のある硬質樹脂板や金属板等の剛性板32aを、軟質ゴムや軟質樹脂等の柔軟性部材32bを介して多数接続した構成とする。この全長は例えば、ライン状センサ51の長さ(例えば10m)と同じか、やや長い長さとする。
The wheel 34 is rotatably attached to the distal end portion of the attachment portion 33. Each wheel 34 is attached so that the sensor installation base 32 moves the traveling surface (field) 55c in a crossing direction including a direction orthogonal to the longitudinal direction of the sensor installation base 32 as indicated by an arrow Y1 or Y2. ing.
However, the sensor installation base 32 is preferably configured to have rigidity in the moving direction. In this configuration example, as shown in FIG. 5B, a large number of rigid plates 32a such as rectangular and rigid hard resin plates and metal plates are connected via flexible members 32b such as soft rubber and soft resin. The configuration is as follows. For example, the total length is the same as or slightly longer than the length of the line sensor 51 (for example, 10 m).

また、取付部33は、センサ設置台32の下面に対して垂直方向に矢印Y3,Y4で示すように伸縮自在に調整可能となっている。この調整は、図示せぬモータ等のアクチュエータを備え、マッピング装置10の図示せぬ制御手段の制御により自動で行うようにしてもよい。このような調整動作により、各取付部33の全ては、センサ設置台32の下面と車輪34の走行面間の距離が同一の所定長さとされる。
更に、各車輪34にも、当該車輪34を回転駆動する図示せぬモータ等のアクチュエータを備え、マッピング装置10の制御手段を人が操作することにより回転駆動できるようにしてもよい。
Further, the mounting portion 33 can be adjusted so as to be extendable as indicated by arrows Y3 and Y4 in a direction perpendicular to the lower surface of the sensor installation base 32. This adjustment may include an actuator such as a motor (not shown) and may be automatically performed under the control of a control means (not shown) of the mapping apparatus 10. With such an adjustment operation, all of the attachment portions 33 are set to have a predetermined length with the same distance between the lower surface of the sensor mounting base 32 and the traveling surface of the wheel 34.
Further, each wheel 34 may be provided with an actuator such as a motor (not shown) that rotates the wheel 34 so that the wheel 34 can be driven to rotate by a person operating the control means of the mapping device 10.

更に、各車輪34は、複数枚の剛性板32a毎に取り付けられている。これは、図5(a)に示すように、フィールド55cが湾曲している場合に、その上に各車輪34が乗った場合でも、センサ設置台32とフィールド55cとの距離を一定に保持するためである。つまり、センサ設置台32は、多数の剛性板32aが各々の間に柔軟性部材32bを介して長手状に接続されているので、湾曲したフィールド55cの上に各車輪34が乗った場合でも、センサ設置台32が湾曲面と同じ形で曲がるようになっている。   Further, each wheel 34 is attached to each of the plurality of rigid plates 32a. This is because, as shown in FIG. 5A, when the field 55c is curved, even when each wheel 34 rides on the field 55c, the distance between the sensor installation base 32 and the field 55c is kept constant. Because. That is, in the sensor installation base 32, a large number of rigid plates 32a are connected to each other in a longitudinal shape via the flexible member 32b, so that even when each wheel 34 rides on the curved field 55c, The sensor installation base 32 bends in the same shape as the curved surface.

このような構成のセンサ移動装置31を用いる場合、まず、放射線の測定を行うフィールド55cにセンサ移動装置31を設置した後、放射線を検出するライン状センサ51を10mに引き伸ばしてセンサ設置台32に載置する。次に、予め定められたフィールド55からの放射線測定の高さにセンサ設置台32を合わせる。これは、各取付部33を同一長さに伸ばして実行される。   In the case of using the sensor moving device 31 having such a configuration, first, the sensor moving device 31 is installed in the field 55c for measuring radiation, and then the line sensor 51 for detecting radiation is extended to 10 m to be placed on the sensor installation table 32. Place. Next, the sensor mounting base 32 is adjusted to the height of radiation measurement from the predetermined field 55. This is carried out by extending the mounting portions 33 to the same length.

このような準備後、ライン状センサ51で放射線を計測しながら、センサ設置台32を移動させる。このようにライン状センサ51を10mに引き伸ばした状態で移動させることができるので、被計測地が広い場合でも効率良く計測することができる。
また、図5(a)に示すように、フィールド55cが湾曲する場所に各車輪34が移動してきたとしても、センサ設置台32は長手方向に柔軟性を有するので、その湾曲面と同じ形に曲がり、センサ設置台32に載置されたライン状センサ51とフィールド55cとの距離を、どの位置でも一定に保持することができる。
After such preparation, the sensor mounting base 32 is moved while measuring radiation with the line-shaped sensor 51. Thus, since the line-shaped sensor 51 can be moved in the state extended to 10 m, even when a to-be-measured place is wide, it can measure efficiently.
Further, as shown in FIG. 5 (a), even if each wheel 34 has moved to a place where the field 55c is curved, the sensor mounting base 32 has flexibility in the longitudinal direction, so that it has the same shape as its curved surface. The distance between the line sensor 51 placed on the sensor installation base 32 and the field 55c can be kept constant at any position.

更に、センサ設置台32は、矢印Y1,Y2の移動方向に剛性を有するので、移動の力が効率良く伝達され、センサ設置台32をスムーズに移動させることができる。センサ設置台32を人がロープ等で引っ張った場合、その走行時の操作性が向上する。これは、各車輪34をモータ駆動した場合も同様に操作性を向上させることができる。   Furthermore, since the sensor installation base 32 has rigidity in the movement direction of the arrows Y1, Y2, the movement force can be transmitted efficiently, and the sensor installation base 32 can be moved smoothly. When a person pulls the sensor installation base 32 with a rope or the like, the operability during traveling is improved. This can similarly improve the operability even when each wheel 34 is driven by a motor.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることも可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to above-described embodiment, Various modifications are included. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部(制御部)、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カード、SD(Secure Digital memory)カード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units (control units), processing means, and the like may be realized in hardware by designing a part or all of them, for example, with an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function is stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, an SD (Secure Digital memory) card, a DVD ( Digital Versatile Disc) can be placed on a recording medium.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

10 マッピング装置
11 マッピング処理部
12 ライン3D化部
13 ライン長対応付部
14 位置・計測データ合成処理部
15 GPSコンパス処理部
16 座標変換処理部
17 地図データDB部
20 入力操作部
21 ステレオカメラ
22 GPSコンパス
50 計測装置
51 ライン状センサ(ライン状物体)
51a 起点
51m マーク
52 ライン状センサ計測装置
51b 3Dライン画像
51c 3Dライン長画像
51L 3Dライン位置計測画像
51LW 3Dライン計測座標画像
55,55c フィールド(地面)
31 センサ移動装置
32 センサ設置台(設置台)
32a 剛性板
32b 柔軟性部材
33 取付部
34 車輪
L 放射線量
Lp 放射線量のピーク
DESCRIPTION OF SYMBOLS 10 Mapping apparatus 11 Mapping processing part 12 Line 3D conversion part 13 Line length correspondence part 14 Position / measurement data composition processing part 15 GPS compass processing part 16 Coordinate conversion processing part 17 Map data DB part 20 Input operation part 21 Stereo camera 22 GPS Compass 50 Measuring device 51 Line sensor (line object)
51a Starting point 51m Mark 52 Line-shaped sensor measuring device 51b 3D line image 51c 3D line length image 51L 3D line position measurement image 51LW 3D line measurement coordinate image 55, 55c Field (ground)
31 Sensor moving device 32 Sensor installation stand (installation stand)
32a Rigid plate 32b Flexible member 33 Mounting portion 34 Wheel L Radiation dose Lp Peak of radiation dose

Claims (8)

任意の場所に配置されたライン状物体を配置場所と共に、ステレオ画像として撮影するステレオカメラと、
前記ステレオカメラと対に配置され、当該ステレオカメラの位置の緯度経度及び高度の地理座標及び当該ステレオカメラの撮影方向の方位を測定するGPSコンパスと、
前記撮影されたステレオ画像を3次元画像に変換してライン状物体の3次元画像を抽出し、前記GPSコンパスで測定された地理座標及び方位を基に、前記ステレオカメラで撮影されたライン状物体の配置位置の地理座標に対応するワールド座標を求め、この求めたワールド座標中に、前記抽出されたライン状物体の3次元画像を緯度経度及び高度を認識可能に表示する処理を行うマッピング処理部と
を備える
ことを特徴とするマッピング装置。
A stereo camera that captures a line-shaped object placed at an arbitrary location as a stereo image together with the placement location;
A GPS compass that is arranged in a pair with the stereo camera and measures the latitude and longitude of the position of the stereo camera and the geographical coordinates of the altitude and the orientation of the shooting direction of the stereo camera;
The photographed stereo image is converted into a three-dimensional image to extract a three-dimensional image of the line-shaped object, and the line-shaped object photographed by the stereo camera based on the geographical coordinates and direction measured by the GPS compass A mapping processing unit that obtains world coordinates corresponding to the geographical coordinates of the arrangement position of and displays the extracted three-dimensional image of the line-shaped object in the obtained world coordinates so that latitude and longitude and altitude can be recognized. A mapping apparatus comprising: and.
請求項1に記載のマッピング装置であって、
前記ライン状物体は、少なくとも温度、放射線、電気抵抗の何れかを含む物理量を検出するライン状センサである
ことを特徴とするマッピング装置。
The mapping device according to claim 1,
The mapping apparatus, wherein the line-shaped object is a line-shaped sensor that detects a physical quantity including at least one of temperature, radiation, and electrical resistance.
請求項1に記載のマッピング装置であって、
前記抽出されたライン状物体の3次元画像に、マークを付ける入力操作部を更に備え、
前記マッピング処理部は、前記ライン状物体の3次元画像が認識不可能な場合、前記入力操作部により当該ライン状物体の3次元画像に複数のマークが付けられた際に、前記認識不可能なライン状物体の3次元画像を、当該マークと当該ライン状物体の3次元画像の認識可能部分とを基に、認識可能に連続したライン状物体画像に補間する処理を行う
ことを特徴とするマッピング装置。
The mapping device according to claim 1,
An input operation unit for adding a mark to the extracted three-dimensional image of the line-shaped object;
In the case where the three-dimensional image of the line-shaped object cannot be recognized, the mapping processing unit cannot recognize the three-dimensional image of the line-shaped object when a plurality of marks are added to the three-dimensional image of the line-shaped object. A mapping characterized by interpolating a three-dimensional image of a line-shaped object into a recognizable continuous line-shaped object image based on the mark and a recognizable portion of the three-dimensional image of the line-shaped object. apparatus.
請求項2に記載のマッピング装置であって、
前記ライン状物体が物理量を検出するライン状センサである場合に、
前記マッピング処理部は、前記ワールド座標中のライン状センサの3次元画像の上に、前記ライン状センサで検出される物理量のレベルを重ねて表す処理を行う
ことを特徴とするマッピング装置。
The mapping device according to claim 2,
When the line object is a line sensor that detects a physical quantity,
The mapping apparatus, wherein the mapping processing unit performs a process of superimposing a level of a physical quantity detected by the line sensor on a three-dimensional image of the line sensor in the world coordinates.
請求項1〜4のいずれか1項に記載のマッピング装置であって、
前記マッピング処理部は、地理上の緯度経度及び高度の情報を有する地図データのデータベース部を備え、前記ワールド座標中のライン状センサの3次元画像の緯度経度位置の高度を、前記データベース部から検索し、この検索した高度に、当該ワールド座標中のライン状センサの3次元画像の緯度経度位置の高度を合わせて表示する処理を行う
ことを特徴とするマッピング装置。
The mapping device according to any one of claims 1 to 4,
The mapping processing unit includes a map data database unit having geographical latitude / longitude and altitude information, and retrieves the altitude of the latitude / longitude position of the three-dimensional image of the line sensor in the world coordinates from the database unit. Then, a process of displaying the altitude of the latitude and longitude positions of the three-dimensional image of the line sensor in the world coordinates together with the retrieved altitude is displayed.
請求項5に記載のマッピング装置であって、
前記ライン状物体が載置される長手形状を成し、当該長手形状の長手方向に柔軟性を有する設置台と、前記設置台の下面に当該下面と垂直方向に取り付けられ、この取り付け端部と逆の端部に車輪が取り付けられた取付部を、前記設置台の下面に長手方向に沿って所定間隔で複数有して成る移動手段を更に備える
ことを特徴とするマッピング装置。
The mapping device according to claim 5,
An installation base having a longitudinal shape on which the line-shaped object is placed and having flexibility in the longitudinal direction of the longitudinal shape, and attached to a lower surface of the installation base in a direction perpendicular to the lower surface, A mapping apparatus, further comprising: a moving means having a plurality of attachment portions with wheels attached to opposite ends at a predetermined interval along the longitudinal direction on the lower surface of the installation table.
請求項6に記載のマッピング装置であって、
前記複数の取付部は、前記設置台の下面に対して垂直方向に伸縮自在に調整可能である
ことを特徴とするマッピング装置。
The mapping device according to claim 6,
The mapping device, wherein the plurality of attachment portions can be adjusted so as to extend and contract in a direction perpendicular to a lower surface of the installation base.
請求項6又は請求項7に記載のマッピング装置であって、
前記設置台は、前記車輪の走行面を当該設置台の長手方向と交差方向に移動し、この移動方向に剛性を有する
ことを特徴とするマッピング装置。
The mapping device according to claim 6 or claim 7,
The mapping device is characterized in that the installation table moves a traveling surface of the wheel in a direction crossing the longitudinal direction of the installation table, and has rigidity in the movement direction.
JP2012225379A 2012-10-10 2012-10-10 Mapping device Pending JP2014077698A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012225379A JP2014077698A (en) 2012-10-10 2012-10-10 Mapping device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012225379A JP2014077698A (en) 2012-10-10 2012-10-10 Mapping device

Publications (1)

Publication Number Publication Date
JP2014077698A true JP2014077698A (en) 2014-05-01

Family

ID=50783101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012225379A Pending JP2014077698A (en) 2012-10-10 2012-10-10 Mapping device

Country Status (1)

Country Link
JP (1) JP2014077698A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
CN109830169A (en) * 2019-01-08 2019-05-31 北京航天飞行控制中心 Longitude and latitude view, spacecraft are just sweeping the drafting method and device of figure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113696A (en) * 1993-10-15 1995-05-02 Toshiba Corp measuring device
JP2004037220A (en) * 2002-07-03 2004-02-05 Mazda Motor Corp Handling stability evaluation device of vehicle, handling stability evaluation method of vehicle, and program for handling stability evaluation of vehicle
JP2007107962A (en) * 2005-10-12 2007-04-26 Yamamoto Denko Kk Measuring system of measuring object and separated measuring system under transmission line
JP2013253928A (en) * 2012-06-08 2013-12-19 Furuno Electric Co Ltd Attitude information calculation device, and attitude information calculation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113696A (en) * 1993-10-15 1995-05-02 Toshiba Corp measuring device
JP2004037220A (en) * 2002-07-03 2004-02-05 Mazda Motor Corp Handling stability evaluation device of vehicle, handling stability evaluation method of vehicle, and program for handling stability evaluation of vehicle
JP2007107962A (en) * 2005-10-12 2007-04-26 Yamamoto Denko Kk Measuring system of measuring object and separated measuring system under transmission line
JP2013253928A (en) * 2012-06-08 2013-12-19 Furuno Electric Co Ltd Attitude information calculation device, and attitude information calculation method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
US11103664B2 (en) 2015-11-25 2021-08-31 ResMed Pty Ltd Methods and systems for providing interface components for respiratory therapy
US11791042B2 (en) 2015-11-25 2023-10-17 ResMed Pty Ltd Methods and systems for providing interface components for respiratory therapy
CN109830169A (en) * 2019-01-08 2019-05-31 北京航天飞行控制中心 Longitude and latitude view, spacecraft are just sweeping the drafting method and device of figure
CN109830169B (en) * 2019-01-08 2021-09-24 北京航天飞行控制中心 Drawing method and device for longitude and latitude view and front view of spacecraft

Similar Documents

Publication Publication Date Title
CN1701214B (en) 3-dimensional measurement device and electronic storage medium
CN102575933B (en) System that generates map image integration database and program that generates map image integration database
US10147198B2 (en) Measurement device
JP6296477B2 (en) Method and apparatus for determining the three-dimensional coordinates of an object
US20150369593A1 (en) Orthographic image capture system
WO2021185217A1 (en) Calibration method based on multi-laser distance measurement and angle measurement
JP2004163292A (en) Surveying equipment and electronic storage media
JP5688300B2 (en) Electronic level device and scale used for the electronic level device
JP2012181202A (en) Method for supplying survey data using surveying device
JP2006003132A (en) 3D surveying device and electronic storage medium
KR101223741B1 (en) Measururement system for correction of image expression error
US10943360B1 (en) Photogrammetric machine measure up
CN112254670A (en) 3D information acquisition equipment based on optical scanning and intelligent vision integration
CN109341537A (en) Dimension measurement method and device based on binocular vision
CN105791663B (en) Distance estimation system and distance estimation method
CN102243075A (en) Car-mounted non-scale traffic accident spot rapid reconnaissance system based on binocular visual sense
JP7282578B2 (en) Angle measuring device, distance measuring device, speed measuring device, altitude measuring device, coordinate measuring device, angle measuring method, and program
KR100878781B1 (en) Surveying method for measuring the size and coordinate of a structure using a mobile terminal
RU2571300C2 (en) Method for remote determination of absolute azimuth of target point
JPWO2016157802A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP2008076405A (en) 3D surveying device and electronic storage medium
JP2014077698A (en) Mapping device
KR101231007B1 (en) Apparatus for mosaicking sea floor image using sea floor topography information and method thereof
CN203443582U (en) Lift-off firework comprehensive parameter detecting system
CN112082486A (en) Handheld intelligent 3D information acquisition equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161018