[go: up one dir, main page]

JP2022129040A - Appropriate image selection system - Google Patents

Appropriate image selection system Download PDF

Info

Publication number
JP2022129040A
JP2022129040A JP2021027576A JP2021027576A JP2022129040A JP 2022129040 A JP2022129040 A JP 2022129040A JP 2021027576 A JP2021027576 A JP 2021027576A JP 2021027576 A JP2021027576 A JP 2021027576A JP 2022129040 A JP2022129040 A JP 2022129040A
Authority
JP
Japan
Prior art keywords
point
image selection
image
calculation means
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021027576A
Other languages
Japanese (ja)
Other versions
JP7558082B2 (en
Inventor
浩志 武田
Hiroshi Takeda
亮 横山
Ryo Yokoyama
元気 高橋
Genki Takahashi
久美子 鈴木
Kumiko Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airport Facilities Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2021027576A priority Critical patent/JP7558082B2/en
Publication of JP2022129040A publication Critical patent/JP2022129040A/en
Application granted granted Critical
Publication of JP7558082B2 publication Critical patent/JP7558082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To solve a problem that the prior art has, namely, to provide a proper image selection system that can select images having less occlusion as a pair of stereo images among acquired aerial photographs.SOLUTION: A proper image selection system is a system selecting proper images used in stereoscopy in an object domain comprising image storage means, terrain model storage means, normal vector calculation means, line-of-vision vector calculation means, angle calculation means, and image selection means. The angle calculation means calculates angular differences between a normal vector at a fixation point and line-of-vision vectors regarding images, the image selection means selects proper images suitable for the fixation point based on the angular difference that the angle calculation means has calculated.SELECTED DRAWING: Figure 1

Description

本願発明は、写真測量に関するものであり、より具体的には、地物の実体視にとってより適した画像を選択することができる適正画像選択システムに関するものである。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to photogrammetry, and more specifically, to an appropriate image selection system capable of selecting an image more suitable for stereoscopic viewing of a feature.

地形図を作成する場合、あるいは3次元地形モデル(3次元座標によって構成される地形モデル)を作成する場合、通常は広範囲に渡って地形計測が行われる。そして広範囲の地形計測を行うにあたっては、航空機から撮影した空中写真を用いて地形の図化(モデル化)を行う写真測量が採用されることがある。この写真測量は、同一箇所を撮影した異なる2枚一組の空中写真(いわゆるステレオペア写真)を用意し、実体視(立体視ともいう)を行うことによって、すなわち双方の写真に写された同一対象物を同定するとともにその対象物の写真上の位置の相違(視差)を利用することによって、地上における対象物の3次元座標を求める手法である。 When creating a topographic map or creating a three-dimensional topographic model (a topographic model composed of three-dimensional coordinates), topographic measurement is usually performed over a wide range. Photogrammetry, in which aerial photographs taken from an aircraft are used to plot (model) the terrain, is sometimes used to measure the terrain over a wide area. This photogrammetry is performed by preparing a set of two different aerial photographs (so-called stereo pair photographs) of the same location and performing stereoscopic vision (also called stereoscopic vision). This is a method of identifying the object and obtaining the three-dimensional coordinates of the object on the ground by utilizing the difference in the position of the object on the photograph (parallax).

空中写真に写された地物の座標は、カメラ中心点(撮影主点)を基準とする前方交会法によって求められる。そのため、ステレオペア写真それぞれを撮影した時の撮影主点の座標と撮影方向、カメラの焦点距離や、主点位置のずれ、各種ひずみ(放射性ひずみ、非対称性ひずみ等)といったカメラ諸元は既知とされる。なお、写真撮影時のカメラ主点座標と撮影方向は「外部標定要素」と呼ばれ、カメラの焦点距離や、主点位置のずれ、各種ひずみ等は「内部標定要素」と呼ばれており、外部標定要素と内部標定要素の総称が標定要素である。 The coordinates of the feature captured in the aerial photograph are obtained by the forward resection method with the camera center point (principal point of photography) as a reference. Therefore, the camera specifications such as the coordinates and direction of the principal point when each stereo pair photograph was taken, the focal length of the camera, the deviation of the position of the principal point, and various distortions (radiative distortion, asymmetrical distortion, etc.) are known. be done. In addition, the camera principal point coordinates and shooting direction at the time of photographing are called "exterior orientation elements", and the camera focal length, principal point position deviation, various distortions, etc. are called "interior orientation elements". The general term for exterior orientation elements and interior orientation elements is orientation elements.

空中写真測量によって地上物の座標を求めるには外部標定要素が既知とされると説明したが、必ずしもこの外部標定要素が計測等によって明らかにされるとは限らない。例えば、衛星測位システム(GNSS:Global Navigation Satellite System)、IMU(Inertial Measurement Unit)を航空機に搭載すれば直接的に外部標定要素を得ることができ、このような計測機器を搭載していない場合は空中三角測量により外部標定要素を求めることができる。 Although it has been explained that the exterior orientation parameters are known in order to obtain the coordinates of ground objects by aerial photogrammetry, these exterior orientation parameters are not necessarily clarified by measurement or the like. For example, if a satellite positioning system (GNSS: Global Navigation Satellite System) or an IMU (Inertial Measurement Unit) is installed in an aircraft, it is possible to directly obtain exterior orientation elements, and if such measurement equipment is not installed, Exterior orientation parameters can be determined by aerial triangulation.

ところで、写真測量のために行われる撮影は、図5に示すように同一個所を多方向から撮影する多重高ラップ撮影によることもある。図5は、多重高ラップ撮影を行う状況を模式的に示すモデル図あり、図6(a)は多重高ラップ撮影によって得られた3×3の多重撮影画像を示す画像図、図6(b)は多重高ラップ撮影によって得られた5×5の多重撮影画像を示す画像図である。 By the way, as shown in FIG. 5, photographing for photogrammetry may be performed by multiple high-lap photography in which the same location is photographed from multiple directions. 5A and 5B are model diagrams schematically showing a situation in which multiple high-lap imaging is performed. FIG. 6A is an image diagram showing a 3×3 multiple-shot image obtained by the multiple high-lap imaging, and FIG. ) is an image diagram showing a 5×5 multiple shot image obtained by multiple high-lap photography.

このように、同一個所を撮影した画像が多数ある場合、選択するステレオペア写真によって得られる結果が異なることもあり、場合によっては望ましい結果が得られないこともある。そこで特許文献1では、適切なステレオペア画像の候補を自動選出する技術について提案している。 In this way, when there are a large number of images of the same location, different results may be obtained depending on the selected stereo pair photographs, and in some cases, desired results may not be obtained. Therefore, Japanese Patent Application Laid-Open No. 2002-200002 proposes a technique for automatically selecting suitable stereo pair image candidates.

特開2017-49883号公報JP 2017-49883 A

特許文献1に開示される技術は、実体視を実施するユーザのビュー視点に基づく「串刺しベクトル」と、撮影主点に基づく「画像ベクトル」などを用いて、適切なステレオペア画像を自動選出するものである。したがって特許文献1に開示される技術によればユーザは好適に実体視を実施することができるが、反面、オクルージョンを回避するという点では改善の余地があった。 The technology disclosed in Patent Literature 1 automatically selects an appropriate stereo pair image using a "skew vector" based on the view point of the user who performs stereoscopic viewing and an "image vector" based on the shooting principal point. It is. Therefore, according to the technique disclosed in Patent Document 1, the user can preferably perform stereoscopic viewing, but on the other hand, there is room for improvement in terms of avoiding occlusion.

例えば、道路縁の3次元座標を把握したいケースでは、道路縁を覆っている街路樹によってオクルージョンが生じることがある。上空(特に直上)から撮影すると、道路縁を覆う街路樹を収めた空中写真が取得されることもあり、このような空中写真をステレオペア画像として採用すると適切な道路縁の3次元座標を得ることはできない。これに対して、斜方向から撮影した空中写真には道路縁が収められることもあり、この空中写真をステレオペア画像として採用すると適切な道路縁の3次元座標を得ることができる。すなわち、オクルージョンの問題が生じることが予測される場合、多重高ラップ撮影などによって得られる多数の空中写真の中からオクルージョンの少ないものをステレオペア画像として採用することが望ましい。 For example, in a case where it is desired to grasp the three-dimensional coordinates of a road edge, occlusion may occur due to roadside trees covering the road edge. If you shoot from the sky (especially directly above), you may get an aerial photo that includes the roadside trees that cover the road edge, and if you adopt such aerial photos as a stereo pair image, you can obtain the appropriate 3D coordinates of the road edge. It is not possible. On the other hand, an aerial photograph taken from an oblique direction may include the road edge, and if this aerial photograph is used as a stereo pair image, appropriate three-dimensional coordinates of the road edge can be obtained. That is, when the problem of occlusion is expected to occur, it is desirable to adopt, as a stereo pair image, those with less occlusion among a large number of aerial photographs obtained by multiple high-lap photography or the like.

本願発明の課題は、従来技術が抱える問題を解決することであり、すなわち、取得された空中写真の中からオクルージョンの少ないものをステレオペア画像として選択することができる適正画像選択システムを提供することにある。 An object of the present invention is to solve the problems of the prior art, that is, to provide an appropriate image selection system capable of selecting, as stereo pair images, images with less occlusion from acquired aerial photographs. It is in.

本願発明は、地形モデルに基づく「法線ベクトル」と、撮影主点に基づく「視線ベクトル」との角度差を利用することによって、オクルージョンの少ない空中写真を選択する、という点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。 The present invention focuses on selecting an aerial photograph with less occlusion by using the angle difference between the "normal vector" based on the terrain model and the "line-of-sight vector" based on the shooting principal point. It is an invention made based on an idea that did not exist in the past.

本願発明の適正画像選択システムは、対象領域のステレオ実体視に用いる適正画像を選択するシステムであって、画像記憶手段と地形モデル記憶手段、法線ベクトル算出手段、視線ベクトル算出手段、角度算出手段、画像選択手段を備えたものである。このうち画像記憶手段は、対象領域を一部重複しながら撮影して得られた複数の画像を記憶する手段であり、地形モデル記憶手段は、対象領域を3次元で表した地形モデルを記憶する手段である。また法線ベクトル算出手段は、対象領域内で設定される注視点における「法線ベクトル」を地形モデルに基づいて算出する手段であり、視線ベクトル算出手段は、画像を取得したときの撮影主点と注視点とからなる「視線ベクトル」を算出する手段である。そして角度算出手段が、注視点における法線ベクトルと画像に係る視線ベクトルとの角度差を算出し、画像選択手段が、角度算出手段によって算出された角度差に基づいて注視点に適した適正画像を選択する。 The appropriate image selection system of the present invention is a system for selecting an appropriate image to be used for stereoscopic viewing of a target area, and comprises image storage means, terrain model storage means, normal vector calculation means, line-of-sight vector calculation means, and angle calculation means. , and image selection means. Among these, the image storage means is means for storing a plurality of images obtained by photographing the target area while partially overlapping, and the terrain model storage means stores a terrain model representing the target area in three dimensions. It is a means. The normal vector calculation means is a means for calculating a "normal vector" at the gaze point set within the target area based on the terrain model. , and the gaze point. Then, the angle calculation means calculates an angle difference between the normal vector at the point of gaze and the line-of-sight vector related to the image, and the image selection means selects an appropriate image suitable for the point of gaze based on the angle difference calculated by the angle calculation means. to select.

本願発明の適正画像選択システムは、座標が付与された複数の格子点と複数の分割領域とを具備する地形モデルを用いたものとすることもできる。 The appropriate image selection system of the present invention can also use a terrain model having a plurality of coordinated grid points and a plurality of divided regions.

本願発明の適正画像選択システムは、勾配算出手段と領域抽出手段をさらに備えたものとすることもできる。この勾配算出手段は、地形モデルの分割領域の勾配を算出する手段であり、領域抽出手段は、勾配があらかじめ定めた閾値を上回る分割領域を抽出する手段である。この場合、領域抽出手段で抽出された分割領域に係る3次元座標点(この分割領域の格子点や、分割領域に含まれる地物ポリゴン等の構成点)が、注視点として設定される。 The appropriate image selection system of the present invention may further comprise gradient calculating means and area extracting means. The gradient calculating means is means for calculating the gradient of the divided areas of the terrain model, and the area extracting means is means for extracting the divided areas whose gradient exceeds a predetermined threshold. In this case, the three-dimensional coordinate points (lattice points of this divided area, constituent points of feature polygons included in the divided area, etc.) related to the divided area extracted by the area extracting means are set as points of gaze.

本願発明の適正画像選択システムは、2次元地図情報記憶手段と地物抽出手段をさらに備えたものとすることもできる。この2次元地図情報記憶手段は、対象領域の地物に対して地物分類が付与された2次元地図情報を記憶する手段であり、地物抽出手段は、2次元地図情報に基づいての地物分類が付与された地物(例えば、道路縁や歩道縁、中央分離帯の外縁)を抽出する手段である。この場合、地物抽出手段で抽出された地物(例えば、道路縁や歩道縁、中央分離帯の外縁)を含む分割領域に係る3次元座標点が、注視点として設定される。 The appropriate image selection system of the present invention may further comprise two-dimensional map information storage means and feature extraction means. The two-dimensional map information storage means is means for storing two-dimensional map information in which feature classifications are given to the features of the target area. It is a means for extracting features (for example, road edges, sidewalk edges, and median strip edges) to which object classifications have been assigned. In this case, a three-dimensional coordinate point related to a divided area including a feature extracted by the feature extraction means (for example, a road edge, a sidewalk edge, or an outer edge of a median strip) is set as a gaze point.

本願発明の適正画像選択システムには、次のような効果がある。
(1)オクルージョンの少ない画像を選択したうえで対象物の3次元座標を求めることから、例えば道路縁のように陰になりやすい地物でも適切に結果を得ることができる。
(2)ユーザの判断が必要とされないため、ユーザの労力が軽減されるとともに、主観等による人為的なミスも回避され、効率的かつ高精度の結果を得ることができる。
The appropriate image selection system of the present invention has the following effects.
(1) Since the three-dimensional coordinates of the object are obtained after selecting an image with little occlusion, it is possible to obtain appropriate results even for features that tend to be shaded, such as road edges.
(2) Since the user's judgment is not required, the user's labor is reduced, human error due to subjectivity and the like is avoided, and efficient and highly accurate results can be obtained.

「法線ベクトル」と「視線ベクトル」を模式的に示すモデル図。A model diagram schematically showing a “normal vector” and a “line-of-sight vector”. 本願発明の適正画像選択システムの主な構成を示すブロック図。1 is a block diagram showing the main configuration of a suitable image selection system according to the present invention; FIG. 本願発明の適正画像選択システムを使用するときの主な処理の流れを示すフロー図。FIG. 4 is a flow chart showing the flow of main processing when using the appropriate image selection system of the present invention; 視点設定手段によって注視点が自動設定される主な処理の流れを示すフロー図。FIG. 4 is a flow chart showing the flow of main processing for automatically setting a gaze point by a point of view setting means; 多重高ラップ撮影を行う状況を模式的に示すモデル図。FIG. 4 is a model diagram schematically showing a situation in which multiple high-lap photography is performed; (a)は多重高ラップ撮影によって得られた3×3の多重撮影画像を示す画像図、(b)は多重高ラップ撮影によって得られた5×5の多重撮影画像を示す画像図。(a) is an image diagram showing a 3×3 multiple photographed image obtained by multiple high lap photography, and (b) is an image diagram showing a 5×5 multiple photographed image obtained by multiple high lap photography.

本願発明の適正画像選択システムの実施の一例を図に基づいて説明する。 An example of implementation of the appropriate image selection system of the present invention will be described with reference to the drawings.

1.全体概要
本願発明は、「法線ベクトル」と「視線ベクトル」との角度差を利用することによってオクルージョンの少ない空中写真を選択することを技術的特徴のひとつとしている。そこで図1を参照しながら、法線ベクトルVNと視線ベクトルVSについて説明するとともに、空中写真を選択する手順について説明する。
1. Overall Outline One of the technical features of the present invention is to select an aerial photograph with less occlusion by using the angle difference between the "normal vector" and the "line-of-sight vector". Therefore, the normal vector VN and the line-of-sight vector VS will be described with reference to FIG. 1, and the procedure for selecting an aerial photograph will be described.

法線ベクトルVNと視線ベクトルVSを算出するにあたっては、後述するように注視点PVが設定される。この注視点PVは、例えば道路縁などユーザが座標を求めようとする点であり、特に街路樹が覆った道路縁などオクルージョンが生じるおそれがある点を設定するとよい。 In calculating the normal vector VN and the line-of-sight vector VS, a gaze point PV is set as will be described later. This gaze point PV is a point such as a road edge for which the user wants to obtain the coordinates, and it is preferable to set a point where occlusion may occur, such as a road edge covered with roadside trees.

法線ベクトルVNは、図1に示すように注視点PVにおける法線方向に設定され、注視点PVを起点とする任意長さ(例えば単位長さ)のベクトルである。そして注視点PVにおける法線方向は、例えばDSM(DigitalSurfaceModel)やDTM(DigitalTerrainModel)といった3次元地形モデルを用いることで設定することができる。通常、3次元地形モデルは、3次元座標が付与された複数の格子点と、複数の分割領域(以下、「メッシュ」という。)によって構成されており、注視点PVを含む(あるいは注視点PVを格子点とする)メッシュを抽出するとともに、そのメッシュの傾斜(姿勢)に対して垂直となる方向を注視点PVにおける法線方向とすることができる。あるいは、ランダムデータから形成される不整三角網(TIN:Triangulated Irregular Network)を利用して法線方向を求めるなど、従来用いられている種々の手法によって求められる法線方向に基づいて法線ベクトルVNを設定することができる。 The normal vector VN is set in the direction normal to the point of interest PV as shown in FIG. 1, and is a vector of arbitrary length (for example, unit length) starting from the point of interest PV. The normal direction at the gaze point PV can be set by using a three-dimensional terrain model such as DSM (Digital Surface Model) or DTM (Digital Terrain Model). Usually, a three-dimensional terrain model is composed of a plurality of grid points assigned with three-dimensional coordinates and a plurality of divided regions (hereinafter referred to as "mesh"), and includes a gaze point PV (or a gaze point PV is a grid point), and the direction perpendicular to the inclination (orientation) of the mesh can be set as the normal direction at the gaze point PV. Alternatively, the normal vector VN is determined based on the normal direction obtained by various conventional methods, such as obtaining the normal direction using a triangulated irregular network (TIN) formed from random data. can be set.

一方、視線ベクトルVSは、図1に示すように撮影主点PMを起点とし、注視点PVを終点とするベクトルである。そして、法線ベクトルVNと視線ベクトルVSが得られると、法線ベクトルVNと視線ベクトルVSとの挟角(以下、「ベクトル挟角」という。)を求める。ところで、法線ベクトルVNは原則として1の注視点PVに対してひとつだけ設定されるが、視線ベクトルVSは1の注視点PVに対して撮影主点PMの数だけ設定することができる。すなわち1の注視点PVについて、複数(撮影主点PMの数だけ)のベクトル挟角が得られることとなる。そこで、小さいベクトル挟角を与える視線ベクトルVSを選出し、この視線ベクトルVSに係る空中写真を選択する。ベクトル挟角が小さいということは、法線ベクトルVNが概ね撮影主点PMに向かっているとともに視線ベクトルVSが概ね注視点PVに向かっていることを意味するため、その視線ベクトルVSに係る空中写真はオクルージョンの少ない(すなわち実体視に適した)画像として考えることができるわけである。 On the other hand, the line-of-sight vector VS, as shown in FIG. 1, is a vector whose starting point is the photographing principal point PM and whose end point is the gaze point PV. Then, when the normal vector VN and the line-of-sight vector VS are obtained, the included angle between the normal vector VN and the line-of-sight vector VS (hereinafter referred to as the "vector included angle") is obtained. By the way, in principle, only one normal vector VN is set for one gaze point PV, but as many line-of-sight vectors VS as the number of photographing principal points PM can be set for one gaze point PV. That is, a plurality of (the number of shooting principal points PM) vector included angles are obtained for one gazing point PV. Therefore, a line-of-sight vector VS that gives a small vector included angle is selected, and an aerial photograph related to this line-of-sight vector VS is selected. A small vector included angle means that the normal vector VN is generally directed toward the shooting principal point PM and the line-of-sight vector VS is generally directed toward the gaze point PV. can be considered as an image with less occlusion (that is, suitable for stereoscopic viewing).

2.適正画像選択システム
次に、本願発明の適正画像選択システムについて、図を参照しながら詳しく説明する。図2は、本願発明の適正画像選択システム100の主な構成を示すブロック図である。この図に示すように本願発明の適正画像選択システム100は、法線ベクトル算出手段101と視線ベクトル算出手段102、角度算出手段103、画像選択手段104、画像記憶手段109、3D地形モデル記憶手段110を含んで構成され、さらに勾配算出手段105や領域抽出手段106、地物抽出手段107、注視点設定手段108、2D地図情報記憶手段111、撮影諸元記憶手段112などを含んで構成することもできる。
2. Appropriate Image Selection System Next, the appropriate image selection system of the present invention will be described in detail with reference to the drawings. FIG. 2 is a block diagram showing the main configuration of the appropriate image selection system 100 of the present invention. As shown in this figure, the appropriate image selection system 100 of the present invention includes normal vector calculation means 101, line-of-sight vector calculation means 102, angle calculation means 103, image selection means 104, image storage means 109, and 3D terrain model storage means 110. , and further includes gradient calculation means 105, area extraction means 106, feature extraction means 107, gaze point setting means 108, 2D map information storage means 111, shooting specification storage means 112, etc. can.

適正画像選択システム100を構成する法線ベクトル算出手段101と視線ベクトル算出手段102、角度算出手段103、画像選択手段104、勾配算出手段105、領域抽出手段106、地物抽出手段107、注視点設定手段108は、専用のものとして製造することもできるし、汎用的なコンピュータ装置を利用することもできる。このコンピュータ装置は、CPU等のプロセッサと、ROMやRAMといったメモリを具備しており、さらにマウスやキーボード等の入力手段やディスプレイを含むものもあり、タブレット型コンピュータ(iPad(登録商標)など)やスマートフォンといった携帯型端末機器、あるいはパーソナルコンピュータ(PC)やサーバーなどを例示することができる。 Normal vector calculation means 101, line-of-sight vector calculation means 102, angle calculation means 103, image selection means 104, gradient calculation means 105, area extraction means 106, feature extraction means 107, gaze point setting, which constitute an appropriate image selection system 100. Means 108 can be manufactured as a dedicated one, or can utilize a general-purpose computing device. This computer device includes a processor such as a CPU and a memory such as ROM and RAM. Portable terminal devices such as smartphones, personal computers (PCs), servers, and the like can be exemplified.

また、画像記憶手段109と3D地形モデル記憶手段110、2D地図情報記憶手段111、撮影諸元記憶手段112は、コンピュータ装置の記憶装置を利用することもできるし、そのほかデータベースサーバーに構築することもできる。データベースサーバーに構築する場合、ローカルなネットワーク(LAN:Local Area Network)に置くこともできるし、インターネット経由(つまり無線通信)で保存するクラウドサーバーとすることもできる。 The image storage means 109, the 3D terrain model storage means 110, the 2D map information storage means 111, and the photographing specification storage means 112 can use the storage device of the computer device, or can be constructed in a database server. can. When building a database server, it can be placed on a local network (LAN: Local Area Network), or it can be a cloud server for storage via the Internet (that is, wireless communication).

以下、適正画像選択システム100を構成する主な要素ごとに詳しく説明する。 Each main element constituting the appropriate image selection system 100 will be described in detail below.

(3D地形モデル記憶手段と2D地図情報記憶手段)
3D地形モデル記憶手段110は、対象とする範囲(以下、「対象領域」という。)の3次元地形モデル(DSMやDTMなど)を記憶する手段である。一方、2D地図情報記憶手段111は、対象領域の2次元地図情報を記憶するものである。ここで2次元地図情報とは、高さ情報を備えていない地形図といった2次元の地形情報であり、地物に関する情報(以下、「地物情報」という。)を具備する地図情報である。また地物情報とは、ポリゴンやポリラインなど地物の平面位置と形状に関する情報(以下、「地物図形」という。)と、地物に関する属性情報を含むものである。さらに地物の属性情報には道路や道路縁、歩道縁、中央分離帯の外縁(以下、単に「中央分離帯縁」という。)、建物や建物の外縁、公園、学校といった地物の種別(以下、「地物分類」という。)が含まれている。つまり、対象領域内に地物図形が平面配置され、この地物図形には地物に関する属性情報(地物分類を含む)が関連付けられているわけである。
(3D Terrain Model Storage Means and 2D Map Information Storage Means)
The 3D terrain model storage means 110 is means for storing a 3D terrain model (DSM, DTM, etc.) of a target range (hereinafter referred to as "target area"). On the other hand, the 2D map information storage means 111 stores the 2D map information of the target area. Here, the two-dimensional map information is two-dimensional topographic information such as a topographic map without height information, and is map information with information on features (hereinafter referred to as "feature information"). The feature information includes information on the planar position and shape of features such as polygons and polylines (hereinafter referred to as "feature figures") and attribute information on the features. Furthermore, feature attribute information includes roads, road edges, sidewalk edges, outer edges of median strips (hereinafter simply referred to as "median strip edges"), types of features such as buildings, outer edges of buildings, parks, and schools ( hereinafter referred to as “feature classification”). In other words, a feature figure is laid out in a plane within the target area, and attribute information (including feature classification) relating to the feature is associated with the feature figure.

(画像記憶手段と撮影諸元記憶手段)
画像記憶手段109は、対象領域を一部重複しながら撮影して得られた複数の画像を記憶する手段であり、例えば図6に示すように多重高ラップ撮影によって得られた多重撮影画像を記憶することができるものである。また撮影諸元記憶手段112は、画像記憶手段109に記憶されるそれぞれの画像を取得したときの撮影主点PMを記憶するものであり、そのほかの外部標定要素や内部標定要素も合わせて記憶することができる。なお撮影主点PMは、その撮影主点PMに係る画像に関連付けられて(紐づけられて)撮影諸元記憶手段112に記憶される。
(Image storage means and photographing specification storage means)
The image storage means 109 is a means for storing a plurality of images obtained by photographing a target region while partially overlapping. For example, as shown in FIG. It is something that can be done. Further, the photographing specification storage means 112 stores the photographing principal point PM when each image stored in the image storage means 109 is obtained, and also stores other exterior orientation elements and interior orientation elements. be able to. Note that the photographing principal point PM is stored in the photographing item storage unit 112 in association with (associated with) the image related to the photographing principal point PM.

(注視点設定手段)
注視点設定手段108は、注視点PVを設定する手段である。この注視点設定手段108は、ユーザが地形モデルや画像などを目視しながらポインティングデバイスやキーボードを操作することによって設定する仕様とすることもできるし、ユーザが操作することなく自動で設定する仕様とすることもできる。以下、注視点設定手段108が注視点PVを自動設定する処理について説明する。
(Point-of-regard setting means)
The gazing point setting means 108 is means for setting the gazing point PV. This gaze point setting means 108 can be set by the user operating a pointing device or keyboard while viewing the terrain model or image, or can be automatically set without user operation. You can also Processing for automatically setting the point of interest PV by the point of interest setting means 108 will be described below.

既述したとおり注視点PVは、道路縁などユーザが座標を求めようとする点であり、特に街路樹が覆った道路縁などオクルージョンが生じるおそれがある点を設定するとよい。そこで、オクルージョンが予測されるメッシュ(以下、「特定メッシュ」という。)を3D地形モデルから抽出する。具体的には、勾配算出手段105が3D地形モデル記憶手段110から3D地形モデルを読み出すとともにメッシュの傾斜(以下、「メッシュ勾配」という。)を算出し、あらかじめ定めた閾値(以下、「勾配閾値」という。)を上回るメッシュを領域抽出手段106が特定メッシュとして抽出する(図1)。なお、メッシュ勾配は事前に計算したうえで3D地形モデル記憶手段110に記憶させておくこともでき、この場合はメッシュ勾配を算出することなく3D地形モデル記憶手段110から読み出すだけでよい。メッシュ勾配は水平面となす角として算出され、同様に勾配閾値も水平面となす角として設定される。通常、街路樹のような遮蔽物がない場合、その地物(つまりメッシュ)は概ね水平面、あるいは緩い傾斜となっている。これに対して、水平面から大きく傾斜しているメッシュは、通常の状態ではない、すなわち街路樹のような遮蔽物の存在が疑われるわけである。領域抽出手段106によって特定メッシュが抽出されると、注視点設定手段108がその特定メッシュの格子点を注視点PVとして設定する(図1)。あるいは、3D地形モデル記憶手段110が3D地形モデルとは別に(独立した)地物のポリゴンやポリライン等を記憶しているケースでは、特定メッシュに含まれるポリゴン等の3次元の構成点(以下、「3D構成点」という。)を注視点PVとして設定することもできる。すなわち、特定メッシュに係る点(構成する点や含まれる点)であって、3次元座標を有する点であれば、注視点PVとして設定することができるわけである。 As described above, the gazing point PV is a point such as a road edge for which the user wants to obtain the coordinates. Therefore, meshes in which occlusion is predicted (hereinafter referred to as "specific meshes") are extracted from the 3D terrain model. Specifically, the gradient calculation means 105 reads out the 3D terrain model from the 3D terrain model storage means 110, calculates the slope of the mesh (hereinafter referred to as "mesh gradient"), and calculates a predetermined threshold (hereinafter referred to as "gradient threshold ) is extracted as a specific mesh by the region extracting means 106 (FIG. 1). The mesh gradient can be calculated in advance and stored in the 3D terrain model storage means 110. In this case, the mesh gradient can be read out from the 3D terrain model storage means 110 without calculating the mesh gradient. The mesh gradient is calculated as the angle with the horizontal plane, and similarly the gradient threshold is set as the angle with the horizontal plane. Normally, when there is no obstruction such as a street tree, the feature (that is, the mesh) is generally horizontal or has a gentle slope. On the other hand, a mesh that is greatly inclined from the horizontal plane is not in a normal state, that is, the presence of an obstructing object such as a street tree is suspected. When the specific mesh is extracted by the region extracting means 106, the point-of-regard setting means 108 sets the grid point of the specific mesh as the point of interest PV (FIG. 1). Alternatively, in the case where the 3D terrain model storage means 110 stores polygons, polylines, etc. of features separately (independently) from the 3D terrain model, three-dimensional configuration points such as polygons included in a specific mesh (hereinafter referred to as (referred to as a "3D configuration point") can also be set as the gaze point PV. In other words, any point related to a specific mesh (points forming or included) and having three-dimensional coordinates can be set as the gaze point PV.

また、特定の地物分類が付与された地物(以下、「特定地物」という。)に対して、注視点PVを設定することもある。この場合、地物抽出手段107が2D地図情報記憶手段111に照会することによって特定地物の平面座標を取得する(図1)。例えば、ユーザが特定地物として道路縁を指定すると、地物抽出手段107は道路縁の平面座標を2D地図情報記憶手段111から取得するわけである。もちろんユーザは、道路縁に代えて歩道縁や中央分離帯縁などを特定地物として指定することもできる。そして注視点設定手段108は、特定地物(例えば道路縁)の平面座標に対応するメッシュを特定メッシュとして設定するとともに、特定メッシュの格子点や特定メッシュに含まれる地物ポリゴン等の3D構成点を注視点PVとして設定する(図1)。このとき、地物抽出手段107が取得した特定地物の平面座標に対応するメッシュに対して、勾配算出手段105がメッシュ勾配を算出したうえで領域抽出手段106が特定メッシュとして抽出する仕様とすることもできる。 Also, the point of gaze PV may be set for a feature assigned a specific feature classification (hereinafter referred to as "specific feature"). In this case, the feature extraction means 107 obtains the plane coordinates of the specific feature by referring to the 2D map information storage means 111 (FIG. 1). For example, when the user designates a road edge as a specific feature, the feature extraction means 107 acquires the plane coordinates of the road edge from the 2D map information storage means 111 . Of course, the user can also designate a sidewalk edge, a median strip edge, or the like instead of the road edge as the specific feature. Then, the point-of-regard setting means 108 sets a mesh corresponding to the plane coordinates of a specific feature (for example, a road edge) as a specific mesh, and also sets 3D constituent points such as grid points of the specific mesh and feature polygons included in the specific mesh. is set as the gaze point PV (FIG. 1). At this time, the gradient calculation means 105 calculates the mesh gradient for the mesh corresponding to the plane coordinates of the specific feature acquired by the feature extraction means 107, and then the area extraction means 106 extracts it as the specific mesh. can also

(法線ベクトル算出手段)
法線ベクトル算出手段101は、法線ベクトルVNを算出する手段である。より詳しくは法線ベクトル算出手段101が、注視点設定手段108によって設定された注視点PVに係るメッシュを3D地形モデル記憶手段110から読み出し、そのメッシュの傾斜(姿勢)に基づいて法線ベクトルVNを算出する。なお法線ベクトル算出手段101は、注視点設定手段108が注視点PVを設定するタイミングで算出することもできるし、メッシュの格子点や地物ポリゴン等の3D構成点ごとにあらかじめ算出しておくこともできる。
(Normal vector calculation means)
The normal vector calculation means 101 is means for calculating the normal vector VN. More specifically, the normal vector calculation means 101 reads the mesh related to the point of regard PV set by the point of regard setting means 108 from the 3D terrain model storage means 110, and calculates the normal vector VN based on the inclination (orientation) of the mesh. Calculate The normal vector calculation means 101 can be calculated at the timing when the point of interest setting means 108 sets the point of interest PV, or the normal vector calculation means 101 can be calculated in advance for each 3D configuration point such as a grid point of a mesh or a feature polygon. can also

(視線ベクトル算出手段)
視線ベクトル算出手段102は、視線ベクトルVSを算出する手段である。より詳しくは視線ベクトル算出手段102が、撮影諸元記憶手段112から撮影主点PMを読み出し、この撮影主点PMと注視点設定手段108によって設定された注視点PVに基づいて視線ベクトルVSを算出する。なお視線ベクトル算出手段102は、既述したとおり撮影主点PMの数だけ視線ベクトルVSを算出することができる。もちろん、全ての撮影主点PM(つまりすべての画像)に対して視線ベクトルVSを算出する仕様とすることもできるし、例えば画角内に注視点PVが含まれる画像のみを選出するなど、特定の条件に合致する画像を選出したうえで視線ベクトルVSを算出する仕様とすることもできる。
(Line-of-sight vector calculation means)
The line-of-sight vector calculation means 102 is means for calculating the line-of-sight vector VS. More specifically, the line-of-sight vector calculation means 102 reads the shooting principal point PM from the shooting specification storage means 112 and calculates the line-of-sight vector VS based on this shooting principal point PM and the gaze point PV set by the gaze point setting means 108. do. Note that the line-of-sight vector calculation means 102 can calculate the line-of-sight vector VS as many as the number of shooting principal points PM as described above. Of course, it is possible to adopt a specification that calculates the line-of-sight vector VS for all shooting principal points PM (that is, all images). It is also possible to adopt a specification in which the line-of-sight vector VS is calculated after selecting an image that meets the condition of .

(角度算出手段)
角度算出手段103は、法線ベクトルVNと視線ベクトルVSに基づいてベクトル挟角を算出する手段である。また角度算出手段103は、ベクトル挟角に代えて(あるいは加えて)法線ベクトルVNと視線ベクトルVSに基づく内積(以下、「ベクトル内積」という。)を算出することもできる。ただしベクトル内積を算出する場合、法線ベクトルVNと視線ベクトルVSのうちいずれか一方を逆向き(負の値を乗じる)としたうえで算出される。
(Angle calculation means)
The angle calculation means 103 is means for calculating a vector included angle based on the normal vector VN and the line-of-sight vector VS. The angle calculating means 103 can also calculate an inner product (hereinafter referred to as "vector inner product") based on the normal vector VN and the line-of-sight vector VS instead of (or in addition to) the vector included angle. However, when calculating the vector inner product, one of the normal vector VN and the line-of-sight vector VS is reversed (multiplied by a negative value) before being calculated.

(画像選択手段)
画像選択手段104は、ベクトル挟角(ベクトル内積)に基づいて、実体視に適した画像(以下、「適正画像」という。)を画像記憶手段109から選択する手段である。ベクトル挟角に基づいて判断する場合は小さな値のベクトル挟角に係る(つまり視線ベクトルVSに係る)画像が選択され、ベクトル内積に基づいて判断する場合は大きな値のベクトル内積に係る(つまり視線ベクトルVSに係る)画像が選択される。このとき、ステレオペアとして上位2つの画像を適正画像として選択することもできるし、ベクトル挟角があらかじめ定めた閾値を下回る(ベクトル内積のときは上回る)すべての画像を適正画像として選択することもできるし、あるいは上位(例えば1~6位)に位置する画像を適正画像として選択することもできる。
(Image selection means)
The image selection means 104 is a means for selecting an image suitable for stereoscopic viewing (hereinafter referred to as "appropriate image") from the image storage means 109 based on the vector angle (vector inner product). When the determination is based on the vector included angle, the image associated with the vector included angle with a small value (that is, the line-of-sight vector VS) is selected. VS) image is selected. At this time, the top two images of the stereo pair can be selected as appropriate images, or all images whose vector included angles are below a predetermined threshold (above in the case of vector inner products) can be selected as appropriate images. Alternatively, images positioned in the top (eg, 1st to 6th) can be selected as appropriate images.

(処理の流れ)
続いて、図3を参照しながら本願発明の適正画像選択システム100を使用するときの主な処理の流れについて説明する。なお図3や後述する図4のフロー図では、中央の列に実施する行為を示し、左列にはその行為に必要なものを、右列にはその行為から生ずるものを示している。
(Processing flow)
Next, with reference to FIG. 3, the main processing flow when using the appropriate image selection system 100 of the present invention will be described. In the flow diagrams of FIG. 3 and FIG. 4, which will be described later, the middle column shows the action to be performed, the left column shows what is necessary for that action, and the right column shows what results from that action.

はじめに注視点設定手段108によって注視点PVを設定する(図3のStep210)。既述したとおり注視点設定手段108は、ユーザが地形モデルや画像などを目視しながらポインティングデバイスやキーボードを操作することによって設定する仕様とすることもできるし、ユーザが操作することなく自動で設定する仕様とすることもできる。以下、図4を参照しながら、注視点設定手段108による注視点PVの自動設定処理について説明する。 First, the gaze point PV is set by the gaze point setting means 108 (Step 210 in FIG. 3). As described above, the point-of-regard setting means 108 can be set by the user operating a pointing device or keyboard while viewing the terrain model or image, or can be set automatically without user's operation. It can also be specified to Hereinafter, automatic setting processing of the point-of-regard PV by the point-of-regard setting means 108 will be described with reference to FIG.

ユーザ操作によって特定地物(例えば道路縁)が指定されると、地物抽出手段107が特定地物の平面座標を2D地図情報記憶手段111から取得する(図4のStep201)。そして勾配算出手段105が、この平面座標に対応するメッシュに対してメッシュ勾配を算出する(あるいは、勾配算出手段105が事前に算出したメッシュを読み出す)とともに(図4のStep202)、領域抽出手段106が、勾配閾値を上回るメッシュを特定メッシュとして抽出する(図4のStep203)。領域抽出手段106によって特定メッシュが抽出されると、注視点設定手段108が特定メッシュに係る3次元座標点(特定メッシュの格子点や、特定メッシュに含まれる地物ポリゴン等の3D構成点)を注視点PVとして設定する(図4のStep210)。 When a specific feature (for example, a road edge) is designated by a user operation, the feature extraction means 107 acquires the plane coordinates of the specific feature from the 2D map information storage means 111 (Step 201 in FIG. 4). Then, the gradient calculation means 105 calculates the mesh gradient for the mesh corresponding to the plane coordinates (or reads the mesh calculated in advance by the gradient calculation means 105) (Step 202 in FIG. 4), and the region extraction means 106 extracts meshes exceeding the gradient threshold as specific meshes (Step 203 in FIG. 4). When the specific mesh is extracted by the region extracting means 106, the gaze point setting means 108 sets the 3D coordinate points (lattice points of the specific mesh, 3D constituent points such as feature polygons included in the specific mesh) related to the specific mesh. It is set as the gaze point PV (Step 210 in FIG. 4).

注視点設定手段108によって注視点PVが設定されると、法線ベクトル算出手段101がその注視点PVに対して法線ベクトルVNを算出し(図3のStep220)、また視線ベクトル算出手段102が視線ベクトルVSを算出する(図3のStep230)。なお、メッシュの格子点や地物ポリゴン等の3D構成点ごとにあらかじめ法線ベクトルVNが算出されているときは、注視点PVに対応する法線ベクトルVNを読み出すだけでよい。そして、法線ベクトルVNと視線ベクトルVSが得られると、角度算出手段103がベクトル挟角(ベクトル内積)を算出する(図3のStep240)。なお、視線ベクトル算出手段102は撮影主点PMを変えながら繰り返し視線ベクトルVSを算出し、これに伴い角度算出手段103も繰り返しベクトル挟角を算出する。このとき、全ての撮影主点PMに対して視線ベクトルVSとベクトル挟角を算出することもできるし、画角内に注視点PVが含まれる画像に係る撮影主点PMに対して視線ベクトルVSとベクトル挟角を算出することもできる。 When the gazing point setting means 108 sets the gazing point PV, the normal vector calculating means 101 calculates the normal vector VN for the gazing point PV (Step 220 in FIG. 3), and the line-of-sight vector calculating means 102 A line-of-sight vector VS is calculated (Step 230 in FIG. 3). Note that when the normal vector VN is calculated in advance for each 3D constituent point such as a grid point of a mesh or a feature polygon, it is only necessary to read the normal vector VN corresponding to the gaze point PV. Then, when the normal vector VN and the line-of-sight vector VS are obtained, the angle calculation means 103 calculates a vector included angle (vector inner product) (Step 240 in FIG. 3). The line-of-sight vector calculation means 102 repeatedly calculates the line-of-sight vector VS while changing the photographing principal point PM, and accordingly the angle calculation means 103 also repeatedly calculates the vector included angle. At this time, it is also possible to calculate the line-of-sight vector VS and the vector included angle for all the photographing principal points PM, or to calculate the line-of-sight vector VS and the vector included angle can also be calculated.

角度算出手段103によってベクトル挟角が算出されると、画像選択手段104がベクトル挟角に基づいて画像記憶手段109から適正画像を選択する。ところで、画像選択手段104が選択した適正画像内に注視点PVが含まれないことも考えられる。そこで、画像選択手段104がベクトル挟角に基づいて選択した画像を一旦、「暫定画像」とし(図3のStep250)、この暫定画像内に注視点PVが含まれるか否かを判定するとよい(図3のStep260)。すなわち、暫定画像内に注視点PVが含まれる場合は(図3のStep260のYes)この暫定画像を適正画像として決定し(図3のStep270)、一方、暫定画像内に注視点PVが含まれない場合は(図3のStep260のNo)撮影主点PMを変更して一連の処理(図3のStep230~Step260)を繰り返し実行する。ただし、画角内に注視点PVが含まれる画像に係る撮影主点PMに対して視線ベクトルVSとベクトル挟角を算出するケースでは、暫定画像の設定処理(図3のStep250)と暫定画像の判定処理(図3のStep260)は省略することができる。 When the vector included angle is calculated by the angle calculation means 103, the image selection means 104 selects an appropriate image from the image storage means 109 based on the vector included angle. By the way, it is conceivable that the proper image selected by the image selection means 104 does not include the gaze point PV. Therefore, the image selected by the image selection means 104 based on the included vector angle may be temporarily set as a "provisional image" (Step 250 in FIG. 3), and it may be determined whether or not the gaze point PV is included in this provisional image ( Step 260 in FIG. 3). That is, if the provisional image contains the gaze point PV (Yes in Step 260 of FIG. 3), this provisional image is determined as a proper image (Step 270 in FIG. 3). If not (No in Step 260 in FIG. 3), the photographing principal point PM is changed and a series of processes (Steps 230 to 260 in FIG. 3) are repeatedly executed. However, in the case of calculating the line-of-sight vector VS and the vector included angle with respect to the shooting principal point PM related to the image including the gaze point PV within the angle of view, provisional image setting processing (Step 250 in FIG. 3) and provisional image The determination process (Step 260 in FIG. 3) can be omitted.

本願発明の適正画像選択システムは、道路施設をはじめとする様々な施設の管理や、自動運転に使用される地図情報として、特に好適に利用することができる。また本願発明によれば、高齢者や車いすにとって有益な段差情報を高い精度で提供することができ、さらに防災計画にも有効活用することができるなど、本願発明の適正画像選択システムは、産業上利用できるばかりでなく社会的にも大きな貢献を期待し得る発明である。 The appropriate image selection system of the present invention can be particularly suitably used as map information used for management of various facilities including road facilities and for automatic driving. In addition, according to the present invention, it is possible to provide step information with high accuracy that is useful for the elderly and wheelchair users, and it can also be effectively used for disaster prevention planning. It is an invention that can be expected not only to be used but also to make a great contribution to society.

100 本願発明の適正画像選択システム
101 法線ベクトル算出手段
102 視線ベクトル算出手段
103 角度算出手段
104 画像選択手段
105 勾配算出手段
106 領域抽出手段
107 地物抽出手段
108 注視点設定手段
109 画像記憶手段
110 3D地形モデル記憶手段
111 2D地図情報記憶手段
112 撮影諸元記憶手段
PM 撮影主点
PV 注視点
VN 法線ベクトル
VS 視線ベクトル
100 Appropriate Image Selection System of the Present Invention 101 Normal Vector Calculation Means 102 Line of Sight Vector Calculation Means 103 Angle Calculation Means 104 Image Selection Means 105 Gradient Calculation Means 106 Region Extraction Means 107 Feature Extraction Means 108 Gaze Point Setting Means 109 Image Storage Means 110 3D terrain model storage means 111 2D map information storage means 112 Shooting specification storage means PM Principal point of photography PV Point of regard VN Normal vector VS Line of sight vector

Claims (5)

対象領域のステレオ実体視に用いる適正画像を選択するシステムであって、
対象領域を一部重複しながら撮影して得られた複数の画像を記憶する画像記憶手段と、
前記対象領域を3次元で表した地形モデルを記憶する地形モデル記憶手段と、
前記対象領域内で設定される注視点における法線ベクトルを、前記地形モデルに基づいて算出する法線ベクトル算出手段と、
前記画像を取得したときの撮影主点と、前記注視点と、からなる視線ベクトルを算出する視線ベクトル算出手段と、
前記注視点における前記法線ベクトルと、前記画像に係る前記視線ベクトルと、の角度差を算出する角度算出手段と、
前記角度算出手段によって算出された前記角度差に基づいて、前記注視点に適した前記適正画像を選択する画像選択手段と、を備えた、
ことを特徴とする適正画像選択システム。
A system for selecting an appropriate image for stereoscopic viewing of a target region, comprising:
an image storage means for storing a plurality of images obtained by photographing a target area while partially overlapping;
a terrain model storage means for storing a terrain model representing the target area in three dimensions;
a normal vector calculation means for calculating a normal vector at a gaze point set within the target area based on the terrain model;
a line-of-sight vector calculation means for calculating a line-of-sight vector consisting of the principal point of photography when the image was acquired and the point of gaze;
angle calculation means for calculating an angle difference between the normal vector at the gaze point and the line-of-sight vector relating to the image;
an image selection means for selecting the appropriate image suitable for the point of gaze based on the angle difference calculated by the angle calculation means;
A suitable image selection system characterized by:
前記地形モデルは、座標が付与された複数の格子点と、複数の分割領域と、を具備する、
ことを特徴とする請求項1記載の適正画像選択システム。
The terrain model comprises a plurality of coordinated lattice points and a plurality of divided regions.
2. The appropriate image selection system according to claim 1, wherein:
前記分割領域の勾配を算出する勾配算出手段と、
前記勾配があらかじめ定めた閾値を上回る前記分割領域を抽出する領域抽出手段と、をさらに備え、
前記領域抽出手段で抽出された前記分割領域に係る3次元座標点が、前記注視点として設定される、
ことを特徴とする請求項2記載の適正画像選択システム。
Gradient calculation means for calculating a gradient of the divided regions;
a region extracting means for extracting the divided regions in which the gradient exceeds a predetermined threshold;
A three-dimensional coordinate point related to the divided area extracted by the area extracting means is set as the gaze point;
3. The appropriate image selection system according to claim 2, wherein:
前記対象領域の地物に対して地物分類が付与された2次元地図情報を記憶する2次元地図情報記憶手段と、
前記2次元地図情報に基づいて、特定の前記地物分類が付与された前記地物を抽出する地物抽出手段と、をさらに備え、
前記地物抽出手段で抽出された前記地物を含む前記分割領域に係る前記3次元座標点が、前記注視点として設定される、
ことを特徴とする請求項2又は請求項3記載の適正画像選択システム。
2D map information storage means for storing 2D map information in which feature classifications are assigned to the features of the target area;
a feature extracting means for extracting the feature to which the specific feature classification is assigned, based on the two-dimensional map information;
The three-dimensional coordinate point related to the divided area containing the feature extracted by the feature extraction means is set as the gaze point;
4. The proper image selection system according to claim 2 or 3, characterized in that:
前記対象領域の地物に対して地物分類が付与された2次元地図情報を記憶する2次元地図情報記憶手段と、
前記2次元地図情報に基づいて、道路縁、歩道縁、又は中央分離帯縁を抽出する地物抽出手段と、をさらに備え、
前記地物抽出手段で抽出された前記道路縁、前記歩道縁、又は前記中央分離帯縁を含む前記分割領域に係る前記3次元座標点が、前記注視点として設定される、
ことを特徴とする請求項2又は請求項3記載の適正画像選択システム。
2D map information storage means for storing 2D map information in which feature classifications are assigned to the features of the target area;
a feature extraction means for extracting a road edge, a sidewalk edge, or a median strip edge based on the two-dimensional map information;
The three-dimensional coordinate point related to the divided area including the road edge, the sidewalk edge, or the median strip edge extracted by the feature extraction means is set as the gaze point.
4. The proper image selection system according to claim 2 or 3, characterized in that:
JP2021027576A 2021-02-24 2021-02-24 Appropriate Image Selection System Active JP7558082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027576A JP7558082B2 (en) 2021-02-24 2021-02-24 Appropriate Image Selection System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027576A JP7558082B2 (en) 2021-02-24 2021-02-24 Appropriate Image Selection System

Publications (2)

Publication Number Publication Date
JP2022129040A true JP2022129040A (en) 2022-09-05
JP7558082B2 JP7558082B2 (en) 2024-09-30

Family

ID=83150170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027576A Active JP7558082B2 (en) 2021-02-24 2021-02-24 Appropriate Image Selection System

Country Status (1)

Country Link
JP (1) JP7558082B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7706037B1 (en) * 2024-01-11 2025-07-10 ソニーセミコンダクタソリューションズ株式会社 Point cloud processing device and point cloud processing system
WO2025150362A1 (en) * 2024-01-11 2025-07-17 ソニーセミコンダクタソリューションズ株式会社 Point cloud processing device and point cloud processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203940A (en) * 2007-02-16 2008-09-04 Hitachi Ltd 3D map display system, 3D map display method, and program thereof
JP2014139538A (en) * 2013-01-21 2014-07-31 Mitsubishi Heavy Ind Ltd Topography information acquisition device, topography information acquisition system, topography information acquisition method and program
JP2014185947A (en) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd Image photographing method for three-dimensional restoration
JP2017049883A (en) * 2015-09-03 2017-03-09 国際航業株式会社 Stereo pair image display device
US20190188902A1 (en) * 2017-12-19 2019-06-20 Sony Interactive Entertainment Inc. Determining pixel values using reference images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203940A (en) * 2007-02-16 2008-09-04 Hitachi Ltd 3D map display system, 3D map display method, and program thereof
JP2014139538A (en) * 2013-01-21 2014-07-31 Mitsubishi Heavy Ind Ltd Topography information acquisition device, topography information acquisition system, topography information acquisition method and program
JP2014185947A (en) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd Image photographing method for three-dimensional restoration
JP2017049883A (en) * 2015-09-03 2017-03-09 国際航業株式会社 Stereo pair image display device
US20190188902A1 (en) * 2017-12-19 2019-06-20 Sony Interactive Entertainment Inc. Determining pixel values using reference images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7706037B1 (en) * 2024-01-11 2025-07-10 ソニーセミコンダクタソリューションズ株式会社 Point cloud processing device and point cloud processing system
WO2025150362A1 (en) * 2024-01-11 2025-07-17 ソニーセミコンダクタソリューションズ株式会社 Point cloud processing device and point cloud processing system

Also Published As

Publication number Publication date
JP7558082B2 (en) 2024-09-30

Similar Documents

Publication Publication Date Title
JP7273927B2 (en) Image-based positioning method and system
KR102007567B1 (en) Stereo drone and method and system for calculating earth volume in non-control points using the same
US12254573B2 (en) Method and system for displaying and navigating an optimal multi-dimensional building model
JP5118787B1 (en) Orthorectification of oblique images joined to the direct view and their applications
KR100647807B1 (en) 3D building information extraction method through shadow analysis
EP3044726B1 (en) Landmark identification from point cloud generated from geographic imagery data
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
US20150172628A1 (en) Altering Automatically-Generated Three-Dimensional Models Using Photogrammetry
US20140362082A1 (en) Automated Overpass Extraction from Aerial Imagery
EP2910899A1 (en) A method and a system for building a three-dimensional model from satellite images
JP6854195B2 (en) Image processing device, image processing method and program for image processing
TW200935353A (en) Geospatial modeling system and related method using multiple sources of geographic information
CA3209009A1 (en) Computer vision systems and methods for supplying missing point data in point clouds derived from stereoscopic image pairs
JP6238101B2 (en) Numerical surface layer model creation method and numerical surface layer model creation device
KR101771492B1 (en) Method and system for mapping using UAV and multi-sensor
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
CN112862966B (en) Method, device, equipment and storage medium for constructing surface three-dimensional model
JP2022075583A (en) Method of generating map and image-based positioning system using the same
JP7558082B2 (en) Appropriate Image Selection System
US8509522B2 (en) Camera translation using rotation from device
JP2017201261A (en) Shape information generation system
JP2020008802A (en) Three-dimensional map generation device and three-dimensional map generation method
JP6606748B2 (en) Stereo pair image display device
KR102475790B1 (en) Map making Platform apparatus and map making method using the platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240917

R150 Certificate of patent or registration of utility model

Ref document number: 7558082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150