[go: up one dir, main page]

JP5517977B2 - Video shooting position specifying device and video display system using the same - Google Patents

Video shooting position specifying device and video display system using the same Download PDF

Info

Publication number
JP5517977B2
JP5517977B2 JP2011054169A JP2011054169A JP5517977B2 JP 5517977 B2 JP5517977 B2 JP 5517977B2 JP 2011054169 A JP2011054169 A JP 2011054169A JP 2011054169 A JP2011054169 A JP 2011054169A JP 5517977 B2 JP5517977 B2 JP 5517977B2
Authority
JP
Japan
Prior art keywords
video
representative point
mesh
shooting position
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011054169A
Other languages
Japanese (ja)
Other versions
JP2012189866A (en
Inventor
立 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011054169A priority Critical patent/JP5517977B2/en
Publication of JP2012189866A publication Critical patent/JP2012189866A/en
Application granted granted Critical
Publication of JP5517977B2 publication Critical patent/JP5517977B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

この発明は、航空機に搭載したカメラにて撮影した映像の撮影位置を特定できる映像撮影位置特定装置及びこれを用いた映像表示システムに関するものである。   The present invention relates to a video shooting position specifying device capable of specifying a shooting position of a video shot by a camera mounted on an aircraft, and a video display system using the same.

航空機で撮影した映像と地図情報とを統合して管理し、必要に応じて参照するシステムは、たとえば地域開発計画支援、災害対策計画立案支援などを目的として活用されている。
警察庁や消防庁等の保有するヘリコプターには、カメラが搭載されており、防災・事故・災害対策などを目的として、映像・地図情報統合システムが構築されている。
例えば、特許文献1には、空中で撮影された地表面の撮影映像の位置を3次元的に特定し、撮影された地表面の撮影範囲を計算して求め、その撮影位置に合わせて撮影映像を変形し、地図上に重ねて表示するシステムが記載されている。
これらは、ヘリテレシステムと呼ばれる。ヘリのフライト時に撮影された映像は、その撮影位置座標と同期させて地上側設備にて蓄積され、後で参照する機能を持つ。
A system that integrates and manages images taken with an aircraft and map information and refers to them as needed is used for the purpose of, for example, regional development plan support and disaster countermeasure plan planning support.
Helicopters owned by the National Police Agency and the Fire Department are equipped with cameras, and an integrated video / map information system has been built for disaster prevention, accidents, and disaster countermeasures.
For example, in Patent Document 1, the position of a photographed image of the ground surface photographed in the air is three-dimensionally specified, the photographing range of the photographed ground surface is calculated and obtained, and the photographed video is matched to the photographing position. Describes a system that transforms and overlays on a map.
These are called heli-telesystems. The video shot during the helicopter flight is stored in the ground side equipment in synchronization with the shooting position coordinates and has a function of referring to it later.

W02004/113836号公報(第5〜6頁、図1)W02004 / 113836 (pages 5-6, FIG. 1)

上述のような従来のヘリテレシステムにおいて、過去に蓄積した映像と撮影位置情報を参照する場合、その検索のキーとなるのは、撮影日時を利用するのが主であった。ある地域を撮影したフライトを参照したい、という場合、別の台帳を用いて探すか、その蓄積した映像に担当者が入力したコメントを頼りに探す、という方法しかなかった。
このように、従来では、撮影地点をキーとして過去の撮影映像を検索できないという問題があった。
また、特許文献1のものでは、撮影された地表面の撮影範囲を計算して求め、その撮影位置に合わせて撮影映像を変形し、地図上に重ねて表示するようになっているものの、重点的に撮影した撮影位置を特定するようになっておらず、このため、この特定された撮影位置をキーにして撮影映像を検索できるものではなかった。
In the conventional helicopter system as described above, when referring to the video and the shooting position information accumulated in the past, the key to search is mainly using the shooting date and time. If you wanted to see a flight that shot a certain area, you could only search using a different ledger or rely on comments entered by the person in charge for the stored video.
Thus, conventionally, there has been a problem that past photographed images cannot be searched using the photographing point as a key.
Moreover, in the thing of patent document 1, it calculates and calculates | requires the imaging | photography range of the image | photographed ground surface, deform | transforms a picked-up image according to the shooting position, and displays it on a map, Therefore, it is not possible to specify the shooting position where the shot was taken, and for this reason, it was not possible to search for a shot image using the specified shooting position as a key.

この発明は、上記のような課題を解決するためになされたものであり、航空機のフライト時に撮影した映像の撮影位置情報に基づいて、重点的に撮影した撮影位置を特定する映像撮影位置特定装置及びこれを用いた映像表示システムを得ることを目的としている。   The present invention has been made in order to solve the above-described problems, and is a video shooting position specifying device that specifies a shooting position that has been preferentially shot based on shooting position information of a video shot during flight of an aircraft. And an image display system using the same.

この発明に係わる映像撮影位置特定装置においては、航空機に搭載したカメラによって撮影された映像の撮影地点を示す緯度経度情報が複数記憶されている撮影位置データベース、所定の地域を予めメッシュに区分して作成されたメッシュテーブル、撮影位置データベースを参照して、映像の緯度経度情報を、座標位置に応じてメッシュテーブルの該当するメッシュに登録する撮影位置データ分類手段、及びこの撮影位置データ分類手段によって映像の緯度経度情報が登録されたメッシュテーブルを解析し、周囲のメッシュより映像の緯度経度情報の登録数が多いメッシュの座標を重点撮影位置である代表点の座標特定する代表点特定手段を備えたものである。 In the video shooting position specifying device according to the present invention, a shooting position database storing a plurality of latitude / longitude information indicating shooting points of a video shot by a camera mounted on an aircraft, a predetermined area is divided into meshes in advance. By referring to the created mesh table and shooting position database, the shooting position data classification means for registering the latitude and longitude information of each video in the corresponding mesh of the mesh table according to the coordinate position, and this shooting position data classification means Representative point specifying means for analyzing the mesh table in which the latitude / longitude information of the video is registered, and specifying the coordinates of the mesh having a larger number of registrations of the latitude / longitude information of the video than the surrounding meshes as the coordinates of the representative point that is the priority photographing position It is provided.

この発明は、以上説明したように、航空機に搭載したカメラによって撮影された映像の撮影地点を示す緯度経度情報が複数記憶されている撮影位置データベース、所定の地域を予めメッシュに区分して作成されたメッシュテーブル、撮影位置データベースを参照して、映像の緯度経度情報を、座標位置に応じてメッシュテーブルの該当するメッシュに登録する撮影位置データ分類手段、及びこの撮影位置データ分類手段によって映像の緯度経度情報が登録されたメッシュテーブルを解析し、周囲のメッシュより映像の緯度経度情報の登録数が多いメッシュの座標を重点撮影位置である代表点の座標特定する代表点特定手段を備えたので、代表点をキーとして過去に蓄積した映像情報の検索に使用することができるようになり、参照したい映像の取り出しを容易にすることができる。 As described above, the present invention is created by dividing a predetermined area into meshes in advance, a shooting position database storing a plurality of latitude and longitude information indicating shooting points of images shot by a camera mounted on an aircraft. Referring to the mesh table and the shooting position database, the shooting position data classifying means for registering the latitude / longitude information of each video in the corresponding mesh of the mesh table according to the coordinate position, and the shooting position data classifying means There is a representative point specifying means that analyzes the mesh table in which the latitude and longitude information is registered, and specifies the coordinates of the mesh that has a larger number of registered latitude and longitude information of the video than the surrounding mesh as the coordinates of the representative point that is the priority shooting position. So, it can be used to search for video information accumulated in the past using the representative point as a key and you want to refer to it. The extraction of the image can be facilitated.

この発明の実施の形態1による映像撮影位置特定装置を示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the image | video imaging position specification apparatus by Embodiment 1 of this invention. この発明の実施の形態1による映像撮影位置特定装置におけるメッシュテーブルの例を示す図である。It is a figure which shows the example of the mesh table in the image | video imaging position specific device by Embodiment 1 of this invention. この発明の実施の形態1による映像撮影位置特定装置における代表点算出機能を説明するための図である。It is a figure for demonstrating the representative point calculation function in the image | video imaging position specific device by Embodiment 1 of this invention. この発明の実施の形態1による映像撮影位置特定装置における代表点算出機能の代表点抽出結果の例を示す図である。It is a figure which shows the example of the representative point extraction result of the representative point calculation function in the video imaging position specifying device according to Embodiment 1 of the present invention. この発明の実施の形態1による映像撮影位置特定装置における代表点算出機能の処理結果である代表点のリストの例を示す図である。It is a figure which shows the example of the list | wrist of a representative point which is a processing result of the representative point calculation function in the video imaging position specifying device according to Embodiment 1 of the present invention. この発明の実施の形態2による映像撮影位置特定装置を示す構成図である。It is a block diagram which shows the image | video imaging position specification apparatus by Embodiment 2 of this invention. この発明の実施の形態2による映像撮影位置特定装置の代表点絞込み機能の具体例を示す図である。It is a figure which shows the specific example of the representative point narrowing-down function of the imaging | video imaging location specification apparatus by Embodiment 2 of this invention. この発明の実施の形態3による映像撮影位置特定装置を示す構成図である。It is a block diagram which shows the imaging | video imaging location specification apparatus by Embodiment 3 of this invention. この発明の実施の形態4及び実施の形態5による映像撮影位置特定装置を実装した映像表示システムを示す構成図である。It is a block diagram which shows the image | video display system which mounted the image | video imaging position specification apparatus by Embodiment 4 and Embodiment 5 of this invention.

実施の形態1.
以下、この発明の実施の形態1を図に基づいて説明する。
図1は、この発明の実施の形態1による映像撮影位置特定装置を示す構成図である。
図1において、映像撮影位置特定装置10は、記憶装置を有する計算機により、次のように構成されている。
撮影位置データリストデータベース1(撮影位置データベース)は、航空機での撮影時の撮影位置情報を、毎秒算出し、時系列に沿って保管したものであり、記憶装置に形成されている。メッシュテーブル3は、撮影地域を小さな範囲(メッシュ)に区分して、ある映像の毎秒の撮影位置情報がどのメッシュに含まれるかを数え上げるためのテーブルであり、記憶装置に格納されている。メッシュの区分は撮影地域の大きさや用途により変更可能である。
撮影位置データ分類機能2(撮影位置データ分類手段)は、処理の対象となるフライトの撮影範囲の情報から、処理に先立ってメッシュテーブル3を作成しておくものである。
代表点算出機能4(代表点特定手段)は、撮影位置データ分類機能2によって作成されたメッシュテーブル3から、複数の代表点を抽出する。撮影代表点データ5は、記憶装置に格納され、代表点算出機能4によって抽出された撮影代表点のリストを登録している。撮影代表点データ5に登録された代表点情報が、フライトの重要撮影位置となる。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a video shooting position specifying device according to Embodiment 1 of the present invention.
In FIG. 1, a video shooting position specifying device 10 is configured as follows by a computer having a storage device.
The shooting position data list database 1 (shooting position database) is obtained by calculating shooting position information at the time of shooting with an aircraft every second and storing it in time series, and is formed in a storage device. The mesh table 3 is a table for dividing the shooting area into small ranges (mesh) and counting up which mesh contains shooting position information per second of a certain video, and is stored in a storage device. The mesh division can be changed depending on the size and use of the shooting area.
The shooting position data classification function 2 (shooting position data classification means) creates the mesh table 3 prior to processing from information on the shooting range of the flight to be processed.
The representative point calculation function 4 (representative point specifying means) extracts a plurality of representative points from the mesh table 3 created by the photographing position data classification function 2. The representative photographing point data 5 is stored in a storage device, and a list of representative photographing points extracted by the representative point calculating function 4 is registered. The representative point information registered in the photographing representative point data 5 is the important photographing position of the flight.

図2は、この発明の実施の形態1による映像撮影位置特定装置におけるメッシュテーブルの例を示す図である。
図2において、メッシュテーブル3は、撮影地域を小さな範囲(メッシュ)に区分して、ある映像の毎秒の撮影位置情報が、どのメッシュに含まれるかを数え上げるためのテーブルである。緯度、経度の座標を有し、図では、緯度、経度とも0.01度単位のメッシュとして区切っている。それぞれのメッシュの初期値は0とする。
FIG. 2 is a diagram showing an example of a mesh table in the video photographing position specifying device according to Embodiment 1 of the present invention.
In FIG. 2, the mesh table 3 is a table for dividing the shooting area into small ranges (mesh) and counting up which mesh includes shooting position information per second of a video. It has latitude and longitude coordinates. In the figure, both latitude and longitude are separated as a unit of 0.01 degrees. The initial value of each mesh is 0.

図3は、この発明の実施の形態1による映像撮影位置特定装置における代表点算出機能を説明するための図である。
図3において、代表点算出機能4によってメッシュテーブル3が処理され、抽出された代表点を有するメッシュテーブル31が作成される。
FIG. 3 is a diagram for explaining a representative point calculation function in the video shooting position specifying device according to the first embodiment of the present invention.
In FIG. 3, the mesh table 3 is processed by the representative point calculation function 4 to create a mesh table 31 having the extracted representative points.

図4は、この発明の実施の形態1による映像撮影位置特定装置における代表点算出機能の代表点抽出結果の例を示す図である。
図4において、代表点算出機能4の処理によって抽出された代表点を有するメッシュテーブル31の例が示されている。
FIG. 4 is a diagram showing an example of the representative point extraction result of the representative point calculation function in the video shooting position specifying device according to Embodiment 1 of the present invention.
FIG. 4 shows an example of a mesh table 31 having representative points extracted by the processing of the representative point calculation function 4.

図5は、この発明の実施の形態1による映像撮影位置特定装置における代表点算出機能の処理結果である代表点のリストの例を示す図である。
図5において、撮影代表点データ5に登録された代表点リストであり、各代表点は、重要撮影位置の情報を有している。
FIG. 5 is a diagram showing an example of a list of representative points, which is a processing result of the representative point calculation function in the video shooting position specifying device according to the first embodiment of the present invention.
FIG. 5 is a list of representative points registered in the photographing representative point data 5, and each representative point has information on important photographing positions.

次に、動作について説明する。
航空機での撮影時の撮影位置情報は、撮影位置の緯度および経度の座標値で構成される。撮影位置緯度経度情報は、ヘリ搭載のGPS装置やカメラの角度パラメータ等により計算される。この計算方式は、例えば、特許文献1に記載されている。この計算は、一般には秒単位で行われ、毎秒の座標値が算出される。航空機での撮影時の撮影位置情報は、この毎秒の撮影位置情報を時系列に沿って、撮影位置データリストデータベース1に保管されている。
Next, the operation will be described.
The shooting position information at the time of shooting with an aircraft is composed of latitude and longitude coordinate values of the shooting position. The shooting position latitude / longitude information is calculated by a helicopter-mounted GPS device, an angle parameter of a camera, or the like. This calculation method is described in Patent Document 1, for example. This calculation is generally performed in seconds, and a coordinate value for each second is calculated. The shooting position information at the time of shooting with an aircraft is stored in the shooting position data list database 1 in a time series of the shooting position information per second.

メッシュテーブル3は、撮影地域を小さな範囲(メッシュ)に区分して、ある映像の毎秒の撮影位置情報が、どのメッシュに含まれるかを数え上げるためのテーブルであり、このメッシュの区分は、撮影地域の大きさや用途により変更可能である。
メッシュテーブル3は、撮影位置データ分類機能2によって、処理の対象となるフライトの撮影範囲の情報から、処理に先立って作成される。図2は、そのように作成したメッシュテーブル3の例を示している。ここでは、緯度、経度とも、0.01度単位のメッシュとして区切られている。それぞれのメッシュの初期値は0とする。
The mesh table 3 is a table for dividing the shooting area into small ranges (mesh) and counting which mesh includes shooting position information per second of a certain video. It can be changed according to the size and application.
The mesh table 3 is created by the shooting position data classification function 2 prior to processing from information on the shooting range of the flight to be processed. FIG. 2 shows an example of the mesh table 3 created as described above. Here, both latitude and longitude are divided as a mesh of 0.01 degree unit. The initial value of each mesh is 0.

次に、撮影位置データ分類機能2について説明する。
撮影位置データ分類機能2は、撮影位置データリストデータベース1の撮影位置データを時系列に沿って1つずつ読み出し、その緯度経度座標値に従って、メッシュテーブル3の中で、その座標値が含まれるメッシュの値に1を加算する。
図2は、フライト中の全ての撮影位置データにより計算されたメッシュテーブル3の事例である。
Next, the shooting position data classification function 2 will be described.
The shooting position data classification function 2 reads the shooting position data of the shooting position data list database 1 one by one along the time series, and in accordance with the latitude / longitude coordinate value, the mesh containing the coordinate value in the mesh table 3. 1 is added to the value of.
FIG. 2 shows an example of the mesh table 3 calculated from all shooting position data during the flight.

次に、代表点算出機能4について説明する。
代表点算出機能4は、撮影位置データ分類機能2によって作成されたメッシュテーブル3から、以下の手段によって、複数の代表点を抽出する。
(1)撮影位置データ分類機能2によって作成されたメッシュテーブル3と同じものであるメッシュテーブル31を代表点算出機能4の内部に用意する。
(2)メッシュテーブル3の各メッシュの値について、以下の処理を実施する。
(ア) そのメッシュの値が、0の場合は、メッシュテーブル31の同じ位置に0を代入する。
(イ) そのメッシュの値が、1以上の場合でかつ隣接する8方向の全てのメッシュの値よりもそのメッシュの値が大きい場合には、その値をメッシュテーブル31の同じ位置に代入する。
(ウ) 上記のいずれにも該当しない場合には、メッシュテーブル31の同じ位置に0を代入する。
Next, the representative point calculation function 4 will be described.
The representative point calculation function 4 extracts a plurality of representative points from the mesh table 3 created by the photographing position data classification function 2 by the following means.
(1) A mesh table 31 that is the same as the mesh table 3 created by the shooting position data classification function 2 is prepared inside the representative point calculation function 4.
(2) The following processing is performed for each mesh value in the mesh table 3.
(A) If the value of the mesh is 0, 0 is substituted into the same position in the mesh table 31.
(A) When the value of the mesh is 1 or more and the value of the mesh is larger than the values of all the adjacent meshes in the eight directions, the value is substituted into the same position in the mesh table 31.
(C) If none of the above applies, 0 is substituted into the same position of the mesh table 31.

この処理によって得られたメッシュテーブル31の例を図4に示す。
図4に示すように、メッシュテーブル31の中で1以上の値が代入されているメッシュを、その値の大きい順に並べ、その緯度経度の座標情報を重要な撮影代表点とする。
その撮影代表点のリストを撮影代表点データ5に登録する。撮影代表点データ5に登録された代表点情報が、このフライトの重要撮影位置となる。図5は、撮影代表点データ5に登録された重要撮影位置情報の例を示している。
An example of the mesh table 31 obtained by this processing is shown in FIG.
As shown in FIG. 4, meshes in which one or more values are substituted in the mesh table 31 are arranged in descending order of the values, and the coordinate information of the latitude and longitude is used as an important photographing representative point.
The list of photographing representative points is registered in the photographing representative point data 5. The representative point information registered in the photographing representative point data 5 is an important photographing position of this flight. FIG. 5 shows an example of important photographing position information registered in the photographing representative point data 5.

撮影位置データ分類機能2によるメッシュテーブル3のメッシュ値の算出のみでは、ある地域での撮影が集中した場合(図2中では緯度35.65度〜35.66度、経度139.48度〜139.52度付近)、そちらのメッシュ値に影響されて、値の大きい順に撮影代表点と決めて行った場合、もう一つの地域(図2の緯度35.59度〜35.60度、経度139.41度〜139.43度付近)を撮影地点として抽出することが困難となる。
実際、図2に示すメッシュの値を元に大きい順に並べると、その上位は全て緯度35.65度〜35.66度、経度139.48度〜139.52度付近のメッシュとなっており、場合によっては緯度35.59度〜35.60度、経度139.41度〜139.43度付近の撮影地点を拾い上げることができない。
By only calculating the mesh value of the mesh table 3 by the shooting position data classification function 2, when shooting in a certain area is concentrated (in FIG. 2, the latitude is 35.65 ° to 35.66 °, the longitude is 139.48 ° to 139). .About 52 degrees), when affected by the mesh value there and determined to be the photographing representative point in descending order of the value, another region (latitudes 35.59 to 35.60 degrees in FIG. 2 and longitude 139) It is difficult to extract as a photographing point.
In fact, when arranged in descending order based on the mesh values shown in FIG. 2, all of the upper ranks are meshes in the vicinity of latitudes 35.65 degrees to 35.66 degrees, longitudes 139.48 degrees to 139.52 degrees, In some cases, it is not possible to pick up a shooting point in the vicinity of latitudes 35.59 to 35.60 degrees and longitudes 139.41 to 139.43 degrees.

代表点算出機能4は、このような場合においても、もう一つの撮影地域を目立たせる役割を持っており、一つのフライトの中で、複数の重要撮影地点があった場合、それらを漏れなく拾い上げる効果を持っている。
撮影代表点データ5の重要撮影地点の情報を利用することで、従来の課題であった、撮影地域に着目したフライト情報(映像を含む)の検索と抽出が可能となる。
Even in such a case, the representative point calculation function 4 has a role of making another shooting area stand out. If there are a plurality of important shooting points in one flight, they are picked up without omission. Have an effect.
By using the information of the important photographing points in the photographing representative point data 5, it is possible to search and extract flight information (including video) that focuses on the photographing region, which has been a conventional problem.

実施の形態1によれば、一つのフライトの中で、複数の重要撮影地点がある場合にも、漏れなく拾い上げることができ、撮影地域に着目したフライト情報(映像を含む)の検索と抽出が可能となる。   According to the first embodiment, even when there are a plurality of important shooting points in one flight, it can be picked up without omission, and search and extraction of flight information (including video) focusing on the shooting area can be performed. It becomes possible.

実施の形態2.
この発明の実施の形態2について、図を用いて説明する。
図6は、この発明の実施の形態2による映像撮影位置特定装置を示す構成図である。
図6において、1〜5は図1におけるものと同一のものである。図6には、代表点算出機能4により抽出された代表点を絞込む代表点絞込み機能41(代表点補正手段)が設けられ、この代表点絞込み機能41の処理結果として絞込み後代表点データ51が、記憶装置に形成される。
Embodiment 2. FIG.
Embodiment 2 of the present invention will be described with reference to the drawings.
FIG. 6 is a block diagram showing a video shooting position specifying device according to Embodiment 2 of the present invention.
In FIG. 6, reference numerals 1 to 5 are the same as those in FIG. In FIG. 6, a representative point narrowing function 41 (representative point correcting means) for narrowing down the representative points extracted by the representative point calculating function 4 is provided. As a result of processing of the representative point narrowing function 41, representative point data 51 after narrowing down Is formed in the storage device.

図7は、この発明の実施の形態2による映像撮影位置特定装置の代表点絞込み機能の具体例を示す図である。
図7において、メッシュグループ60は、撮影代表点データ5に登録された、ある代表点61のメッシュグループである。代表点62は、代表点絞込み機能41によって絞り込まれたメッシュグループ60の代表点を示している。
FIG. 7 is a diagram showing a specific example of the representative point narrowing function of the video shooting position specifying device according to Embodiment 2 of the present invention.
In FIG. 7, the mesh group 60 is a mesh group of a certain representative point 61 registered in the photographing representative point data 5. A representative point 62 indicates a representative point of the mesh group 60 narrowed down by the representative point narrowing function 41.

次に、動作について説明する。
実施の形態2は、実施の形態1の後処理として実施される。
代表点絞込み機能41は、以下の処理を行い、各代表点を中心としたメッシュのグループを作成する。
(1)メッシュテーブル3に1以上の値が入っている全てのメッシュに対して、以下の処理を実施する。
(ア) 撮影代表点データ5に格納された全ての代表点の位置との距離を求める。
(イ) その距離が最小となる代表点を中心とするグループに、そのメッシュを割り当てる。
(ウ) もし距離が同一となる代表点が複数存在した場合は、それぞれ同一の割合で複数の代表点のグループに含めるものと考える。
Next, the operation will be described.
The second embodiment is implemented as a post process of the first embodiment.
The representative point narrowing function 41 performs the following process to create a mesh group centered on each representative point.
(1) The following processing is performed for all meshes having a value of 1 or more in the mesh table 3.
(A) The distances from the positions of all the representative points stored in the imaging representative point data 5 are obtained.
(A) Assign the mesh to a group centered on a representative point having the smallest distance.
(C) If there are a plurality of representative points having the same distance, it is assumed that they are included in a group of a plurality of representative points at the same rate.

(2)上記(1)の処理で各代表点を中心としたメッシュグループが作成できた。個々のメッシュグループに対して、以下の処理を行う。
(ア) メッシュグループ内の各メッシュの緯度経度およびそのメッシュの値からそのメッシュグループの重心の緯度経度を計算する。計算式は以下の通り。
(2) A mesh group centered on each representative point can be created by the processing of (1) above. The following processing is performed for each mesh group.
(A) Calculate the latitude and longitude of the center of gravity of the mesh group from the latitude and longitude of each mesh in the mesh group and the value of the mesh. The calculation formula is as follows.

Figure 0005517977
Figure 0005517977

ここでx,y,Mは、それぞれメッシュiの緯度、経度、値を示す。
この(P,P)をそのメッシュグループの重心とし、新しく絞り込んだ代表点とする。
上記の処理で絞り込んだ代表点の位置を、絞込み後代表点データ51に登録する。
Here, x i , y i , and M i indicate the latitude, longitude, and value of the mesh i, respectively.
This (P x , P y ) is used as the center of gravity of the mesh group, and a newly narrowed representative point.
The position of the representative point narrowed down by the above processing is registered in the representative point data 51 after narrowing down.

代表点絞込み機能41を実現することにより、航空機の振動やカメラ操作のブレなどにより、本当に撮影したい位置を中心として撮影位置が周囲にズレる状況を補正することが可能である。
図7にその効果を示す。撮影代表点データ5に登録された、ある代表点61のメッシュグループ60内のメッシュ値とその位置を考慮することで、より精度の高い代表点62の座標値を算出することができる。
By realizing the representative point narrowing function 41, it is possible to correct a situation in which the shooting position shifts to the periphery centering on the position where the shooting is really desired due to vibration of the aircraft or camera operation blur.
FIG. 7 shows the effect. By considering the mesh value in the mesh group 60 of a certain representative point 61 registered in the imaging representative point data 5 and its position, the coordinate value of the representative point 62 with higher accuracy can be calculated.

実施の形態2によれば、撮影代表点データの各代表点を、より精度の高い代表点とすることができ、航空機の振動やカメラ操作のブレなどにより、本当に撮影したい位置を中心として撮影位置が周囲にズレる状況を補正することが可能である。   According to the second embodiment, each representative point of the photographing representative point data can be made a more accurate representative point, and the photographing position is centered on the position where the photographing is really desired due to the vibration of the aircraft or camera shake. It is possible to correct the situation where the gap is around.

実施の形態3.
次に、実施の形態3について図を用いて説明する。
図8は、この発明の実施の形態3による映像撮影位置特定装置を示す構成図である。
図8において、1〜5は図1におけるものと同一のものである。図8では、代表点の住所を算出する住所算出機能42(住所算出手段)が設けられ、住所算出機能42により算出された代表点住所を代表点住所52に格納している。代表点住所52は、記憶装置に格納されている。
Embodiment 3 FIG.
Next, Embodiment 3 will be described with reference to the drawings.
FIG. 8 is a block diagram showing a video shooting position specifying device according to Embodiment 3 of the present invention.
In FIG. 8, 1 to 5 are the same as those in FIG. In FIG. 8, an address calculation function 42 (address calculation means) for calculating the address of the representative point is provided, and the representative point address calculated by the address calculation function 42 is stored in the representative point address 52. The representative point address 52 is stored in the storage device.

次に、動作について説明する。
実施の形態1または実施の形態2では、代表点のリストはその緯度経度座標として算出されていた。実施の形態3は、その後に住所算出機能42を設ける。
この住所算出機能42は、以下の処理を行う。
(1)実施の形態1では撮影代表点データ5の、実施の形態2では絞込み後代表点データ51の中に登録された代表点リストの全ての住所を算出する。
(2)代表点の中には、図5の1位と2位の代表点のように、実際は隣り合っており同一の住所として算出される場合がある。そのような住所が算出された場合は、それを一つのものと見なして、統合する。
上記の(1)(2)の処理の結果、抽出された住所情報を、代表点住所52に登録する。
Next, the operation will be described.
In the first embodiment or the second embodiment, the list of representative points is calculated as the latitude and longitude coordinates. In the third embodiment, an address calculation function 42 is provided thereafter.
The address calculation function 42 performs the following processing.
(1) All addresses in the representative point list registered in the representative point data 5 in the first embodiment and in the representative point data 51 after narrowing down in the second embodiment are calculated.
(2) Some representative points are actually adjacent and calculated as the same address as the first and second representative points in FIG. If such an address is calculated, it is considered as one and integrated.
The address information extracted as a result of the processes (1) and (2) is registered in the representative point address 52.

実施の形態3によれば、住所算出機能を設けることで、緯度経度のみで参照していた利用者に対して住所によるフライトの検索と抽出を可能にし、参照しやすさを向上させることができる。   According to the third embodiment, by providing an address calculation function, it is possible to search and extract a flight based on an address for a user who has been referred only by latitude and longitude, and to improve ease of reference. .

実施の形態4.
次に、実施の形態4について図を用いて説明する。
図9は、この発明の実施の形態4による映像撮影位置特定装置を実装した映像表示システムを示す構成図である。
図9において、映像表示システムは、映像装置101と、記憶装置100と、表示装置110とから構成されている。
映像装置101は、実施の形態1または実施の形態2または実施の形態3による映像撮影位置特定装置を実装している。記憶装置100は、映像装置101に接続され、フライトごとの映像情報とそれと同期した撮影位置情報、さらに実施の形態1〜実施の形態3で検出した重要撮影地点情報を保存している。表示装置110は、映像装置101からの情報を元に画像を表示する。
表示装置110には、地図情報を表示する地図表示画面113と、記憶装置100に蓄積されている映像のフライトの一覧を表示する蓄積映像リスト111とが表示される。表示装置110には、画面上の表示を指し示すためのポインティングデバイス115が接続されている。
Embodiment 4 FIG.
Next, Embodiment 4 will be described with reference to the drawings.
FIG. 9 is a block diagram showing a video display system in which a video shooting position specifying device according to Embodiment 4 of the present invention is mounted.
In FIG. 9, the video display system includes a video device 101, a storage device 100, and a display device 110.
The video apparatus 101 is mounted with the video shooting position specifying apparatus according to the first embodiment, the second embodiment, or the third embodiment. The storage device 100 is connected to the video device 101 and stores video information for each flight, shooting position information synchronized therewith, and important shooting point information detected in the first to third embodiments. The display device 110 displays an image based on information from the video device 101.
The display device 110 displays a map display screen 113 that displays map information, and a stored video list 111 that displays a list of flights of video stored in the storage device 100. The display device 110 is connected to a pointing device 115 for pointing the display on the screen.

利用者が、ポインティングデバイス115を用いて、表示装置110に表示された蓄積映像リスト111中から一つのフライト情報112を選択すると、地図表示画面113上にその重要撮影位置114が表示される。
この重要撮影位置114の表示を確認して、必要なフライトであったことを、画面上で確認することが可能である。
When the user selects one flight information 112 from the stored video list 111 displayed on the display device 110 by using the pointing device 115, the important photographing position 114 is displayed on the map display screen 113.
By confirming the display of the important photographing position 114, it is possible to confirm on the screen that the flight is necessary.

実施の形態4によれば、フライトを選択すると、地図表示画面上にそのフライトの重要撮影位置を表示するようにしたので、フライトを画面上で確認することができる。   According to the fourth embodiment, when a flight is selected, the important photographing position of the flight is displayed on the map display screen, so that the flight can be confirmed on the screen.

実施の形態5.
次に、実施の形態5について、図9を援用して説明する。
利用者が、映像表示システムを起動すると、記憶装置100に蓄積された複数のフライト情報の重要撮影位置114、116を地図表示画面113上に複数表示するようにした。
利用者は、ポインティングデバイス115を用いて、重要撮影位置114または重要撮影位置116を選択することで、その地域を撮影しているフライト情報(映像を含む)を参照することが可能である。
Embodiment 5 FIG.
Next, Embodiment 5 will be described with reference to FIG.
When the user activates the video display system, a plurality of important photographing positions 114 and 116 of a plurality of flight information accumulated in the storage device 100 are displayed on the map display screen 113.
The user can refer to flight information (including video) photographing the area by selecting the important photographing position 114 or the important photographing position 116 by using the pointing device 115.

実施の形態5によれば、地図表示画面上に表示された重要撮影位置から、その地域を撮影したフライト情報を参照することができる。   According to the fifth embodiment, it is possible to refer to flight information obtained by photographing the area from the important photographing position displayed on the map display screen.

1 撮影位置データリストデータベース
2 撮影位置データ分類機能
3 メッシュテーブル
4 代表点算出機能
5 撮影代表点データ
10 映像撮影位置特定装置
31 メッシュテーブル
41 代表点絞込み機能
51 絞込み後代表点データ
42 住所算出機能
52 代表点住所
60 メッシュグループ
61 代表点
62 代表点
100 記憶装置
101 映像装置
110 表示装置
111 蓄積映像リスト
112 フライト情報
113 地図表示画面
114 重要撮影位置
115 ポインティングデバイス
116 重要撮影位置
DESCRIPTION OF SYMBOLS 1 Shooting position data list database 2 Shooting position data classification function 3 Mesh table 4 Representative point calculation function 5 Shooting representative point data 10 Video shooting position specifying device 31 Mesh table 41 Representative point narrowing function 51 Refining representative point data 42 Address calculation function 52 Representative point address 60 Mesh group 61 Representative point 62 Representative point 100 Storage device 101 Video device 110 Display device 111 Accumulated video list 112 Flight information 113 Map display screen 114 Important shooting position 115 Pointing device 116 Important shooting position

Claims (5)

航空機に搭載したカメラによって撮影された映像の撮影地点を示す緯度経度情報が複数記憶されている撮影位置データベース、
所定の地域を予めメッシュに区分して作成されたメッシュテーブル、
上記撮影位置データベースを参照して、上記映像の緯度経度情報を、座標位置に応じて上記メッシュテーブルの該当するメッシュに登録する撮影位置データ分類手段、
及びこの撮影位置データ分類手段によって上記映像の緯度経度情報が登録された上記メッシュテーブルを解析し、周囲のメッシュより上記映像の緯度経度情報の登録数が多いメッシュの座標を重点撮影位置である代表点の座標特定する代表点特定手段を備えたことを特徴とする映像撮影位置特定装置。
A shooting position database in which a plurality of latitude and longitude information indicating the shooting points of images shot by a camera mounted on an aircraft are stored ,
A mesh table created by dividing a predetermined area into meshes in advance,
With reference to the shooting position database, shooting position data classification means for registering the latitude and longitude information of each video in the corresponding mesh of the mesh table according to the coordinate position;
And the mesh table in which the latitude / longitude information of the video is registered by the shooting position data classifying means, and the coordinates of the mesh having the registered number of the latitude / longitude information of the video are larger than the surrounding meshes as representative focus shooting positions. A video shooting position specifying device comprising a representative point specifying means for specifying the coordinates of a point.
上記代表点特定手段により特定された代表点について、当該代表点を中心とするメッシュグループを上記メッシュテーブル内に形成し、この形成したメッシュグループ内の重心を上記映像の緯度経度情報の登録状況に基づいて算出し、この算出結果により当該代表点の座標位置を補正する代表点補正手段を備えたことを特徴とする請求項1記載の映像撮影位置特定装置。   For the representative point specified by the representative point specifying means, a mesh group centered on the representative point is formed in the mesh table, and the center of gravity in the formed mesh group is used as the registration status of the latitude and longitude information of the video. 2. The video shooting position specifying device according to claim 1, further comprising: a representative point correcting unit that calculates the position of the representative point based on the calculation result based on the calculation result. 上記代表点特定手段により特定された代表点の住所を算出する住所算出手段を備えたことを特徴とする請求項1または請求項2記載の映像撮影位置特定装置。   3. The video shooting position specifying device according to claim 1, further comprising address calculating means for calculating an address of the representative point specified by the representative point specifying means. 請求項1〜請求項3のいずれか一項に記載の映像撮影位置特定装置、
航空機に搭載したカメラによって撮影された映像をフライトごとに格納した記憶装置、
及び地図画面及び上記記憶装置に記憶されたフライトごとの映像のリストを表示する表示装置を備え、
上記表示装置は、上記フライトごとの映像のリストのうちの一つが選択されることにより、この選択されたフライトの上記代表点を上記地図画面上に表示することを特徴とする映像表示システム。
The video shooting position specifying device according to any one of claims 1 to 3,
A storage device that stores images shot by a camera mounted on an aircraft for each flight,
And a display device for displaying a map screen and a list of videos for each flight stored in the storage device,
The display device displays the representative point of the selected flight on the map screen when one of the lists of videos for each flight is selected.
上記表示装置の起動時には複数のフライトの複数の代表点が上記地図画面上に表示され、この表示された代表点のいずれかが選択されることにより、この選択された代表点を撮影したフライトが参照されることを特徴とする請求項4記載の映像表示システム。   When the display device is started up, a plurality of representative points of a plurality of flights are displayed on the map screen, and one of the displayed representative points is selected, so that a flight that captured the selected representative point is displayed. The video display system according to claim 4, which is referred to.
JP2011054169A 2011-03-11 2011-03-11 Video shooting position specifying device and video display system using the same Active JP5517977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011054169A JP5517977B2 (en) 2011-03-11 2011-03-11 Video shooting position specifying device and video display system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011054169A JP5517977B2 (en) 2011-03-11 2011-03-11 Video shooting position specifying device and video display system using the same

Publications (2)

Publication Number Publication Date
JP2012189866A JP2012189866A (en) 2012-10-04
JP5517977B2 true JP5517977B2 (en) 2014-06-11

Family

ID=47083076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011054169A Active JP5517977B2 (en) 2011-03-11 2011-03-11 Video shooting position specifying device and video display system using the same

Country Status (1)

Country Link
JP (1) JP5517977B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302870A (en) * 2015-09-30 2016-02-03 百度在线网络技术(北京)有限公司 Automatic discovery method and device of gas station POI (Point Of Interest)
CN110234563B (en) * 2017-04-28 2022-04-15 深圳市元征科技股份有限公司 Automatic driving method and device for disaster relief vehicle
CN111353368A (en) * 2019-08-19 2020-06-30 深圳市鸿合创新信息技术有限责任公司 Pan-tilt camera, face feature processing method and device and electronic equipment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4518347B2 (en) * 1999-11-24 2010-08-04 カシオ計算機株式会社 Camera apparatus and photographing position information display method
JP4457660B2 (en) * 2003-12-12 2010-04-28 パナソニック株式会社 Image classification apparatus, image classification system, program relating to image classification, and computer-readable recording medium storing the program
US7663671B2 (en) * 2005-11-22 2010-02-16 Eastman Kodak Company Location based image classification with map segmentation
JP4835135B2 (en) * 2005-12-06 2011-12-14 ソニー株式会社 Image display device, image display method, and program
JP4623088B2 (en) * 2007-11-30 2011-02-02 ソニー株式会社 MAP DISPLAY DEVICE, MAP DISPLAY METHOD, AND IMAGING DEVICE
JP4975003B2 (en) * 2008-11-20 2012-07-11 三菱電機株式会社 Target position specifying apparatus and target position specifying method
CN102483763B (en) * 2009-11-04 2013-09-25 松下电器产业株式会社 Information classification device, information classification method and program thereof

Also Published As

Publication number Publication date
JP2012189866A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP7480823B2 (en) Information processing device, information processing method, and program
US9529803B2 (en) Image modification
JP2016018463A (en) State change management system and state change management method
JP6397617B2 (en) Method and apparatus for removing shadows from aerial or satellite photographs
JP7332353B2 (en) Inspection system and inspection method
CN103262530B (en) Video monitoring devices
CN107690673A (en) Image processing method and device and server
US10999556B2 (en) System and method of video capture and search optimization
US9836826B1 (en) System and method for providing live imagery associated with map locations
CN104751531A (en) Patrol control apparatus, system and method thereof
JP2016039390A (en) Image generation method and apparatus
JP5517977B2 (en) Video shooting position specifying device and video display system using the same
JP5338978B2 (en) Image processing apparatus and image processing program
JP2011169658A (en) Device and method for pinpointing photographed position
JP6349043B2 (en) Surveillance system and image processing method
CN113032499B (en) Auxiliary display, auxiliary marking method, device, equipment and medium for ground object information
JP2020021465A (en) Inspection system and inspection method
KR102343123B1 (en) Tracking management System based on photodata for construction field
JP5932107B2 (en) Image processing server and imaging apparatus
JP2019020914A (en) Object identifying system
CN105096264B (en) Processing equipment and processing method
JP6474859B2 (en) Portable terminal, control program, and control method
KR101714174B1 (en) Structure image management method, image processing apparatus, and image inquiry apparatus
WO2025095022A1 (en) Information processing method, information processing device, and information processing program
JP6498369B2 (en) Construction photo management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140401

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250