JP2016208294A - Multiple-image photographing system, photographing apparatus, and image processing apparatus - Google Patents
Multiple-image photographing system, photographing apparatus, and image processing apparatus Download PDFInfo
- Publication number
- JP2016208294A JP2016208294A JP2015088279A JP2015088279A JP2016208294A JP 2016208294 A JP2016208294 A JP 2016208294A JP 2015088279 A JP2015088279 A JP 2015088279A JP 2015088279 A JP2015088279 A JP 2015088279A JP 2016208294 A JP2016208294 A JP 2016208294A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- image
- unit
- photographing
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Machines For Laying And Maintaining Railways (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラで被写体を連続的に撮影し、1枚の画像に合成するマルチ画像撮影システム、撮影装置および画像処理装置に関する。 The present invention relates to a multi-image photographing system, a photographing device, and an image processing device that continuously photograph a subject with a camera and combine them into one image.
近年、高度成長期に建築された橋梁やトンネルなどの構造物が耐用年数に達し始めたため、これら構造物の損傷状態を点検し、修復や補修の必要性を判定する必要性が増大している。従来の構造物の損傷状態の点検に於いて、点検作業員が路上から構造物を点検できない場合には、足場を組んだり、橋梁点検車のクレーンの先にあるデッキに乗り込んだりして、点検作業員が高所や橋の下などの点検対象の近くに行って目視で観察していた。しかし、近年では、足場を組む費用の削減と点検作業員の安全性確保のため、カメラ撮影による観察技術が導入されてきている。 In recent years, structures such as bridges and tunnels built during the period of high growth have reached the end of their useful lives, and there is an increasing need to check the damage status of these structures and determine the need for repairs and repairs. . In the conventional inspection of the damaged state of the structure, if the inspection worker cannot inspect the structure from the road, check the structure by building a scaffold or getting on the deck at the end of the crane of the bridge inspection car. An operator went near the inspection object such as a high place or under a bridge and observed it visually. However, in recent years, observation techniques based on camera photography have been introduced to reduce the cost of building a scaffold and ensure the safety of inspection workers.
構造物の損傷状態の点検では、点検範囲の面積は、例えば数[m]〜数十[m]と広く、点検すべき亀裂幅は、例えば髪の毛よりも細い0.2[mm]幅などのように細かい。単一の撮影画像では、広範囲を撮影すると解像度が不足する。一方、解像度を高くすると狭い範囲しか撮影できない。そこで、カメラ撮影による観察技術では、一台のカメラを移動したり、複数のカメラ(マルチカメラ)を組み合わせて移動したりして、撮影した複数の高解像度の画像を合成して観察することが必要となる。上記では広大な建築構造物の小さなひび割れを確認する状況について示したが、他の分野でも、大型製品や大型の芸術品などの微細な構造や傷などの分析を広大な表面に亘り撮影する場合には同様のニーズがある。 In the inspection of the damage state of the structure, the area of the inspection range is wide, for example, several [m] to several tens [m], and the crack width to be inspected is, for example, 0.2 [mm] narrower than the hair. So fine. In a single photographed image, the resolution is insufficient when photographing a wide area. On the other hand, if the resolution is increased, only a narrow range can be photographed. Therefore, in the observation technique based on camera photography, a single camera can be moved or a combination of multiple cameras (multi-cameras) can be used to synthesize and observe a plurality of high-resolution images taken. Necessary. The above shows the situation where small cracks in a vast building structure are confirmed. However, in other fields, analysis of fine structures and scratches of large products and large art objects is taken over a vast surface. Have similar needs.
複数のカメラで撮影した画像を1枚の高解像度な画像に合成する方法には、例えば、特許文献1に記載の技術がある。特許文献1には、隣接した複数の撮影領域を有する複数の撮影手段で共通画像領域にマーカを付与した画像群とマーカ無しの画像群を取得して、マーカ画像から算出した画像間の繋ぎ合わせ用の補正パラメータをマーカ無し画像に適用することでマーカ無し画像群を合成することが記載されている。さらに、請求項7には、移動方向で撮影領域の前部に付着性のマーカを付与する前と後の画像群を取得し、その付着性のマーカが撮影領域の後部となるようにカメラを移動して撮影した画像群を取得して、これらの画像群から画像繋ぎ合わせ補正パラメータを算出して、マーカ無しの画像合成することが記載されている。 As a method for synthesizing images taken by a plurality of cameras into one high-resolution image, for example, there is a technique described in Patent Document 1. In Patent Document 1, a group of images obtained by adding a marker to a common image region and a group of images without a marker are acquired by a plurality of photographing units having a plurality of adjacent photographing regions, and the images calculated from the marker image are joined together. It is described that a markerless image group is synthesized by applying a correction parameter for use to a markerless image. Further, the present invention acquires a group of images before and after attaching an adhesive marker to the front part of the imaging region in the moving direction, and sets the camera so that the adhesive marker is the rear part of the imaging region. It is described that an image group captured by moving is acquired, an image stitching correction parameter is calculated from these image groups, and an image without a marker is synthesized.
特許文献1の請求項7に関しては、マーカ無し画像を撮影した後に、撮影領域の前半部分にマーカを付着させるマーカ付与手段によりマーカを付着させた画像を撮影する手法について、図15に外観図、図16に概略構成図を用いて、[0001]〜[0002]に記載されている。具体的には、カメラと一体化したマーカ付与手段の構成で、マーカ付与は付着液滴マーカをカメラの脇のノズルから吐出して被写体上の目標位置に液滴マーカを付着させる構成をとっている。 With regard to claim 7 of Patent Document 1, after photographing a markerless image, an external view is shown in FIG. 15 for a method of photographing an image with a marker attached by a marker applying means for attaching a marker to the first half of the photographing region. This is described in [0001] to [0002] using a schematic configuration diagram in FIG. Specifically, the marker applying means is integrated with the camera, and the marker applying is configured such that the attached droplet marker is ejected from the nozzle on the side of the camera and attached to the target position on the subject. Yes.
上述した従来技術は、液滴マーカを被写体に付着させる構成である。したがって、撮影精度の向上のため、より一層、マーカを目立ちやすく、位置ずれが生じにくく、かつ、被写体の表面状態を変えないようにする必要がある。本発明は、周囲よりも高輝度なマーカを被写体に付与して画像合成の高精度化を図ることを目的とする。 The prior art described above is a configuration in which a droplet marker is attached to a subject. Therefore, in order to improve the photographing accuracy, it is necessary to make the marker more conspicuous, less likely to be displaced, and not to change the surface state of the subject. SUMMARY OF THE INVENTION An object of the present invention is to provide a marker with higher brightness than the surroundings to a subject to improve the accuracy of image composition.
本願において開示される発明の一側面となるマルチ画像撮影システムは、撮影装置と画像処理装置を有するマルチ画像撮影システムであって、前記撮影装置は、撮影領域の被写体を撮影する少なくとも一つのカメラを有するカメラ装置と、隣接する前記撮影領域が重複する共通領域に前記被写体の輝度よりも高輝度な少なくとも1つのマーカを付与するマーカ付与装置と、前記カメラ装置および前記マーカ付与装置を所定の移動方向に、それぞれ独立して断続的に移動または停止するように移動制御し、かつ、前記マーカ付与装置による前記マーカの付与と前記カメラ装置による撮影とのタイミングを制御する制御部と、を有し、前記制御部は、前記撮影領域における前記移動方向の最前部に前記マーカが配置されるように、前記マーカ付与装置を移動して停止させ、前記カメラ装置により前記撮影領域を撮影させる第1の制御処理と、前記撮影領域の前記移動方向に隣接し、かつ、前記撮影領域との共通領域に前記マーカが含まれる次の撮影領域が撮影可能となるように前記カメラ装置を前記撮影領域の撮影位置から前記移動方向に移動して停止させ、前記カメラ装置により前記次の撮影領域を撮影させる第2の制御処理と、を交互に実行し、前記画像処理装置は、前記撮影装置によって撮影された撮影画像群のマーカ像の共通の定義により一意に指定される位置の座標値をマーカ像の座標値として抽出する抽出部と、前記撮影画像群の中の第1の撮影領域を撮影した第1の撮影画像と前記第1の撮影領域に対し前記次の撮影領域となる第2の撮影領域を撮影した第2の撮影画像との組み合わせごとに、前記第1の撮影領域と前記第2の撮影領域との共通領域に付与された同一のマーカについて、前記抽出部によって、前記第1の撮影画像から抽出された第1のマーカ像の座標値と、前記第2の撮影画像から抽出された第2のマーカ像の座標値と、に基づいて、前記第1の撮影画像と前記第2の撮影画像とを合成する補正値を算出する算出部と、前記算出部によって算出された補正値を用いて、前記第1の撮影画像から前記共通領域の画像を除いた画像と、前記第2の撮影画像から前記共通領域の画像を除いた画像と、前記第1の撮影画像および前記第2の撮影画像のうちいずれか一方の撮影画像の前記撮影領域であり、かつ、前記マーカ像が存在しない残余の画像と、を合成する合成部と、を有することを特徴とする。 A multi-image shooting system according to one aspect of the invention disclosed in the present application is a multi-image shooting system including a shooting device and an image processing device, and the shooting device includes at least one camera for shooting a subject in a shooting area. A camera-providing device, a marker-providing device that imparts at least one marker having a luminance higher than the luminance of the subject to a common area where the adjacent imaging regions overlap, and a predetermined moving direction of the camera device and the marker-applying device. And a control unit that controls movement so as to move or stop each independently intermittently, and controls timing of the marker application by the marker application device and photographing by the camera device, The control unit adds the marker so that the marker is arranged at the forefront part of the moving direction in the imaging region. The marker is included in a common area that is adjacent to the moving direction of the imaging area and the imaging area, and the first control process of moving the camera to stop and capturing the imaging area by the camera device A second control process in which the camera device is moved from the shooting position of the shooting area in the moving direction to stop so that the next shooting area can be shot, and the next shooting area is shot by the camera device. Are alternately executed, and the image processing apparatus extracts the coordinate value of the position uniquely specified by the common definition of the marker image of the captured image group captured by the imaging apparatus as the coordinate value of the marker image. An extraction unit, a first photographed image obtained by photographing a first photographing region in the photographed image group, and a second photographed region that is the second photographing region with respect to the first photographing region. Images taken The first marker extracted from the first photographed image by the extraction unit with respect to the same marker given to the common area of the first photographing area and the second photographing area for each combination Based on the coordinate value of the image and the coordinate value of the second marker image extracted from the second photographed image, a correction value for combining the first photographed image and the second photographed image is obtained. An image obtained by removing the image of the common area from the first photographed image and an image of the common area from the second photographed image using the calculation unit to calculate, and the correction value calculated by the calculation unit. Combining the removed image with the remaining image that is the shooting region of one of the first and second captured images and does not have the marker image And a portion.
本発明の代表的な実施の形態によれば、周囲よりも高輝度なマーカを被写体に付与して画像合成の高精度化を図ることができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。 According to the representative embodiment of the present invention, it is possible to improve the accuracy of image composition by providing a marker with a higher brightness than the surroundings to a subject. Problems, configurations, and effects other than those described above will become apparent from the description of the following embodiments.
以降、本発明の実施例を、各図を参照して詳細に説明する。各実施例では、例として、被写体構造物としてのコンクリート構造物の表面の亀裂などを、カメラを移動しながら表面を撮影する場合を示す。各実施例では、撮影装置と画像処理装置とを含んだマルチ画像撮影システムを例に挙げて説明するが、撮影装置と画像処理装置とは独立した構成であってもよい。すなわち、画像処理装置と有線通信または無線通信で接続して、撮影装置による撮影後に撮影装置で撮影された画像を撮影現場から離れた地点の画像処理装置に送信してもよい。また、撮影装置にUSBメモリなどの可搬型記憶媒体を接続して撮影画像を可搬型記憶媒体に格納させ、撮影画像を格納した可搬型記憶媒体を画像処理装置に接続することで、画像処理装置が撮影画像を取得することとしてもよい。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, as an example, a case where a surface of a concrete structure as a subject structure is photographed while moving the camera is shown. In each embodiment, a multi-image photographing system including a photographing device and an image processing device will be described as an example. However, the photographing device and the image processing device may be configured independently. In other words, the image processing apparatus may be connected to the image processing apparatus via wired or wireless communication, and an image captured by the image capturing apparatus after image capturing by the image capturing apparatus may be transmitted to the image processing apparatus at a point away from the shooting site. Further, by connecting a portable storage medium such as a USB memory to the photographing apparatus to store the photographed image in the portable storage medium, and connecting the portable storage medium storing the photographed image to the image processing apparatus, the image processing apparatus It is good also as acquiring a picked-up image.
また、以下の説明において、同一構成要素が複数存在する場合には、その符号に枝番がつけられる。マーカ31を例に挙げると、マーカ31が2個ある場合は、マーカ31−1、マーカ31−2のように分けて表記する。なお、説明上、複数の同一構成要素を区別しない場合は枝番を省略して、たとえば、マーカ31と表記する。 Further, in the following description, when there are a plurality of identical constituent elements, branch numbers are given to the reference numerals. Taking the marker 31 as an example, if there are two markers 31, they are shown separately as a marker 31-1 and a marker 31-2. In addition, for the sake of explanation, when a plurality of identical components are not distinguished, the branch number is omitted, and for example, the marker 31 is described.
また、時系列な同一構成要素にもその符号に枝番がつけられる。この場合の枝番において「1」は初期位置を示す。マーカ31−1を例に挙げると、時系列順に、マーカ31−1−1、31−1−2、…、31−1−n、31−1−(n+1)、…と表記する。なお、nは、移動の時系列を示す値で、1以上の整数である。 Also, branch numbers are assigned to the same components in time series. In the branch number in this case, “1” indicates the initial position. Taking the marker 31-1 as an example, the markers 31-1-1, 31-1-2,..., 31-1-n, 31-1- (n + 1),. Note that n is a value indicating a time series of movement and is an integer of 1 or more.
<マルチ画像撮影システムの外観>
図1A〜図1Gは、実施例1におけるマルチ画像撮影システムの外観例を示す説明図である。図1Aはマルチ画像撮影システムの平面図、図1Bはマルチ画像撮影システムの側面図、図1Cはマルチ画像撮影システムの正面図、図1Dはカメラ部基本部の平面図、図1Eはカメラ部増設部の平面図、図1Fはマーカ付与部基本部の平面図、図1Gはマーカ付与部増設部の平面図である。
<Appearance of multi-image shooting system>
1A to 1G are explanatory diagrams illustrating an example of an appearance of a multi-image shooting system according to the first embodiment. 1A is a plan view of the multi-image shooting system, FIG. 1B is a side view of the multi-image shooting system, FIG. 1C is a front view of the multi-image shooting system, FIG. 1D is a plan view of the basic part of the camera unit, and FIG. FIG. 1F is a plan view of the basic part of the marker applying unit, and FIG. 1G is a plan view of the additional unit of the marker applying unit.
マルチ画像撮影システム1は、たとえば、二本の軌道レール105−1、105−2を跨ぎ移動する。軌道レール105−1、105−2は、マルチ画像撮影システム1の構成要素ではない。軌道レール105−1に装着した移動処理部132およびカメラ部誘導部134と、移動処理部132およびカメラ部誘導部134を連結するアームと、により、カメラ部基本部140が構成される。カメラ部基本部140は、撮影範囲の幅に必要に応じてカメラ部増設部141を繋ぎ合わせた構成をとる(図1Dを参照。)。 The multi-image capturing system 1 moves over, for example, two track rails 105-1 and 105-2. The track rails 105-1 and 105-2 are not components of the multi-image photographing system 1. The movement processing unit 132 and the camera unit guiding unit 134 mounted on the track rail 105-1 and the arm connecting the movement processing unit 132 and the camera unit guiding unit 134 constitute a camera unit basic unit 140. The camera unit basic unit 140 has a configuration in which the camera unit extension unit 141 is connected to the width of the shooting range as necessary (see FIG. 1D).
図1Aの例では、カメラ部基本部140に3台のカメラ部増設部141が接続される。3台のカメラ部増設部141の各々には、カメラ2−1〜2−3が配置される。カメラ2−1〜2−3は、撮影領域113−1〜113−3を撮影する。 In the example of FIG. 1A, three camera unit expansion units 141 are connected to the camera unit basic unit 140. Cameras 2-1 to 2-3 are arranged in each of the three camera unit expansion units 141. The cameras 2-1 to 2-3 shoot the shooting areas 113-1 to 113-3.
図1Fにおいて、マーカ付与部130は、マーカ付与部基本部145とマーカ付与部増設部146とを有する。本例では、3組のマーカ付与部基本部145およびマーカ付与部増設部146がマーカ付与部130を構成する。3組のマーカ付与部基本部145およびマーカ付与部増設部146は、移動処理部133およびマーカ誘導部135上に構成される。 In FIG. 1F, the marker assigning unit 130 includes a marker assigning unit basic unit 145 and a marker assigning unit additional unit 146. In this example, the three marker assignment unit basic units 145 and the marker addition unit extension unit 146 constitute the marker addition unit 130. The three sets of marker providing unit basic unit 145 and marker adding unit adding unit 146 are configured on the movement processing unit 133 and the marker guiding unit 135.
マーカ台増設時は、マーカレーザ131−1〜131−4が追加される。マーカレーザ131−1〜131−4は、カメラ2−1〜2−3の配列方向に沿って、カメラ2−1〜2−3と交互に配置される。より具体的には、マーカレーザ131−1、131−2は、撮影領域113−1上のカメラ2−1〜2−3の配列方向の両端に、マーカ31−1,31−2を形成するように配置される。「マーカ」はマーカレーザからのレーザ光によって撮影領域に形成されるビームスポットである。 When the marker base is added, marker lasers 131-1 to 131-4 are added. The marker lasers 131-1 to 131-4 are alternately arranged with the cameras 2-1 to 2-3 along the arrangement direction of the cameras 2-1 to 2-3. More specifically, the marker lasers 131-1 and 131-2 form the markers 31-1 and 31-2 at both ends in the arrangement direction of the cameras 2-1 to 2-3 on the imaging region 113-1. Placed in. A “marker” is a beam spot formed in an imaging region by laser light from a marker laser.
マーカレーザ131−2、131−3は、撮影領域113−2上のカメラ2−1〜2−3の配列方向の両端に、マーカ31−2,31−3を形成するように配置される。マーカレーザ131−3、131−4は、撮影領域113−3上のカメラ2−1〜2−3の配列方向の両端に、マーカ31−3,31−4を形成するように配置される。マーカレーザ131−2は、マーカ31−2が撮影領域113−2、113−2の重複領域に形成されるように、配置される。マーカレーザ131−3は、マーカ31−3が撮影領域113−2、113−3の重複領域に形成されるように配置される。 The marker lasers 131-2 and 131-3 are arranged so as to form the markers 31-2 and 31-3 at both ends in the arrangement direction of the cameras 2-1 to 2-3 on the imaging region 113-2. The marker lasers 131-3 and 131-4 are arranged so as to form markers 31-3 and 31-4 at both ends in the arrangement direction of the cameras 2-1 to 2-3 on the imaging region 113-3. The marker laser 131-2 is arranged so that the marker 31-2 is formed in an overlapping area of the imaging areas 113-2 and 113-2. The marker laser 131-3 is arranged so that the marker 31-3 is formed in an overlapping area of the imaging areas 113-2 and 113-3.
マルチ画像撮影システム1は、さらに、制御部7と、電源136と、画像処理装置9と、を有する。制御部7、電源136、および画像処理装置9は、電源・通信ケーブル137により接続されている。また、制御部7は、電源・通信ケーブル137により、撮影装置5と接続されている。制御部7は、撮影装置5に含まれる移動処理部132および移動処理部133の移動と停止、カメラ2による撮影、やマーカレーザ131の点灯、消灯などを制御する。電源136は、マルチ画像撮影システム1における種々の動作に必要な電源を供給する。画像処理装置9は、撮影画像を画像処理する。 The multi-image shooting system 1 further includes a control unit 7, a power source 136, and an image processing device 9. The control unit 7, the power source 136, and the image processing apparatus 9 are connected by a power source / communication cable 137. Further, the control unit 7 is connected to the photographing apparatus 5 by a power / communication cable 137. The control unit 7 controls the movement and stop of the movement processing unit 132 and the movement processing unit 133 included in the photographing apparatus 5, photographing by the camera 2, lighting and extinguishing of the marker laser 131, and the like. The power source 136 supplies power necessary for various operations in the multi-image photographing system 1. The image processing device 9 performs image processing on the captured image.
また、軌道レール105−1の前方には、反射板106が設置されている。反射板106は、移動処理部132の位置を計測するためのレーザ距離計測に利用する側距レーザ光107を反射する。反射板106は、マルチ画像撮影システム1の構成要素ではない。 A reflector 106 is installed in front of the track rail 105-1. The reflector 106 reflects the lateral laser beam 107 used for laser distance measurement for measuring the position of the movement processing unit 132. The reflector 106 is not a component of the multi-image shooting system 1.
<撮影装置5の移動機構の構成例>
図2は、実施例1における撮影装置5の移動機構の構成例を示す説明図である。図2では、撮影装置5は、移動処理部132と移動処理部133とを有する。移動処理部132と移動処理部133はそれぞれ、駆動モータ151と、歯車152と、駆動車輪153と、ブレーキ154と、制御IF155と、誘導車輪156−1〜156−5と、を有する。歯車152は、駆動モータ151の力を駆動車輪153に伝える。ブレーキ154は、停止時に軌道レール105−1に固定する。制御IF155は、一連の動作の制御や制御部7との通信を行う回路を含む。誘導車輪156−1〜156−3は、軌道レール105−1に対して水平方向の位置を支持する。誘導車輪156−4,156−5は、垂直方向の位置を支持する。
<Configuration Example of Moving Mechanism of Imaging Device 5>
FIG. 2 is an explanatory diagram illustrating a configuration example of a moving mechanism of the photographing apparatus 5 according to the first embodiment. In FIG. 2, the photographing apparatus 5 includes a movement processing unit 132 and a movement processing unit 133. Each of the movement processing unit 132 and the movement processing unit 133 includes a drive motor 151, a gear 152, a drive wheel 153, a brake 154, a control IF 155, and guide wheels 156-1 to 156-5. The gear 152 transmits the force of the drive motor 151 to the drive wheel 153. The brake 154 is fixed to the track rail 105-1 when stopped. The control IF 155 includes a circuit that controls a series of operations and performs communication with the control unit 7. The guide wheels 156-1 to 156-3 support the position in the horizontal direction with respect to the track rail 105-1. The guide wheels 156-4 and 156-5 support the position in the vertical direction.
移動処理部133には、レーザ距離計測部157がある。レーザ距離計測部157は、図1の軌道レール105−1の前方に設置された反射板106に側距レーザ光107を照射して、相対位置をmm精度で測定する。レーザ距離計測部157は、移動処理部133の移動距離の制御や位置情報の取得に利用される。 The movement processing unit 133 includes a laser distance measurement unit 157. The laser distance measuring unit 157 irradiates the reflecting plate 106 installed in front of the track rail 105-1 of FIG. 1 with the side distance laser beam 107, and measures the relative position with mm accuracy. The laser distance measurement unit 157 is used to control the movement distance of the movement processing unit 133 and to acquire position information.
また、移動処理部133と移動処理部132は、調整シリンダ158により間接的に連結されている。調整シリンダ158は、調整シリンダ158の伸びた距離の所定位置に距離を示すトリガを有する。トリガは、センサ159で検知され、移動処理部133と移動処理部132の近接距離や遠隔距離を一定にする制御に利用される。2本ある調整シリンダ158のうち1本は近接点用であり、もう1本は遠隔点用である。 Further, the movement processing unit 133 and the movement processing unit 132 are indirectly connected by an adjustment cylinder 158. The adjustment cylinder 158 has a trigger that indicates a distance at a predetermined position of the extended distance of the adjustment cylinder 158. The trigger is detected by the sensor 159 and used for control to make the proximity distance and the remote distance between the movement processing unit 133 and the movement processing unit 132 constant. Of the two adjustment cylinders 158, one is for the proximity point and the other is for the remote point.
<マルチ画像撮影システム1の動作>
図3は、実施例1にかかるマルチ画像撮影システム1の動作例を示す説明図である。(a)は、マルチ画像撮影システム1の動作例を示す平面図、(b)は、マルチ画像撮影システム1の動作例を示す側面図である。
<Operation of Multi-Image Shooting System 1>
FIG. 3 is an explanatory diagram of an operation example of the multi-image capturing system 1 according to the first embodiment. (A) is a plan view showing an operation example of the multi-image shooting system 1, and (b) is a side view showing an operation example of the multi-image shooting system 1.
マルチ画像撮影システム1は、(1)マーカ3を撮影領域113の最後尾に形成して撮影領域113を撮影し、(2)マーカ付与装置6を前進させて撮影領域113の最前部にマーカを形成して撮影領域113を撮影、(3)カメラ装置8を前進させて再びマーカ3を撮影領域113の最後尾に形成して前進後の撮影領域113を撮影する。 The multi-image shooting system 1 (1) forms the marker 3 at the end of the shooting area 113 to take a picture of the shooting area 113, and (2) advances the marker applying device 6 to place the marker at the forefront of the shooting area 113. Then, the imaging region 113 is imaged, and (3) the camera device 8 is advanced to form the marker 3 again at the end of the imaging region 113 and the imaging region 113 after the advancement is imaged.
マーカ付与装置6は、マーカレーザ131−1〜131−4と移動処理部133を含む。カメラ装置8は、移動処理部132とカメラ2を含む。(1)から(2)にかけて、カメラ装置8がブレーキ154により固定されている間に、マーカ付与装置6は、マーカレーザ131−1〜131−4の移動に追従して撮影領域113−1〜113−3の最前部にマーカ31−1〜31−4が形成されるように前進して停止する。レーザ距離計測部157や間隔位置センサ159がマーカ付与装置6の所定移動距離を検知すると、制御部7から信号を受けて、マーカ付与装置6はブレーキ154により固定される。この固定状態で、カメラ装置8は、カメラ2により(2)撮影を実行する。 The marker applying device 6 includes marker lasers 131-1 to 131-4 and a movement processing unit 133. The camera device 8 includes a movement processing unit 132 and the camera 2. While the camera device 8 is fixed by the brake 154 from (1) to (2), the marker applying device 6 follows the movement of the marker lasers 131-1 to 131-4, and the imaging regions 113-1 to 113 are detected. -3 and move forward so that the markers 31-1 to 31-4 are formed at the foremost part. When the laser distance measuring unit 157 and the interval position sensor 159 detect a predetermined movement distance of the marker applying device 6, a signal is received from the control unit 7, and the marker applying device 6 is fixed by the brake 154. In this fixed state, the camera device 8 performs (2) photographing with the camera 2.
その後、制御部7からの信号により、カメラ装置8はブレーキ154を解除して、固定されたマーカ3が次の撮影領域113で最後尾に形成されるようにカメラ装置8を前進させて、再びブレーキ154で固定して、カメラ装置8は、(3)撮影を実行する。 Thereafter, the camera device 8 releases the brake 154 according to a signal from the control unit 7, advances the camera device 8 so that the fixed marker 3 is formed at the tail in the next imaging region 113, and again Fixing with the brake 154, the camera apparatus 8 performs (3) imaging | photography.
<マルチ画像撮影システム1の機能ブロック>
図4は、実施例1〜実施例3で共通のマルチ画像撮影システム1の機能ブロック図である。マルチ画像撮影システム1は、カメラ2とマーカ31を動かして被写体を撮影する撮影装置5と、撮影画像を画像処理する画像処理装置9と、を有する。撮影装置5は、マーカ付与装置6と、制御部7と、カメラ装置8と、を有する。マーカ付与装置6およびカメラ装置8は、制御部7により制御される。カメラ装置8で撮影した画像や撮影関連情報は、画像処理装置9に送られる。
<Functional Block of Multi-Image Shooting System 1>
FIG. 4 is a functional block diagram of the multi-image shooting system 1 common to the first to third embodiments. The multi-image photographing system 1 includes a photographing device 5 that photographs a subject by moving the camera 2 and the marker 31, and an image processing device 9 that performs image processing on the photographed image. The imaging device 5 includes a marker applying device 6, a control unit 7, and a camera device 8. The marker applying device 6 and the camera device 8 are controlled by the control unit 7. An image photographed by the camera device 8 and photographing-related information are sent to the image processing device 9.
画像処理装置9は、取得した画像を一次加工する基本処理部10と、出力のための画像処理加工をする画像合成処理部11と、を有する。各機能については概念的な機能を表現しており、ハード構成まで規定するものではない。 The image processing apparatus 9 includes a basic processing unit 10 that primarily processes an acquired image, and an image composition processing unit 11 that performs image processing for output. Each function expresses a conceptual function and does not prescribe the hardware configuration.
<撮影装置5の機能ブロック>
図5は、図4に示した撮影装置5の機能ブロック図である。撮影装置5は、カメラ装置8と、制御部7と、マーカ付与装置6と、を有する。カメラ装置8は、少なくとも一つからなるカメラ2を含むカメラ部102と、カメラ部102を移動または停止させる移動処理部132と、を有する。マーカ付与装置6は、図1のマーカレーザ131などのマーカ付与部130と、図2のレーザ距離計測部157などの移動位置計測部138と、移動処理部133と、を有する。
<Functional blocks of the photographing device 5>
FIG. 5 is a functional block diagram of the photographing apparatus 5 shown in FIG. The imaging device 5 includes a camera device 8, a control unit 7, and a marker applying device 6. The camera device 8 includes a camera unit 102 including at least one camera 2 and a movement processing unit 132 that moves or stops the camera unit 102. The marker imparting device 6 includes a marker imparting unit 130 such as the marker laser 131 in FIG. 1, a movement position measuring unit 138 such as the laser distance measuring unit 157 in FIG. 2, and a movement processing unit 133.
制御部7は、タイミング制御部182と、移動制御部186と、モニタ制御部185と、を有する。タイミング制御部182は、撮影のタイミングを執る撮影制御部183とマーカ付与のタイミングを執るマーカ付与制御部184とを有する。移動制御部186は、移動処理部132や移動処理部133の移動または停止の信号を発生し、また、両者からのカメラ移動・停止信号I3やマーカ移動・停止信号I4に付随する各駆動部からの状態情報を受信する。モニタ制御部185は、撮影領域113のマーカ31の位置をモニタする。撮影制御信号I1が撮影制御部183からカメラ2に発信されると、カメラ2は撮影をおこなって、撮影画像114の集合である撮影画像情報I10を生成する。撮影画像情報I10は、図4の画像処理装置9に送られる。 The control unit 7 includes a timing control unit 182, a movement control unit 186, and a monitor control unit 185. The timing control unit 182 includes an imaging control unit 183 that performs imaging timing and a marker application control unit 184 that performs marker application timing. The movement control unit 186 generates a movement or stop signal for the movement processing unit 132 or the movement processing unit 133, and from each driving unit associated with the camera movement / stop signal I3 or the marker movement / stop signal I4 from both. Receive status information. The monitor control unit 185 monitors the position of the marker 31 in the imaging area 113. When the shooting control signal I1 is transmitted from the shooting control unit 183 to the camera 2, the camera 2 performs shooting and generates shot image information I10 that is a set of the shot images 114. The captured image information I10 is sent to the image processing device 9 in FIG.
撮影装置5内でマーカ31の位置をモニタして制御する場合には、カメラ2からのモニタ画像情報I12は、モニタ制御部185に入力される。モニタ制御部185は、モニタ画像情報I12から得られるモニタ画像を処理してマーカ31を適正な位置に形成する。また、タイミング制御部182からの制御信号が、移動制御部186に入力されると、移動制御部186は、移動処理部132および移動処理部133をタイミング制御することにより、図3に示したようにカメラ装置8およびマーカ付与装置6の移動を制御する。 When the position of the marker 31 is monitored and controlled in the imaging device 5, the monitor image information I12 from the camera 2 is input to the monitor control unit 185. The monitor control unit 185 processes the monitor image obtained from the monitor image information I12 to form the marker 31 at an appropriate position. When the control signal from the timing control unit 182 is input to the movement control unit 186, the movement control unit 186 performs timing control on the movement processing unit 132 and the movement processing unit 133, as shown in FIG. The movement of the camera device 8 and the marker applying device 6 is controlled.
また、撮影装置5の外部でユーザにより観察、確認しながらマーカ31を適正な位置に配置する場合には、カメラ2から外部へのモニタ画像情報I12を外部のモニタ画面に出力させ、ユーザが、モニタ制御部185にモニタ観察による手動位置補正情報I6を入力する。 In addition, when the marker 31 is arranged at an appropriate position while being observed and confirmed by the user outside the photographing apparatus 5, monitor image information I12 from the camera 2 to the outside is output to an external monitor screen, and the user Manual position correction information I6 by monitor observation is input to the monitor control unit 185.
カメラ装置8やマーカ付与装置6の移動または停止による撮影では、タイミング制御部182は、制御シーケンスに従い、カメラ2に撮影制御信号I1を出力したり、マーカ付与部130にマーカ31の点・消灯信号I2を出力したりして、必要な画像を撮影するためのタイミング制御を実行する。たとえば、タイミング制御部182は、移動処理部132および移動処理部133に関係したカメラ移動・停止信号I3またはマーカ移動・停止信号I4を移動制御部186から受けた場合に、タイミング制御を実行する。また、タイミング制御部82は、移動位置計測部138からのマーカ移動距離情報I5を受けた場合に、タイミング制御を実行する。 In shooting by moving or stopping the camera device 8 or the marker applying device 6, the timing control unit 182 outputs a shooting control signal I 1 to the camera 2 according to the control sequence, or turns on / off the marker 31 to the marker applying unit 130. Timing control for outputting a necessary image is performed by outputting I2. For example, the timing control unit 182 performs timing control when receiving a camera movement / stop signal I3 or a marker movement / stop signal I4 related to the movement processing unit 132 and the movement processing unit 133 from the movement control unit 186. Further, the timing control unit 82 executes timing control when receiving the marker moving distance information I5 from the moving position measuring unit 138.
また、タイミング制御部182は、撮影関連情報I11として画像情報I10のメタ情報を、撮影や装置制御のタイミングに合わせて外部に発信する。撮影関連情報I11には、たとえば、撮影に伴う撮影時刻、撮影番号、カメラ移動または停止、マーカ付与部130の移動または停止、カメラ移動とマーカ移動の前後関係、マーカ31の点灯または消灯、撮影カメラの番号と撮影画像との関係、図2に示した調整シリンダ158の移動距離情報、レーザ距離計測部157の測定値、カメラ2の配列方向におけるマーカ間隔距離情報、マーカ付与部130に当たるマーカ31の物理的間隔寸法情報などの諸情報が含まれる。ここでは、タイミング制御部182に撮影関連情報I11が集約するのでタイミング制御部182から撮影関連情報I11を発信する構成としているが、タイミング制御部182とは別の機能が撮影関連情報I11を発信する構成としてもよい。 Further, the timing control unit 182 transmits meta information of the image information I10 as the shooting-related information I11 to the outside in accordance with the timing of shooting and device control. The shooting related information I11 includes, for example, a shooting time, a shooting number, a camera movement or stop associated with shooting, a movement or stop of the marker attaching unit 130, a front-rear relationship between the camera movement and the marker movement, lighting or extinguishing of the marker 31, and a shooting camera. 2, the moving distance information of the adjustment cylinder 158 shown in FIG. 2, the measured value of the laser distance measuring unit 157, the marker interval distance information in the arrangement direction of the camera 2, and the marker 31 corresponding to the marker applying unit 130. Various information such as physical spacing information is included. Here, since the shooting related information I11 is aggregated in the timing control unit 182, the shooting related information I11 is transmitted from the timing control unit 182, but a function different from the timing control unit 182 transmits the shooting related information I11. It is good also as a structure.
<撮影装置5のタイミングチャート>
図6は、実施例1における撮影装置5のタイミングチャートである。図6中、(1)にカメラ装置8の移動、(2)にマーカ付与装置6の移動、(3)にマーカ点灯または消灯、(4)に静止画像撮影、(5)に画像または撮影関連情報送信、(6)に撮影画像群の画像ID:n−Zを示す。ここで静止画撮影としているのは、モニタ画像とは異なることを示している。画像ID:n−Zは、撮影画像を特定する。なお、画像ID:n−Zのnはn回目の撮影領域113の移動の時系列を示し、初期はn=1である。画像ID:n−Zの枝番の「Z」は、画像IDで特定される撮影画像114の状態を示し、「O」,「B」、「F」のいずれかとなる。たとえば、「O」は、撮影領域中のすべてのマーカ31が消灯している撮影画像を示す。「F」は撮影領域の最前部にマーカ31が付与されている撮影画像を示す。「B」は撮影領域の最後尾にマーカ31が付与されている撮影画像を示す。
<Timing chart of photographing apparatus 5>
FIG. 6 is a timing chart of the photographing apparatus 5 in the first embodiment. In FIG. 6, (1) is the movement of the camera device 8, (2) is the movement of the marker applying device 6, (3) is the marker on or off, (4) is still image shooting, (5) is the image or shooting related Information transmission, (6) shows the image ID of the photographed image group: nZ. Here, still image shooting indicates that it is different from the monitor image. Image ID: nZ specifies a captured image. Note that n in the image ID: n−Z indicates a time series of movement of the n-th imaging region 113, and n = 1 at the initial stage. The branch number “Z” of the image ID: n−Z indicates the state of the captured image 114 specified by the image ID, and is “O”, “B”, or “F”. For example, “O” indicates a captured image in which all the markers 31 in the imaging region are turned off. “F” indicates a captured image provided with a marker 31 at the forefront of the imaging region. “B” indicates a captured image in which a marker 31 is added at the end of the imaging region.
画像ID:n−Zは、(1)カメラ装置8の移動や(2)マーカ付与装置6の移動の状態情報、撮影時刻、または撮影番号に基づき、一意に決められる。初期位置では、カメラ2は、マーカ31を消灯して静止画を撮影する。この撮影画像にはマーカ31が含まれない。したがって、画像IDは、「1−O」となる。カメラ装置8は、画像ID:1−Oの静止画像を撮影すると、(5)画像情報I10や撮影関連情報I11を画像・撮影関連情報として発信する。 The image ID: n-Z is uniquely determined based on (1) movement information of the camera device 8 and (2) movement information of the marker imparting device 6, shooting time, or shooting number. At the initial position, the camera 2 turns off the marker 31 and takes a still image. This captured image does not include the marker 31. Therefore, the image ID is “1-O”. When the camera device 8 captures a still image with the image ID: 1-O, the camera device 8 transmits (5) image information I10 and imaging related information I11 as image / imaging related information.
次に、カメラ装置8は、(3)マーカ31を点灯して撮影して、画像ID:1−Bの撮影画像を得る。次に、移動制御部186は、マーカ付与装置6を所定間隔L0移動して停止させる。このとき、マーカ31は、撮影領域113の最前部に形成される。カメラ装置8は、この状態で3番目の撮影を行い、画像ID:1−Fの撮影画像を得る。 Next, the camera device 8 (3) turns on the marker 31 and shoots to obtain a shot image with an image ID: 1-B. Next, the movement control unit 186 moves the marker applying device 6 by a predetermined interval L0 and stops it. At this time, the marker 31 is formed at the forefront of the imaging region 113. The camera device 8 performs the third shooting in this state, and obtains a captured image with the image ID: 1-F.
次に、移動制御部186は、カメラ装置8を所定間隔L0移動して停止させ、カメラ装置8はその停止位置で撮影し、画像ID:2−Bの撮影画像を得る。その後マーカ31を点灯したまま、順次、マーカ付与装置6の所定間隔L0の移動および停止、カメラ装置8での撮影、カメラ装置8の所定間隔L0の移動および停止、カメラ装置8での撮影を実行することにより、画像ID:2−F以降の画像が得られる。 Next, the movement control unit 186 moves and stops the camera device 8 by a predetermined interval L0, and the camera device 8 captures an image at the stop position to obtain a captured image with an image ID: 2-B. Thereafter, while the marker 31 is lit, the movement and stop of the marker applying device 6 at a predetermined interval L0, the photographing with the camera device 8, the movement and the stop of the camera device 8 with the predetermined interval L0, and the photographing with the camera device 8 are sequentially executed. By doing so, the image after image ID: 2-F is obtained.
<マーカ付与間隔の設定例>
図7は、実施例1におけるマーカ付与間隔の設定例を示す説明図である。図7中、(a)は、撮影領域113−1の最後尾に二つのマーカ31−1−1,31−2−1があるマーカ31の移動前の状態を示す。(b)は、移動間隔L0で同じ撮影領域113−1の最前部に移動したマーカ31−1−2,31−2−2の移動後の状態を示す。移動して撮影するマルチ画像撮影の画像合成において重要な2つの基本条件を以下に示す。
<Setting example of marker interval>
FIG. 7 is an explanatory diagram illustrating a setting example of the marker applying interval in the first embodiment. 7A shows a state before the movement of the marker 31 in which the two markers 31-1-1 and 31-2-1 are located at the end of the imaging region 113-1. (B) shows the state after the movement of the markers 31-1-2 and 31-2-2 moved to the forefront part of the same imaging region 113-1 at the movement interval L0. Two basic conditions that are important in the image composition of multi-image shooting that moves and shoots are shown below.
(R1) 移動前後の撮影画像の接合合成を行うためには、一つ前の撮影領域に付与したマーカを必ず次の撮影領域にも含めなければならない。 (R1) In order to perform the joint synthesis of the captured images before and after the movement, the marker assigned to the previous imaging area must be included in the next imaging area.
(R2) 次の撮影画像内のマーカ像を一つ前の撮影画像で隠蔽するには、次に撮影する撮影領域の最前部からマーカ像までの距離よりも短い距離しか移動できない。 (R2) In order to conceal the marker image in the next photographed image with the previous photographed image, the marker image can be moved only by a distance shorter than the distance from the forefront part of the photographing region to be photographed next to the marker image.
一つ目の条件(R1)から、移動前後の移動距離をできるだけ長くして撮影回数を減らすためには、一つ前の撮影時に付与するマーカをできるだけ撮影領域の最前部に付与して、移動した後の撮影時にそのマーカができるだけ撮影領域の最後尾に配置させることが必要である。これにより、移動間隔L0が大きくなるため、移動前後の移動距離が長くなり、撮影回数が低減する。 From the first condition (R1), in order to reduce the number of shootings by making the moving distance before and after the movement as long as possible, a marker to be given at the time of the previous photographing is attached to the forefront of the photographing region as much as possible. It is necessary to place the marker at the end of the imaging region as much as possible when shooting after. Thereby, since the movement interval L0 is increased, the movement distance before and after the movement is increased, and the number of photographing is reduced.
二つ目の条件(R2)からは、最前部からのマーカ付与位置できるだけ後ろ、すなわち最後尾に付与することが必要である。これにより、移動間隔L0が大きくなる。 From the second condition (R2), it is necessary to apply the marker as far as possible from the foremost part, that is, at the end. Thereby, the movement interval L0 becomes large.
最適なマーカ間隔を求めるため、上記一つ目の条件(R1)と二つ目の条件(R2)の解釈から、前の撮影で付与したマーカは次の撮影でできるだけ最後尾に配置し、最前部に付与するマーカはできるだけ最前部に配置するようにすることで、移動間隔L0を大きく取ることができる。マーカ付与における夫々の誤差範囲(接地誤差の許容幅)を、最後尾側がx1、最前部側がx2として、マーカ31の径をx3とする。撮影領域113−1の移動方向幅をXとすると、最大の移動間隔L0は、下記式(1)で表される。 In order to obtain the optimum marker interval, from the interpretation of the first condition (R1) and the second condition (R2), the marker assigned in the previous shooting is arranged at the end as much as possible in the next shooting. By arranging the marker to be assigned to the front part as much as possible, the movement interval L0 can be increased. Respective error ranges (allowable width of grounding error) for marker application are x1 on the last side, x2 on the foremost side, and x3 on the diameter of the marker 31. When the movement direction width of the imaging region 113-1 is X, the maximum movement interval L0 is expressed by the following formula (1).
L0=(X−x1−x2−x3) ・・・・(1) L0 = (X−x1−x2−x3) (1)
L0をカメラ装置8とマーカ付与装置6の交互の移動距離とすることで、最大の移動間隔L0で撮影することができる。 By setting L0 as an alternate movement distance between the camera device 8 and the marker applying device 6, it is possible to take a picture with the maximum movement interval L0.
<撮影領域とマーカ付与位置の関係>
図8は、実施例1にかかる撮影領域とマーカ付与位置の関係を示す説明図である。図8中、(1)〜(3)は、図3の(1)〜(3)のカメラ2とマーカレーザ131−1,131−2の配置で撮影した撮影領域113とマーカ31−1,31−2を示す。(4)は、さらに(3)の次の撮影のときに撮影領域113とマーカ31の位置関係を示す。
<Relationship between shooting area and marker position>
FIG. 8 is an explanatory diagram illustrating the relationship between the imaging region and the marker application position according to the first embodiment. In FIG. 8, (1) to (3) are imaging areas 113 and markers 31-1 and 31 captured by the arrangement of the camera 2 and the marker lasers 131-1 and 131-2 in (1) to (3) of FIG. -2. (4) further shows the positional relationship between the imaging region 113 and the marker 31 at the time of the next imaging of (3).
ここでは、任意の位置での撮影を想定し、撮影領域113−1−nとしている。(1)および(2)では、図7と同様に、撮影領域113−1−nが固定される。 Here, it is assumed that the photographing region 113-1-n is taken at an arbitrary position. In (1) and (2), the imaging region 113-1-n is fixed as in FIG.
(1)では、カメラ2は、撮影領域113−1−nにマーカ31−1−n,31−2−nが付与された状態で撮影する。 In (1), the camera 2 shoots with the markers 31-1-n and 31-2-n added to the shooting region 113-1-n.
(2)では、その後、移動制御部186は、マーカ31−1−n、31−2−nを間隔L0分移動させて、同じ撮影領域113−1−nの最前部に移動させる。カメラ2は、当該最前部に移動したマーカ31−1−(n+1),31−2−(n+1)を含む撮影領域113−1−nを撮影する。 In (2), thereafter, the movement control unit 186 moves the markers 31-1-n and 31-2-n by the interval L0 and moves them to the forefront of the same imaging region 113-1-n. The camera 2 images the imaging region 113-1-n including the markers 31-1- (n + 1) and 31-2- (n + 1) moved to the forefront.
(3)では、マーカ31−1−(n+1),31−2−(n+1)が固定される。この状態で、移動制御部186は、カメラ装置8を間隔L0分移動させる。これにより、マーカ31−1−(n+1),31−2−(n+1)が新たな撮影領域113−1−(n+1)の最後尾に配置される。この状態で、カメラ2は、撮影領域113−1−(n+1)を撮影する。 In (3), markers 31-1- (n + 1), 31-2- (n + 1) are fixed. In this state, the movement control unit 186 moves the camera device 8 by the interval L0. Accordingly, the markers 31-1- (n + 1) and 31-2- (n + 1) are arranged at the end of the new imaging region 113-1- (n + 1). In this state, the camera 2 captures an imaging region 113-1- (n + 1).
(4)では、(3)のあと、(1)および(2)で示した動作と同一の動作をすることにより、移動制御部186は、マーカ31−1−(n+1)、31−2−(n+1)を間隔L0分移動させて、同じ撮影領域113−1−(n+1)の最前部に移動させる。カメラ2は、当該最前部に移動したマーカ31−1−(n+2),31−2−(n+2)を含む撮影領域113−1−(n+1)を撮影する。 In (4), after (3), the movement control unit 186 performs the same operation as the operation shown in (1) and (2), so that the movement control unit 186 has the markers 31-1- (n + 1), 31-2- (N + 1) is moved by an interval L0 and moved to the forefront of the same imaging region 113-1- (n + 1). The camera 2 images the imaging region 113-1- (n + 1) including the markers 31-1- (n + 2) and 31-2- (n + 2) moved to the forefront.
<被写体上の撮影領域と撮影画像群>
図9は、実施例1にかかる被写体上の撮影領域と撮影画像群を示す説明図である。図9中、(a)は、被写体4上での撮影領域とマーカ31の位置を示す。具体的には、(a)は、カメラ2−1〜2−3による撮影領域113(1,1)〜113(3,2)と、マーカ31−1−1〜3―4−3との位置関係を、ひび割れ41を含めながら示す。撮影領域113(後述する撮影画像114も同様)の符号の末尾の括弧符号(m,n)は、カメラ2−1における左上の撮影領域113を基準とした画像行列を示す。すなわち、mはカメラ2の枝番であり、nは撮影の時系列である。たとえば、撮影領域113(1,1)は、カメラ2−1により撮影された1番目の撮影領域を示し、撮影領域113(1,2)は、カメラ2−1により撮影された次(2番目)の撮影領域を示す。
<Shooting area and photographed image group on subject>
FIG. 9 is an explanatory diagram of a shooting area and a shot image group on the subject according to the first embodiment. 9A shows the shooting area on the subject 4 and the position of the marker 31. FIG. Specifically, (a) is a view of the imaging areas 113 (1, 1) to 113 (3, 2) by the cameras 2-1 to 2-3 and the markers 31-1-1-1 to 3-4-3. The positional relationship is shown including the crack 41. A parenthesis (m, n) at the end of the code of the shooting area 113 (also for a shot image 114 described later) indicates an image matrix based on the upper left shooting area 113 in the camera 2-1. That is, m is a branch number of the camera 2, and n is a time series of shooting. For example, the shooting area 113 (1, 1) indicates the first shooting area shot by the camera 2-1, and the shooting area 113 (1, 2) is the second (second) shot by the camera 2-1. ).
図9中、(b)は、撮影画像群を示す。(b)における括弧数字<1>〜<3>は、図3の(1)〜(3)の動作に対応する。撮影画像114(m,n)Zは、図8のように撮影領域113とマーカ31の交互の移動をしながら、図6のタイミングチャートに沿って撮影した画像群である。上述したように、mはカメラ2の配列位置を示す枝番であり、nは移動の時系列である。Zは、マーカ31の状態O,F,Bのいずれかを示す。たとえば、「O」は、撮影領域113中のすべてのマーカ31が消灯している状態を示す。「F」は撮影領域113の最前部にマーカ31が付与されている状態を示す。「B」は撮影領域113の最後尾にマーカ31が付与されている状態を示す。 In FIG. 9, (b) shows a captured image group. The parenthesized numerals <1> to <3> in (b) correspond to the operations (1) to (3) in FIG. The photographed image 114 (m, n) Z is a group of images photographed along the timing chart of FIG. 6 while alternately moving the photographing region 113 and the marker 31 as shown in FIG. As described above, m is a branch number indicating the arrangement position of the cameras 2, and n is a time series of movement. Z indicates one of the states O, F, and B of the marker 31. For example, “O” indicates a state in which all the markers 31 in the imaging region 113 are turned off. “F” indicates a state in which the marker 31 is provided at the forefront of the imaging region 113. “B” indicates a state in which the marker 31 is provided at the end of the imaging region 113.
また、マーカ像103−m−n−XYは、マーカ31−m−nの画像である。Xは、上述した撮影画像114の状態BまたはFのいずれかである。YはSまたはRのいずれかを示すマーカIDである。「S」は、移動方向に直交するカメラ2の配列方向の一端(左側)を示し、「R」は他端(右側)を示す。 The marker image 103-mn-XY is an image of the marker 31-mn. X is either state B or F of the captured image 114 described above. Y is a marker ID indicating either S or R. “S” indicates one end (left side) in the arrangement direction of the cameras 2 orthogonal to the moving direction, and “R” indicates the other end (right side).
たとえば、マーカ像103−2−1−BRは、撮影領域113(1,1)における移動方向の最後尾に付与されたマーカ31−2−1の画像であり、撮影領域113(1,1)を撮影した撮影画像114(1,1)Bに含まれる2個のマーカ像のうち右側のマーカ像である。また、マーカ像103−2−1−BSは、撮影領域113(2,1)における移動方向の最後尾に付与されたマーカ31−2−1の画像であり、撮影領域113(2,1)を撮影した撮影画像114(2,1)Bに含まれる2個のマーカ像のうち左側のマーカ像である。マーカ像103−2−1−BR,103−2−1−BSは、同一のマーカ31−2−1を異なる撮影領域113(1,1),113(2,1)で撮影した画像である。 For example, the marker image 103-2-1-1-BR is an image of the marker 31-2-1 attached to the tail of the moving direction in the shooting area 113 (1, 1), and the shooting area 113 (1, 1). Is the marker image on the right side of the two marker images included in the captured image 114 (1, 1) B. In addition, the marker image 103-2-1-BS is an image of the marker 31-2-1 added to the end of the moving direction in the imaging region 113 (2, 1), and the imaging region 113 (2, 1). Is a marker image on the left side of the two marker images included in the captured image 114 (2,1) B. The marker images 103-2-1-1-BR and 103-2-1-BS are images obtained by photographing the same marker 31-2-1 in different photographing regions 113 (1, 1) and 113 (2, 1). .
<撮影装置5の動作処理手順例>
図10は、実施例1にかかる撮影装置5の動作処理手順例を示すフローチャートである。このフローチャートは、図6のタイミングチャートの初期の撮影からの流れを示す。ユーザは、手動操作により、撮影装置5を初期化し(ステップS1)、カメラ部102を初期位置に設置する(ステップS2)。撮影装置5は、撮影制御部183の制御により、マーカ31を消灯した状態で撮影し、画像ID:1−Oの撮影画像114を取得する(ステップS3)。ステップS3以降は、特に明記しない限り、自動実行である。
<Example of Operation Processing Procedure of Imaging Device 5>
FIG. 10 is a flowchart illustrating an example of an operation processing procedure of the photographing apparatus 5 according to the first embodiment. This flowchart shows the flow from the initial shooting of the timing chart of FIG. The user initializes the photographing device 5 by manual operation (step S1) and installs the camera unit 102 at the initial position (step S2). The imaging device 5 performs imaging with the marker 31 turned off under the control of the imaging control unit 183, and obtains a captured image 114 having an image ID: 1-O (step S3). Steps S3 and after are automatic execution unless otherwise specified.
つぎに、撮影装置5は、マーカ付与制御部184の制御により、マーカ31を点灯する。そして、撮影装置5は、移動制御部186の制御により、マーカ付与部130を移動して、撮影領域113の最後尾の所定位置にマーカ31を配し、マーカ付与部130の移動を停止する(ステップS4)。 Next, the imaging device 5 lights the marker 31 under the control of the marker application control unit 184. And the imaging device 5 moves the marker provision part 130 by control of the movement control part 186, distribute | arranges the marker 31 to the predetermined position of the tail of the imaging region 113, and stops the movement of the marker provision part 130 ( Step S4).
つぎに、撮影装置5は、ステップS4でマーカ付与装置6の移動が停止した位置で、マーカ31を含む撮影領域113を撮影し、画像ID1−Bの撮影画像114を取得する(ステップS5)。そして、撮影装置5は、マーカ付与装置6を移動するか否かを判断する(ステップS6)。具体的には、例えば、撮影装置5は、撮影関連情報I11に基づいて、マルチ画像撮影システム1の現在位置があらかじめ設定された撮影範囲内にあるか否かにより、マーカ付与装置6を移動の是非を判断する。すなわち、撮影装置5は、マルチ画像撮影システム1の現在位置が撮影範囲内であれば、マーカ付与装置6を移動すべきと判断し(ステップS6:Yes)、撮影範囲外であれば、移動すべきでないと判断する(ステップS6:No)。ステップS6:Yesの場合、ステップS7に移行する。 Next, the imaging device 5 captures the imaging region 113 including the marker 31 at the position where the movement of the marker applying device 6 is stopped in step S4, and acquires the captured image 114 of the image ID1-B (step S5). And the imaging device 5 judges whether the marker provision apparatus 6 is moved (step S6). Specifically, for example, the imaging device 5 moves the marker applying device 6 depending on whether or not the current position of the multi-image imaging system 1 is within a preset imaging range based on the imaging related information I11. Judging by all means. That is, the photographing device 5 determines that the marker applying device 6 should be moved if the current position of the multi-image photographing system 1 is within the photographing range (step S6: Yes), and moves if it is outside the photographing range. It is judged that it should not be (step S6: No). Step S6: If Yes, the process proceeds to Step S7.
つぎに、撮影装置5は、マーカ付与制御部184の制御により、マーカ付与装置6を撮影領域113の最前部となる位置に移動させ、その位置で停止させる(ステップS7)。つぎに、撮影装置5は、ステップS7でマーカ付与装置6の移動が停止した位置で、マーカ31を含む撮影領域113を撮影し、画像ID:n−Fの撮影画像114を取得する(ステップS8)。ここで、n−Fは、図6の(6)で用いた画像IDである。nは、移動の時系列、すなわち、n回目の撮影領域113の移動を表し、初期はn=1である。「F」は撮影領域の最前部にマーカ31が付与されている状態を示す。 Next, the imaging device 5 moves the marker imparting device 6 to a position that is the forefront portion of the imaging region 113 under the control of the marker imparting control unit 184, and stops at that position (step S7). Next, the photographing device 5 photographs the photographing region 113 including the marker 31 at the position where the movement of the marker applying device 6 is stopped in step S7, and obtains the photographed image 114 having the image ID: n−F (step S8). ). Here, n−F is the image ID used in (6) of FIG. n represents a time series of movement, that is, n-th movement of the imaging region 113, and initially n = 1. “F” indicates a state in which the marker 31 is provided at the forefront of the imaging region.
つぎに、撮影装置5は、移動制御部186の制御により、マーカ31の位置が撮影領域113の最後尾となる位置になるようにカメラ装置8を移動させ、停止させる(ステップS9)。 Next, under the control of the movement control unit 186, the imaging device 5 moves and stops the camera device 8 so that the marker 31 is positioned at the end of the imaging region 113 (step S9).
そして、撮影装置5は、マーカ31を含む画像群(n+1)−Bを撮影し(ステップS10)、ステップS6に戻る。(n+1)−Bは、図6の(6)で用いた画像IDであり、画像群n−Fの次の画像群である。「B」は撮影領域の最後尾にマーカ31が付与されている状態を示す。ステップS6に戻る場合は、ステップS10でのn+1回目の移動は、ステップS8においてn回目の移動と読み替えられる。ステップS6:Noの場合、撮影装置5の動作は終了する。 And the imaging device 5 image | photographs the image group (n + 1) -B containing the marker 31 (step S10), and returns to step S6. (N + 1) -B is the image ID used in (6) of FIG. 6, and is the next image group after the image group n-F. “B” indicates a state in which the marker 31 is provided at the end of the imaging region. When returning to step S6, the (n + 1) th movement in step S10 is read as the nth movement in step S8. Step S6: In the case of No, the operation of the photographing device 5 is finished.
<画像処理装置9の機能ブロック>
図11は、実施例1〜実施例3で共通の画像処理装置9の機能ブロック図である。画像処理装置9は、基本処理部10と、画像合成処理部11と、を有する。基本処理部10は、撮影装置5からの撮影画像情報I10および撮影関連情報I11を取得して、利用し易いように情報を加工する。画像合成処理部11は、表示域指示I52を得るための処理や指示された出力情報I53へと画像情報を加工する処理を実行する。
<Functional Block of Image Processing Device 9>
FIG. 11 is a functional block diagram of the image processing apparatus 9 common to the first to third embodiments. The image processing device 9 includes a basic processing unit 10 and an image composition processing unit 11. The basic processing unit 10 acquires the photographed image information I10 and the photographing related information I11 from the photographing device 5, and processes the information so that it can be easily used. The image composition processing unit 11 executes processing for obtaining the display area instruction I52 and processing for processing the image information into the instructed output information I53.
基本処理部10は、情報取得部190と、マーカ座標値抽出部191と、マーカ情報保持部192と、マーカルート情報生成部193と、を有する。情報取得部190は、撮影画像情報I10および撮影関連情報I11を、撮影装置5からの発信時刻順で画像情報I21と関連付けて取得し、保持する。 The basic processing unit 10 includes an information acquisition unit 190, a marker coordinate value extraction unit 191, a marker information holding unit 192, and a marker route information generation unit 193. The information acquisition unit 190 acquires and holds the captured image information I10 and the imaging related information I11 in association with the image information I21 in the order of the transmission time from the imaging device 5.
マーカ座標値抽出部191は、画像情報I21内の各撮影画像114のマーカ像103の座標値(以下、マーカ座標値)を抽出する。マーカ情報保持部192は、マーカ座標値を画像ID(図6を参照)に関連付けて保持する。また、実施例2や実施例3において、異なる色のレーザマーカを目的に分けて使用する場合には、マーカ座標値抽出部191は、用途に沿ってマーカ座標値の関連付けを行う。例えば、実施例2では赤色マーカはパン方向、緑色マーカはチルト方向というルート方向のマーカ、実施例3では、赤色マーカは面状の配置に関連したマーカ、緑色マーカは移動方向に関連するマーカというように用途に沿って関連付けたIDを付与し、マーカ情報保持部192は当該IDを保持する。 The marker coordinate value extraction unit 191 extracts the coordinate value (hereinafter referred to as marker coordinate value) of the marker image 103 of each captured image 114 in the image information I21. The marker information holding unit 192 holds the marker coordinate value in association with the image ID (see FIG. 6). In the second and third embodiments, when using laser markers of different colors for different purposes, the marker coordinate value extraction unit 191 associates marker coordinate values according to the application. For example, in Example 2, a red marker is a pan direction marker and a green marker is a tilt direction marker, in Example 3, a red marker is a marker related to a planar arrangement, and a green marker is a marker related to a moving direction. As described above, an ID associated with the application is assigned, and the marker information holding unit 192 holds the ID.
マーカルート情報生成部193は、ID・関連情報I28やマーカ座標情報I19から、画像ID毎のマーカ像103の位置を特定して、画像合成処理部11の処理に関連する画像IDにより特定される撮影画像114間のマーカ位置に対応するマーカルート情報I29を生成する。ID・関連情報I28は、画像IDと撮影関連情報I11とを含む情報である。マーカ座標情報I19は、マーカ情報保持部192により保持された情報である。すなわち、マーカ座標値と画像IDとの組み合わせである。マーカルート情報I29は、各撮影画像114内のマーカ像103の位置情報(例えば、撮影画像114内での右上、右下、左上、左下のいずれか)に画像IDが付与されたマーカ情報を、隣接する画像IDで関連付けた情報である。 The marker route information generation unit 193 specifies the position of the marker image 103 for each image ID from the ID / related information I28 and the marker coordinate information I19, and is specified by the image ID related to the processing of the image composition processing unit 11. Marker route information I29 corresponding to the marker position between the captured images 114 is generated. The ID / related information I28 is information including an image ID and shooting related information I11. The marker coordinate information I19 is information held by the marker information holding unit 192. That is, it is a combination of a marker coordinate value and an image ID. The marker route information I29 is marker information obtained by assigning an image ID to position information of the marker image 103 in each captured image 114 (for example, any one of upper right, lower right, upper left, and lower left in the captured image 114). Information associated with adjacent image IDs.
また、画像合成処理部11は、合成用補正値算出部194と、全域画像表示部195と、合成画像選択部196と、補正値算出部197と、合成部198と、を有する。 In addition, the image composition processing unit 11 includes a composition correction value calculation unit 194, a whole area image display unit 195, a composite image selection unit 196, a correction value calculation unit 197, and a composition unit 198.
合成用補正値算出部194は、基本処理部10からマーカ座標値であるマーカ座標情報I26と、場合により外部から付加的な情報、例えばマーカ配置間隔やレンズ収差などの撮影環境情報I50とを取得して、撮影画像114ごとの画像合成用の補正値を算出する。 The composition correction value calculation unit 194 obtains marker coordinate information I26 which is a marker coordinate value from the basic processing unit 10 and, optionally, additional information from the outside, for example, shooting environment information I50 such as marker arrangement interval and lens aberration. Then, a correction value for image synthesis for each captured image 114 is calculated.
全域画像表示部195は、合成用補正値算出部194によって算出された補正値である補正値情報I23を得て、基本処理部10から、画像情報I21を得て、全域画像を合成表示し、合成表示した全域画像を示す表示情報I51を出力する。 The entire area image display unit 195 obtains correction value information I23 that is a correction value calculated by the compositing correction value calculation unit 194, obtains image information I21 from the basic processing unit 10, and synthesizes and displays the entire area image. Display information I51 indicating the combined and displayed whole area image is output.
合成画像選択部196は、全域画像表示部195と連動した画像領域情報I24を得て、外部からの表示域指示I52を得て、指示対象となる画像を全域画像から選択する。 The composite image selection unit 196 obtains the image region information I24 that is linked to the entire region image display unit 195, obtains the display region instruction I52 from the outside, and selects an instruction target image from the entire region image.
補正値算出部197は、合成画像選択部196での選択画像の画像IDを含む画像ID信号I25と、基本処理部10からのマーカ座標情報I26およびマーカルート情報I29と、を取得して、選択画像を合成するための画像合成用補正値を算出する。 The correction value calculation unit 197 acquires and selects the image ID signal I25 including the image ID of the selected image in the composite image selection unit 196, the marker coordinate information I26 and the marker route information I29 from the basic processing unit 10. An image composition correction value for composing the image is calculated.
合成部198は、補正値算出部197によって算出された補正値を含む合成情報I27と、マーカルート情報I29と、を用いて、マーカ隠蔽画像を生成して、生成されたマーカ隠蔽画像を含む出力情報I53を出力する。 The synthesizing unit 198 generates a marker concealment image using the combination information I27 including the correction value calculated by the correction value calculation unit 197 and the marker route information I29, and outputs including the generated marker concealment image Information I53 is output.
<マーカ座標値の抽出方法>
ここで、マーカ座標値抽出部191によるマーカ座標値の具体的な抽出方法について説明する。マーカ座標値抽出部191は、画像情報I21内の各撮影画像114に含まれるマーカ像103の画像合わせ用の座標として重心座標値を求め易いように画像の輝度に対して閾値を設定し、マーカ像103を2値化する。これにより、輝度の高いマーカ像103は、例えば「白」、その他の画像部分は「黒」になる。したがって、簡単に「白」の画素集団(白画素連結集合)の重心座標値を求めれば、それがマーカ像103の座標値となる。本実施例では2値化によるマーカ像の重心座標値を画像合わせ用の基準座標値として利用する形態について記載しているが、画像合わせ用のマーカ像の座標値は、2値化したマーカ像の重心座標値に限定されない。
<Method for extracting marker coordinate values>
Here, a specific method of extracting marker coordinate values by the marker coordinate value extracting unit 191 will be described. The marker coordinate value extraction unit 191 sets a threshold value for the luminance of the image so that the center-of-gravity coordinate value can be easily obtained as the image matching coordinates of the marker image 103 included in each captured image 114 in the image information I21. The image 103 is binarized. Thereby, the marker image 103 with high luminance is, for example, “white”, and the other image portions are “black”. Accordingly, if the barycentric coordinate value of the “white” pixel group (white pixel linked set) is simply obtained, it becomes the coordinate value of the marker image 103. In the present embodiment, a description is given of a mode in which the barycentric coordinate value of the marker image obtained by binarization is used as the reference coordinate value for image alignment. However, the coordinate value of the marker image for image alignment is a binarized marker image. It is not limited to the barycentric coordinate value.
例えば、2値化したマーカ像の分布荷重を加えた中心座標値をマーカ像の座標値としてもよい。また、白画素連結集合を包含する矩形領域内の任意の座標値をマーカ像の座標値としてもよい。また、マーカ像の輝度分布が撮影位置に依らず安定している場合には、単純にマーカ像の輝度ピークの座標値を利用してもよい。この場合は、マーカ座標値の抽出処理が軽減されるメリットがある。マーカ像の座標値とは、上記のようにマーカ像に依存する座標値を意味する。 For example, a center coordinate value to which a binarized marker image distribution load is added may be used as the coordinate value of the marker image. Further, any coordinate value in the rectangular area including the white pixel linked set may be used as the coordinate value of the marker image. Further, when the luminance distribution of the marker image is stable regardless of the shooting position, the coordinate value of the luminance peak of the marker image may be simply used. In this case, there is an advantage that the marker coordinate value extraction process is reduced. The coordinate value of the marker image means a coordinate value depending on the marker image as described above.
さらに、マーカ座標値抽出部191は、撮影画像114を左半分と右半分に領域分割して、マーカ像103の属する分割領域にマーカ像103を特定するID(マーカID)を設定する。マーカ座標値抽出部191は、たとえば、マーカ像103が左半分の分割領域に属する場合は、マーカIDに「S」を設定し、マーカ像103が右半分の分割領域に属する場合は、マーカIDに「R」を設定する。そして、マーカ座標値抽出部191は、設定したマーカIDとマーカ像103の重心座標値とを関連付ける。 Further, the marker coordinate value extraction unit 191 divides the photographed image 114 into a left half and a right half, and sets an ID (marker ID) for identifying the marker image 103 in a divided region to which the marker image 103 belongs. For example, when the marker image 103 belongs to the left half of the divided area, the marker coordinate value extraction unit 191 sets “S” as the marker ID, and when the marker image 103 belongs to the right half of the divided area, the marker ID 103 Set “R” to. Then, the marker coordinate value extraction unit 191 associates the set marker ID with the barycentric coordinate value of the marker image 103.
実際の撮影画像114には高輝度なマーカ像103以外にも、高輝度な画像が存在する。例えば橋下での撮影では、損傷部分の穴や、端から輝度の高い漏れ光が写り込む。このような場合には、同じ撮影地点で同じ画素位置で、マーカ像103が付与された撮影画像114とマーカ像103の付与されていない撮影画像114が撮影されているため、この両撮影画像114の輝度の差分を得ることで、マーカ像103を特定することができる。 The actual captured image 114 includes a high-luminance image in addition to the high-luminance marker image 103. For example, when shooting under a bridge, leaked light with high brightness is reflected from the hole in the damaged part or from the edge. In such a case, since the photographic image 114 to which the marker image 103 is added and the photographic image 114 to which the marker image 103 is not attached are photographed at the same pixel position at the same photographing point, both the photographed images 114 are captured. The marker image 103 can be specified by obtaining the difference in luminance.
<画像ID:(m,n)Zの構成方法>
つぎに、情報取得部190による画像ID:(m,n)Zの構成方法について説明する。なお、図6に示した画像ID:n−Zは、カメラ2の配列方向の位置を示す符号mが規定されていないだけで、実質的に、画像ID:(m,n)Zと同じ画像IDである。
<Method for Constructing Image ID: (m, n) Z>
Next, a configuration method of the image ID: (m, n) Z by the information acquisition unit 190 will be described. Note that the image ID: n-Z shown in FIG. 6 is substantially the same as the image ID: (m, n) Z, except that the code m indicating the position of the camera 2 in the arrangement direction is not defined. ID.
情報取得部190は、撮影関連情報I11から、図6のタイミンチャートに示した(6)撮影画像114に画像IDを設定する。たとえば、情報取得部190は、図6の(1)から(4)の撮影関連状態情報に関連付けて、撮影時刻、撮影番号、カメラ装置8の移動または停止、マーカ付与装置6の移動または停止、カメラ装置8の移動とマーカ3の移動との前後関係、マーカ3の点灯または消灯、カメラ2の番号と画像情報の関係から、画像ID:(m,n)Zを設定する。 The information acquisition unit 190 sets an image ID to (6) the photographed image 114 shown in the timing chart of FIG. 6 from the photographing related information I11. For example, the information acquisition unit 190 associates with the shooting-related state information of (1) to (4) in FIG. 6, shooting time, shooting number, movement or stop of the camera device 8, movement or stop of the marker applying device 6, The image ID: (m, n) Z is set from the front-rear relationship between the movement of the camera device 8 and the movement of the marker 3, the lighting or extinction of the marker 3, and the relationship between the camera 2 number and the image information.
例えば、図6のタイミングチャート(6)に示すように、マーカ3の停止直後の場合、その撮影画像114(m,n)Zでは、「Z」に「F」が設定され、カメラ2の停止直後に撮影した撮影画像114(m,n)Zでは、「Z」に「B」が設定され、関連したマーカ3が消灯している撮影画像114(m,n)Zでは、「Z」に「O」が設定される。 For example, as shown in the timing chart (6) of FIG. 6, in the case of the captured image 114 (m, n) Z immediately after the stop of the marker 3, “F” is set to “Z” and the camera 2 is stopped. In the photographed image 114 (m, n) Z photographed immediately after, “B” is set to “Z”, and in the photographed image 114 (m, n) Z in which the related marker 3 is turned off, “Z” is displayed. “O” is set.
また、カメラ2の移動方向への時系列に伴い、撮影画像114(m,n)Zごとに、画像行列(m,n)の「n」の値(n=1,2,3,…)が設定され、カメラ2およびカメラ2の左端からの配列位置に対応して、画像行列(m,n)の「m」の値が(m=1,2,3,…)が設定される。これにより、撮影画像114の画像ID:(m,n)Zが設定される。 Further, with the time series in the moving direction of the camera 2, the value of “n” (n = 1, 2, 3,...) Of the image matrix (m, n) for each captured image 114 (m, n) Z. Is set, and the value of “m” in the image matrix (m, n) (m = 1, 2, 3,...) Is set corresponding to the arrangement position from the left end of the camera 2 and the camera 2. Thereby, the image ID: (m, n) Z of the captured image 114 is set.
<マーカルートの加工>
次にマーカルートの加工について説明する。マーカルート情報生成部193は、マーカ付与関連情報として、撮影関連情報I11からマーカ移動・停止信号I4やマーカ点・消灯信号I30、マーカ移動距離情報I5を得、かつ、マーカ座標抽出部191からマーカIDを得る。マーカルート情報生成部193は、撮影画像114の撮影順を示す画像IDやマーカ付与の有無情報、マーカ実座標位置にマーカIDをリンクさせてマーカルート情報I29を作成する。
<Machiner route processing>
Next, marker route processing will be described. The marker route information generation unit 193 obtains the marker movement / stop signal I4, the marker point / light-off signal I30, and the marker movement distance information I5 from the imaging-related information I11 as marker addition related information, and the marker coordinate extraction unit 191 receives the marker Get an ID. The marker route information generation unit 193 creates the marker route information I29 by linking the marker ID to the image ID indicating the photographing order of the photographed image 114, the marker presence / absence information, and the marker actual coordinate position.
たとえば、図9の(b)に示したマーカ像103−1−2−BSやマーカ像103−1−2−FSは、撮影画像114(1,1)の後ろ半分の分割領域に存在するため、符号の末尾にマーカIDを示す「B」が、撮影画像114(1,1)の前半分の分割領域に存在する場合には「F」が付与される。これらの情報と撮影画像114の時系列の関係から、同じマーカの撮影画像114を特定して同じマーカIDであるマーカ像103−1−2を得て、このマーカ像103−1−2のマーカIDを画像IDに沿って順次並べることにより、マーカルートが作成される。 For example, the marker image 103-1-2-BS and the marker image 103-1-2-FS shown in (b) of FIG. 9 are present in the rear half of the captured image 114 (1,1). In the case where “B” indicating the marker ID exists at the end of the code in the divided area in the front half of the captured image 114 (1, 1), “F” is assigned. From these information and the time-series relationship of the captured image 114, the captured image 114 of the same marker is specified to obtain the marker image 103-1-2 having the same marker ID, and the marker of the marker image 103-1-2 A marker route is created by sequentially arranging IDs along the image ID.
補正値算出部197は、合成画像選択部196により選択された画像の合成用補正値を算出する。まず、補正値算出部197は、合成用補正値用の基準画像を設定する。例えば、補正値算出部197は、選択された画像群の中央の画像を基準画像とする。基準画像から画像合成の対象である各画像までの最適なルートをマーカルート情報I29を用いて設定する。具体的には、たとえば、補正値算出部197は、基準画像から対象とする画像までのルート上の隣接画像間の行列積を算出することにより、マーカ像の座標値に内在する量子化誤差を累積するとともに、レンズ収差を撮影環境情報I50から取得することにより、レンズ収差に基づくレンズ歪み、行列積の算出に際して累積する。 The correction value calculation unit 197 calculates a correction value for composition of the image selected by the composite image selection unit 196. First, the correction value calculation unit 197 sets a reference image for composition correction value. For example, the correction value calculation unit 197 sets the center image of the selected image group as the reference image. An optimum route from the reference image to each image to be image-combined is set using the marker route information I29. Specifically, for example, the correction value calculation unit 197 calculates a matrix error between adjacent images on the route from the reference image to the target image, thereby calculating the quantization error inherent in the coordinate value of the marker image. In addition to accumulating, the lens aberration is acquired from the shooting environment information I50, so that the lens distortion and the matrix product based on the lens aberration are calculated.
ルートの終点となる画像合成の対象となる画像は、選択された画像群のうち基準画像以外の残余の画像であるが、補正値算出部197は、選択された画像群の最も外側の画像群のみを、ルートの終点となる画像合成の対象となる画像に選択してもよい。 The image that is the target of image synthesis that is the end point of the route is the remaining image other than the reference image in the selected image group, but the correction value calculation unit 197 is the outermost image group of the selected image group. May be selected as an image to be synthesized as an end point of the route.
例えば図14Aでは、基準画像であるマーカ画像123(C、C)から右斜め上のマーカ画像123(C−1、C+1)への行列積を構成するルートとしては、上のマーカ画像123(C−1、C)経由のルートと左のマーカ画像123(C,C+1)経由のルートがある。また、これら以外にも、マーカ画像123(C+1,C)→マーカ画像123(C+1,C+1)→マーカ画像123(C,C+1)を経由するルートもある。補正値算出部197は、これらのルート群の中で、距離が最短(ルート上の経由する画像の枚数が最小)となるルートを最適ルートとして選択する。 For example, in FIG. 14A, the marker image 123 (C, C), which is the reference image, and the marker image 123 (C, C + 1) have a matrix product from the marker image 123 (C-1, C + 1) on the upper right. -1, C) and a route via the left marker image 123 (C, C + 1). In addition to these, there is also a route that passes through the marker image 123 (C + 1, C) → the marker image 123 (C + 1, C + 1) → the marker image 123 (C, C + 1). The correction value calculation unit 197 selects a route having the shortest distance (the smallest number of images passing through the route) as the optimum route from among these route groups.
例えば、マーカ画像123(C,C)→マーカ画像123(C−1,C)→マーカ画像123(C−1,C+1)のルートとマーカ画像123(C,C)→マーカ画像123(C,C+1)→マーカ画像123(C−1,C+1)のルートが選択される。さらに、この2ルートうち、図14Aでは、さらにひび割れ情報としては縦方向の合わせ精度が重要ということで、予め方向の重要度を加味して、補正値算出部197は、マーカ画像123(C,C)→マーカ画像123(C,C+1)→マーカ画像123(C−1,C+1)のルートを最適なルートとして設定する。 For example, the route of the marker image 123 (C, C) → the marker image 123 (C−1, C) → the marker image 123 (C−1, C + 1) and the marker image 123 (C, C) → the marker image 123 (C, C The route of (C + 1) → marker image 123 (C−1, C + 1) is selected. Further, of these two routes, in FIG. 14A, since the accuracy of alignment in the vertical direction is further important as crack information, the correction value calculation unit 197 takes into account the importance of the direction in advance, and the correction value calculation unit 197 displays the marker image 123 (C, C) → marker image 123 (C, C + 1) → marker image 123 (C−1, C + 1) route is set as the optimum route.
また、補正値算出部197は、量子化誤差やレンズ歪みを考慮して最適ルートを選択してもよい。量子化誤差はマーカ間隔と画素数に依存するため、補正値算出部197は、ルートを構成するリンクごとに、マーカ間隔および画素密度から量子化誤差をマーカ像の座標値の不確定度として数値化する。また、レンズ歪みは画像内位置に依存するため、補正値算出部197は、ルートを構成するリンクごとに、予め計測されたカメラレンズ収差からレンズ歪みをマーカ像の座標値の不確定度として数値化する。そして、補正値算出部197は、各リンクの不確定度を合計することにより、累積不確定度をルートごとに算出し、累積不確定度が最小となるルートを最適ルートとして選択する。画像枚数が多く、ルート選択肢が増えると、ルート毎の累積誤差または累積歪の影響が出てくるためにルート上の画像枚数だけに依らない最適なルートが選択される。 Further, the correction value calculation unit 197 may select the optimum route in consideration of quantization error and lens distortion. Since the quantization error depends on the marker interval and the number of pixels, the correction value calculation unit 197 calculates the quantization error from the marker interval and the pixel density as the uncertainty of the coordinate value of the marker image for each link constituting the route. Turn into. Since the lens distortion depends on the position in the image, the correction value calculation unit 197 sets the lens distortion as a degree of uncertainty of the coordinate value of the marker image from the camera lens aberration measured in advance for each link constituting the route. Turn into. Then, the correction value calculation unit 197 calculates the cumulative uncertainty for each route by summing the uncertainty of each link, and selects the route with the smallest cumulative uncertainty as the optimum route. When the number of images is large and the number of route options increases, the influence of cumulative error or cumulative distortion for each route appears, so that an optimal route that does not depend only on the number of images on the route is selected.
最終的に、補正値算出部197は、設定した最適なルートに沿って、基準画像(マーカ画像123(C,C))の座標系に対象となる画像(マーカ画像123(C−1,C+1))の座標系を合わせるための座標変換行列積(後述する式(9)を参照)を画像合成用の合成用補正値として算出する。 Finally, the correction value calculation unit 197 follows the set optimum route in the coordinate system of the reference image (marker image 123 (C, C)) (marker image 123 (C-1, C + 1). )) Coordinate transformation matrix product for matching the coordinate system (see equation (9) described later) is calculated as a composition correction value for image composition.
<基準画像ベースの画像処理例>
図12Aおよび図12Bは、実施例1にかかる基準画像ベースの画像処理例を示す説明図である。図12A中、(a)は、図11の基本処理部10におけるマーカ座標値抽出部191の処理を示す。図12Aの(b)と図12Bの(c)は、画像合成処理部11の合成用補正値算出部194の処理を示す。図12Bの(d)は、全域画像表示部195の処理を示す。但し、実際の画像処理は、全画素座標について計算するものではなく、マーカ像103の撮影画像114内の座標値を基点とした座標変換のための補正値を求める処理であり、(a)〜(c)は、その変換される座標系のイメージを2値化されたマーカ座標系として分かり易く示した図である。
<Reference image-based image processing example>
FIG. 12A and FIG. 12B are explanatory diagrams illustrating a reference image-based image processing example according to the first embodiment. 12A shows the processing of the marker coordinate value extraction unit 191 in the basic processing unit 10 of FIG. (B) in FIG. 12A and (c) in FIG. 12B show processing of the correction value calculation unit 194 for synthesis of the image synthesis processing unit 11. (D) of FIG. 12B shows the process of the whole area image display part 195. FIG. However, the actual image processing is not a calculation for all the pixel coordinates, but is a process for obtaining a correction value for coordinate conversion based on the coordinate value in the captured image 114 of the marker image 103 as a base point. (C) is the figure which showed the image of the coordinate system to be converted as a binarized marker coordinate system in an easy-to-understand manner.
図12Aの(a)において、マーカ画像115は、図9の(b)に示した撮影画像114の輝度に閾値を設けて、2値化処理した画像である。マーカ画像115内の白点はマーカ像103である。(a)は、図9の撮影画像群のm行に当たるマーカ画像115(m,1)O〜115(m,n)Fを示す。マーカ画像115の画像ID:115(m,1)O〜115(m,n)Fと、マーカ画像115の中のマーカ像103−m−2−FS〜103−m−(n+1)−FSの重心座標値とが、マーカ座標値抽出部191により抽出されて、マーカ情報保持部192に保持される。以下、マーカ座標系の変換の処理についてアフィン変換表示を用いて説明する。 In FIG. 12A (a), the marker image 115 is an image that has been binarized by providing a threshold value for the brightness of the captured image 114 shown in FIG. 9B. A white point in the marker image 115 is the marker image 103. (A) shows the marker images 115 (m, 1) O to 115 (m, n) F corresponding to m rows of the photographed image group in FIG. 9. Image IDs of the marker images 115: 115 (m, 1) O to 115 (m, n) F and marker images 103-m-2-FS to 103-m- (n + 1) -FS in the marker image 115 The barycentric coordinate value is extracted by the marker coordinate value extracting unit 191 and held in the marker information holding unit 192. The marker coordinate system conversion process will be described below using affine transformation display.
一般的に(bx、by)の座標系で現された座標値を(ax,ay)の座標系に変換する場合の変換行列を[α]とするすると、以下のようなアフィン変換式(2)で表される。 In general, when a coordinate matrix for converting a coordinate value expressed in a coordinate system of (bx, by) to a coordinate system of (ax, ay) is [α], the following affine transformation equation (2 ).
(ax,ay,1)=[α](bx,by,1) ・・・・(2) (Ax, ay, 1) = [α] (bx, by, 1) (2)
ここで、変換行列[α]は、下記式(3)で表される。 Here, the transformation matrix [α] is expressed by the following formula (3).
[α]=[(A,−B,tx)(B,A,ty)(0,0,1)] ・・・・(3) [Α] = [(A, −B, tx) (B, A, ty) (0, 0, 1)] (3)
変換行列[α]は、A,B,tx,tyの4つの未知数である補正値を含む。AとBは、(bx,by)の座標系を基準にして(ax,ay)への座標変換を行うときの極座標表現を用いると、A=R×cosθ、B=R×sinθで表現される。ここで、Rは(bx、by)の座標系を基準としたときの座標系間の寸法の倍率変化であり、θは座標軸の回転角である。また、(tx、ty)は両座標系の原点の移動量を表す。このため、隣接するカメラ撮影領域間で倍率も撮影方向も同じであれば、両座標系の変換のための補正値を求めるマーカ像103は一つでよい。この場合、一つのマーカ像103の座標値を式(2)に代入して、A=1,B=1とすることにより、(tx、ty)を求めることで必要な座標変換値、すなわち合成用補正値が得られる。 The transformation matrix [α] includes correction values that are four unknowns A, B, tx, and ty. A and B are expressed as A = R × cos θ and B = R × sin θ, using a polar coordinate expression when coordinate conversion to (ax, ay) is performed with reference to the coordinate system of (bx, by). The Here, R is a change in magnification of the dimension between coordinate systems when the coordinate system of (bx, by) is used as a reference, and θ is a rotation angle of the coordinate axes. Further, (tx, ty) represents the movement amount of the origin of both coordinate systems. For this reason, if the magnification and the shooting direction are the same between adjacent camera shooting areas, only one marker image 103 may be used to obtain a correction value for conversion between both coordinate systems. In this case, the coordinate value of one marker image 103 is substituted into equation (2) and A = 1 and B = 1, so that (tx, ty) is obtained to obtain the necessary coordinate conversion value, that is, synthesis. A correction value is obtained.
図12A中、(b)は(a)のm行の中の基準画像の座標系で統一した座標系でm行の画像群を表した図である。基準画像は、たとえば、m=1、n=1のマーカ画像115(1,1)である。(b)では、m行の中で隣接するマーカ画像115間を共通のマーカ像103、例えば、最初のマーカ画像115(m,1)Fと次のマーカ画像115(m、2)Bとの間で、共通するマーカのマーカ像103−m−2−FS,103−m−2−BS,103−m−2−FR,103−m−2−BRの重心座標値を下記式(4)に代入することにより、変換行列[α1]の4つの未知数A,B,tx,tyが求まる。 In FIG. 12A, (b) is a diagram showing an image group of m rows in a coordinate system unified with the coordinate system of the reference image in m rows of (a). The reference image is, for example, a marker image 115 (1, 1) with m = 1 and n = 1. In (b), between the marker images 115 adjacent in m rows, a common marker image 103, for example, the first marker image 115 (m, 1) F and the next marker image 115 (m, 2) B The barycentric coordinate values of the marker images 103-m-2-FS, 103-m-2-BS, 103-m-2-FR, and 103-m-2-BR of the common markers are expressed by the following equation (4). By substituting into, four unknowns A, B, tx, ty of the transformation matrix [α1] are obtained.
(am1x,am1y,1)=[α1](am2x,am2y,1)
・・・・(4)
(Am1x, am1y, 1) = [α1] (am2x, am2y, 1)
.... (4)
マーカ像103−m−2−FSの重心座標値は、(af,bf)である。マーカ像103−m−2−BSの重心座標値は、(ab,bb)である。マーカ像103−m−2−FRの重心座標値は、(xf,yf)である。マーカ像103−m−2−BRの重心座標値は、(xb.yb)である。これらを上記式(4)に代入すると、
(af,bf,1)=[α1](xf,yf,1)
(ab,bb,1)=[α1](xb,yb,1)
となり、4変数が求まる。
The barycentric coordinate value of the marker image 103-m-2-FS is (af, bf). The barycentric coordinate value of the marker image 103-m-2-BS is (ab, bb). The barycentric coordinate value of the marker image 103-m-2-FR is (xf, yf). The barycentric coordinate value of the marker image 103-m-2-BR is (xb.yb). Substituting these into equation (4) above,
(Af, bf, 1) = [α1] (xf, yf, 1)
(Ab, bb, 1) = [α1] (xb, yb, 1)
And 4 variables are obtained.
同様に、(n−1)番目の2値化画像115(m,n−1)とn番目の2値化画像115(m,n)の間の補正値を示す変換行列[α(n−1)]は、下記式(5)で表現される。 Similarly, a transformation matrix [α (n−) indicating a correction value between the (n−1) th binarized image 115 (m, n−1) and the nth binarized image 115 (m, n). 1)] is expressed by the following equation (5).
(am(n−1)x,am(n−1)y,1)
=[α(n−1)](amnx,amny,1) ・・・・(5)
(Am (n-1) x, am (n-1) y, 1)
= [Α (n-1)] (amnx, amny, 1) (5)
そして、n番目のマーカ画像115(m,n)の座標値は、基準画像である1番目のマーカ画像115(m,1)からn番目のマーカ画像115(m,n)までのアフィン変換係数行列を掛け合わせる。これにより、2番目以降のマーカ画像115(m,2),…,115(m,n)が基準画像である1番目のマーカ画像115(m,1)の画素座標系に統一される。n番目のマーカ画像115(m,n)の座標系をマーカ画像115(m,1)の座標系で統一的に表すと、下記式(6)となる。 The coordinate values of the n-th marker image 115 (m, n) are affine transformation coefficients from the first marker image 115 (m, 1), which is the reference image, to the n-th marker image 115 (m, n). Multiply the matrix. Thereby, the second and subsequent marker images 115 (m, 2),..., 115 (m, n) are unified into the pixel coordinate system of the first marker image 115 (m, 1) which is the reference image. When the coordinate system of the n-th marker image 115 (m, n) is uniformly expressed by the coordinate system of the marker image 115 (m, 1), the following equation (6) is obtained.
(am1x,am1y,1)
=[α1][α2]・・・[α(n−1)](amnx,amny,1)
・・・・(6)
(Am1x, am1y, 1)
= [Α1] [α2]... [Α (n−1)] (amnx, amny, 1)
.... (6)
このようにして求めたm行n番目のマーカ画像115(m,n)の行内統一座標系で表示されるマーカ画像群が、(b)のマーカ画像116(m,1)〜116(m,n)となる。なお、(b)では、m行についてのマーカ画像116(m,1)〜116(m,n)を示したが、m=1,2,3,…,m−1行についても同様にマーカ画像116が生成される。 Marker image groups displayed in the in-row unified coordinate system of the m-th row and n-th marker image 115 (m, n) thus obtained are the marker images 116 (m, 1) to 116 (m, n) in (b). n). Note that, in (b), the marker images 116 (m, 1) to 116 (m, n) for m rows are shown, but the markers for m = 1, 2, 3,. An image 116 is generated.
図12Bの(c)では、合成用補正値算出部194が、(b)で得られたm−1行のマーカ画像群116−(m−1)の行内統一座標系とm行のマーカ画像群116−mの行内統一座標系との合成を行う。合成用補正値算出部194は、m−1行目の行内統一座標系とm行目の行内統一座標系において、共通する移動方向の両端のマーカ像103−(m−1)−2におけるマーカ像103−(m−1)−2−FR,103−(m−1)−2−FSの座標値と、マーカ像103−(m−1)−(n+1)におけるマーカ像103−(m−1)−(n+1)−FR,103−(m−1)−(n+1)−FSの座標値とを、アフィン変換の式(2)に代入して、両者の変換行列[β(m−1)]を求める。m−1行目の行内統一座標系は(a(m−1)1x,a(m−1)1y)、m行目の行内統一座標系は(am1x,am1y)であるので、アフィン変換の式(2)に代入した式は、下記式(7)で表現される。 In FIG. 12B (c), the composition correction value calculation unit 194 performs the in-row unified coordinate system and the m-row marker image of the m-1-row marker image group 116- (m-1) obtained in (b). The group 116-m is synthesized with the in-line unified coordinate system. The compositing correction value calculation unit 194 uses the marker in the marker image 103- (m−1) -2 at both ends in the common moving direction in the in-row unified coordinate system of the m−1th row and the in-row unified coordinate system of the mth row. The coordinate values of the images 103- (m-1) -2-FR and 103- (m-1) -2-FS and the marker image 103- (m-) in the marker image 103- (m-1)-(n + 1). 1)-(n + 1) -FR, 103- (m-1)-(n + 1) -FS coordinate values are substituted into affine transformation equation (2), and the transformation matrix [β (m-1 )]. The in-line unified coordinate system of the (m-1) th row is (a (m-1) 1x, a (m-1) 1y), and the in-row unified coordinate system of the mth row is (am1x, am1y). The formula assigned to the formula (2) is expressed by the following formula (7).
(a(m−1)1x,a(m−1)1y,1)
=[β(m−1)](am1x,am1y,1) ・・・・(7)
(A (m-1) 1x, a (m-1) 1y, 1)
= [Β (m−1)] (am1x, am1y, 1) (7)
1行目の統一座標系(a11x,a11y)でm行の行内統一座標系を変換する式は、順次、行間のアフィン変換行列を掛け合わせることにより、下記式(8)で表現される。 The equation for transforming the m-row unified coordinate system in the first row unified coordinate system (a11x, a11y) is expressed by the following equation (8) by sequentially multiplying the affine transformation matrix between the rows.
(a11x,a11y,1)
=[β1][β2]・・・[β(m−1)](am1,am1y,1)
・・・・(8)
(A11x, a11y, 1)
= [Β1] [β2]... [Β (m−1)] (am1, am1y, 1)
.... (8)
n番目の2値化画像116(m,n)は、基準画像、例えば、2値化画像116(1,1)の基準画像の行列全体の統一座標系として、式(6)と式(8)により、下記式(9)で表現される。 The n-th binarized image 116 (m, n) is a unified coordinate system of the entire matrix of the reference image, for example, the reference image of the binarized image 116 (1, 1). ) Is expressed by the following formula (9).
(a11x,a11y,1)=[β1][β2]・・・[β(m−1)][α1][α2]・・・[α(n−1)](amnx,amny,1) ・・・・(9) (A11x, a11y, 1) = [β1] [β2] ... [β (m-1)] [α1] [α2] ... [α (n-1)] (amnx, amny, 1) ... (9)
図12Bの(c)は、行列全体の統一座標系でのマーカ画像117(1,1)〜117(m,n)を示している。この行列全体の統一座標系への掛け合わせアフィン変換係数[β1][β2]・・・[β(m−1)][α1][α2]・・・[α(n−1)](=[β][α])が、各マーカ画像(1,1)〜117(m,n)の最終的な合成用補正値に相当する。 FIG. 12B (c) shows marker images 117 (1, 1) to 117 (m, n) in the unified coordinate system of the entire matrix. Multiplication affine transformation coefficients [β1] [β2]... [Β (m−1)] [α1] [α2]... [Α (n−1)] (= [[Beta]] [[alpha]]) corresponds to the final composition correction value for each of the marker images (1, 1) to 117 (m, n).
図12Bの(c)では、カメラ2の配列方向の間隔が広い2つのマーカ像103を用いた。画素座標化には粒子化誤差などの累積誤差が含まれる。誤差要素は間隔に反比例して小さくなるため、用いる2つのマーカ像103の間隔は広い方がよい。画像合成において隣接する画像間で直接的に共有するマーカ像103の座標値でなく、他の画像のマーカ像103の補正値からの掛け合わせアフィン変換による合成を行う場合、理想的には、マーカルート情報から、最短のルートを導き出し、掛け合わせ誤差の累積を避けることが望ましい。 In FIG. 12B (c), two marker images 103 having a wide interval in the arrangement direction of the cameras 2 are used. Pixel coordinateization includes cumulative errors such as particleization errors. Since the error element becomes smaller in inverse proportion to the interval, it is better that the interval between the two marker images 103 to be used is wider. When performing synthesis by multiplying affine transformation from the correction value of the marker image 103 of another image instead of the coordinate value of the marker image 103 that is directly shared between adjacent images in image synthesis, ideally the marker It is desirable to derive the shortest route from the route information and avoid accumulation of multiplication errors.
図12Bの(d)では、上記補正値(図12Bの(c)で得られたアフィン変換係数[β][α])を使って、基本処理部10の情報取得部190から画像情報I21を取得して全体画像を合成する全域画像表示部195の動作を具体的に説明する。 In (d) of FIG. 12B, the image information I21 is obtained from the information acquisition unit 190 of the basic processing unit 10 using the correction value (affine transformation coefficient [β] [α] obtained in (c) of FIG. 12B). The operation of the entire area image display unit 195 that acquires and synthesizes the entire image will be specifically described.
全域画像表示部195は、全画像の行列全体の統一座標系(すなわち、基準画像の座標系)への変換で示される各マーカ画像117(m,n)を、元となる撮影画像114(m,n)に適用することで、各マーカ画像117(m,n)の座標値を、マーカ座標値を介した一連の合成画像としての座標値に置き換える。 The entire area image display unit 195 converts each marker image 117 (m, n) indicated by the conversion of the entire matrix of all the images into the unified coordinate system (that is, the coordinate system of the reference image) as the original captured image 114 (m , N), the coordinate values of each marker image 117 (m, n) are replaced with the coordinate values as a series of synthesized images via the marker coordinate values.
全域画像表示部195は、撮影画像114(m,n)を合成するに際して、情報取得部190から、画像IDに対応した撮影時刻を用いて、撮影時刻が遅く、マーカ像103が最後尾にある撮影画像114−Bに撮影時刻が前のマーカ像103が最後尾にある撮影画像114を上書きする。最終的は、全域画像表示部195は、マーカ像103のない初期の撮影画像114−Oで上書きする。 When synthesizing the captured image 114 (m, n), the entire area image display unit 195 uses the imaging time corresponding to the image ID from the information acquisition unit 190, and the imaging time is late, and the marker image 103 is at the end. The photographed image 114-B is overwritten with the photographed image 114 with the marker image 103 with the previous photographing time at the end. Finally, the entire area image display unit 195 overwrites the initial captured image 114-O without the marker image 103.
このようにすることで、全域画像表示部195は、マーカ像103が順次隠蔽された被写体画像を合成することができる。全域画像表示部195は、各撮影画像114(m,n)の座標値を行列統一座標系に変換して、画像118(1,1)O〜118(m,n)Bの合成画像118を得る。ここでは、分かり易く、合成画像118の表示を対象にした処理を示したが、必要に応じて、表示範囲を限定してよい。また、時系列上撮影時刻が早い撮影画像114-Bの座標変換画像118−Bで時系列上撮影時刻が遅い撮影画像114−Bの座標変換画像118−Bを上書きして、最後にマーカ像103のない初期の撮影画像114−Oの座標変換画像118−Oで上書きをすることによるマーカ隠蔽の手順に代わり、時系列上遅い撮影画像114−Fの座標変換画像118−Fで時系列上早い撮影画像114−Fの座標変換画像118−Fを上書きして、最後にマーカ像103のない撮影をした画像で上書きしてもよい。 In this way, the entire area image display unit 195 can synthesize a subject image in which the marker images 103 are sequentially hidden. The entire area image display unit 195 converts the coordinate value of each captured image 114 (m, n) into a matrix unified coordinate system, and generates a composite image 118 of the images 118 (1, 1) O to 118 (m, n) B. obtain. Here, it is easy to understand, and processing for displaying the composite image 118 has been shown, but the display range may be limited as necessary. In addition, the coordinate conversion image 118-B of the captured image 114-B with the earlier shooting time on the time series is overwritten with the coordinate converted image 118-B of the captured image 114-B with the later shooting time on the time series, and finally the marker image. Instead of the marker concealment procedure by overwriting with the coordinate conversion image 118-O of the initial photographed image 114-O without 103, the coordinate conversion image 118-F of the photographed image 114-F that is slow in time series The coordinate-converted image 118-F of the early captured image 114-F may be overwritten, and overwritten with the image captured without the marker image 103 at the end.
<マーカ像103の実座標ベースの画像処理例>
図13A〜図13Dは、実施例1にかかるマーカ像103の実座標ベースの画像処理例を示す説明図である。図12では、撮影画像114から抽出したマーカ像103の座標値を用いて全体画像を合成するための補正値算出と画像合成とを示した。図13A〜図13Dでは、マーカ像103の実座標系であるマーカ位置座標系を基準とした全体画像の合成について説明する。図13Aのマーカ像103は、図12の(a)と同じであるが、図13Aでは、隣接画像間の座標統一処理は行わないため、最後尾にマーカ像103を持つマーカ画像115(1,1)B〜115(m,n)Bが選択される。
<Example of Real Coordinate-Based Image Processing of Marker Image 103>
13A to 13D are explanatory diagrams illustrating an example of image processing based on real coordinates of the marker image 103 according to the first embodiment. FIG. 12 illustrates correction value calculation and image synthesis for synthesizing the entire image using the coordinate values of the marker image 103 extracted from the captured image 114. 13A to 13D, the synthesis of the entire image with reference to the marker position coordinate system that is the actual coordinate system of the marker image 103 will be described. The marker image 103 in FIG. 13A is the same as (a) in FIG. 12. However, in FIG. 13A, since the coordinate unification processing between adjacent images is not performed, the marker image 115 (1, 1, 1) B to 115 (m, n) B are selected.
図13Bについて説明する。図13Bは、実座標系(マーカ位置座標系)におけるマーカ位置120−1−1〜120−4−nを示す。図11の画像処理装置9の機能ブロックにおいて、撮影環境情報I50として、マーカ31間隔に相当するマーカレーザ131の物理的な実間隔寸法情報や、撮影関連情報I11に含まれるマーカ移動距離情報が用いられる。 FIG. 13B will be described. FIG. 13B shows marker positions 120-1-1-1 to 120-4-n in the real coordinate system (marker position coordinate system). In the functional block of the image processing apparatus 9 in FIG. 11, the physical actual interval size information of the marker laser 131 corresponding to the interval between the markers 31 and the marker movement distance information included in the imaging related information I11 are used as the imaging environment information I50. .
マーカ移動距離情報には、制御で利用するマーカ移動距離情報、計測したマーカ移動距離情報、または、間接的なパラメータから算出されたマーカ移動距離情報がある。制御で利用するマーカ移動距離情報とは、図2に示した調整シリンダ158など使って、移動処理部133と移動処理部132との間隔を制御する場合のマーカ移動距離情報である。 The marker moving distance information includes marker moving distance information used in control, measured marker moving distance information, or marker moving distance information calculated from indirect parameters. The marker movement distance information used in the control is marker movement distance information when the interval between the movement processing unit 133 and the movement processing unit 132 is controlled using the adjustment cylinder 158 shown in FIG.
レーザ距離計測部157で計測したマーカ移動距離情報とは、図2に示したレーザ距離計測部157による計測値である。移動距離の制御や計測には、この他にも、軌道レール105などに刻んだ目盛を読む、駆動輪に連動する回転移動距離を読むなど種々の方法があり得る。 The marker movement distance information measured by the laser distance measurement unit 157 is a measurement value by the laser distance measurement unit 157 shown in FIG. In addition to this, there are various methods for controlling and measuring the movement distance, such as reading a scale engraved on the track rail 105 and the like, and reading a rotational movement distance linked to the drive wheel.
このとき、撮影画像114中のマーカ像103とマーカ3とを関連付けするために、撮影装置5は、例えば、マーカ移動距離情報と撮影画像情報I10の関係が分かるように撮影関連情報I11にも同一の撮影時刻または撮影番号を付与する。合成用補正値算出部194は、物理的な実間隔寸法情報やマーカ移動距離情報に基づき、格子上のマーカ群の実座標配置としてマーカ位置120−1−1〜120−4−nを構成する。 At this time, in order to associate the marker image 103 and the marker 3 in the photographed image 114 with each other, the photographing device 5 is identical to the photographing related information I11 so that the relationship between the marker moving distance information and the photographed image information I10 can be understood. Is given a shooting time or shooting number. The composition correction value calculation unit 194 configures the marker positions 120-1-1-1 to 120-4-n as the actual coordinate arrangement of the marker group on the lattice based on the physical actual interval size information and the marker movement distance information. .
図13Cは、図13Bに示したマーカ位置120を基準にしたマーカ像103の座標系の変換を示した図である。マーカルート情報生成部193は、図13Bのマーカ位置座標系のマーカ位置120−m−nと図13Aのマーカ像103−m−n−XYとの同一性を識別して、マーカ位置120とマーカ像103とを関連付ける。具体的には、mとnの値が同一であれば、両者は関連付けられる。たとえば、マーカ像103−1−1−BSとマーカ位置120−1−1とが関連付けられ、マーカ像103−2−1−BSとマーカ位置120−2−1とが関連付けられる。より具体的には、マーカルート情報生成部193は、物理的なカメラ2の位置とマーカ付与部130の位置の関係や、撮影画像114とマーカ移動距離情報の時間または順番の同一性を参照することにより、マーカ像103との同一性を識別して、マーカ位置120−m−nとマーカ像103−m−n−XYとを関連付ける。 FIG. 13C is a diagram illustrating the transformation of the coordinate system of the marker image 103 with reference to the marker position 120 illustrated in FIG. 13B. The marker route information generation unit 193 identifies the identity between the marker position 120-mn of the marker position coordinate system of FIG. 13B and the marker image 103-mn-XY of FIG. The image 103 is associated. Specifically, if m and n have the same value, they are associated with each other. For example, the marker image 103-1-1-BS and the marker position 120-1-1 are associated with each other, and the marker image 103-2-1-1-BS and the marker position 120-2-1 are associated with each other. More specifically, the marker route information generation unit 193 refers to the relationship between the position of the physical camera 2 and the position of the marker providing unit 130 and the time or order of the captured image 114 and the marker movement distance information. Thus, the identity with the marker image 103 is identified, and the marker position 120-mn and the marker image 103-mn-XY are associated with each other.
図13Aのマーカ画像115(m,1)B〜マーカ画像115(m,n)Bのマーカ像103−1−1−BS,103−1−1−BRの画素座標値と、その両者のマーカ像103−1−1−BS,103−1−1−BRに対応するマーカ3−1のマーカ位置実座標系での座標位置120−1−1,120−2−1の座標値とを、式(2)に代入して、アフィン変換のための変換行列[γ11]を算出する。マーカ画像115(1、1)の実座標系(cx,cy)は、アフィン変換行列[γ11]により下記式(10)で表現される。 The pixel coordinate values of the marker images 103-1-1-BS and 103-1-1-BR of the marker image 115 (m, 1) B to the marker image 115 (m, n) B in FIG. The coordinate values of the coordinate positions 120-1-1 and 120-2-1 in the marker position real coordinate system of the marker 3-1 corresponding to the images 103-1-1-BS and 103-1-1-BR, Substituting into Equation (2), a transformation matrix [γ11] for affine transformation is calculated. The real coordinate system (cx, cy) of the marker image 115 (1, 1) is expressed by the following equation (10) by an affine transformation matrix [γ11].
(cx,cy,1)=[γ11](a11x,a11y,1) ・・・・(10) (Cx, cy, 1) = [γ11] (a11x, a11y, 1) (10)
同様にしてこの変換を任意のマーカ画像115(m,n)Bのマーカ座標115−m−n−BSと115−m−n−BRとマーカ位置120−m−n、120−m−(n+1)に適用することで[γmn]が求まり、各画像の画素座標値からマーカ位置実座標系での全体統一座標への変換系としてのマーカ画像121(1,1)B〜121(m,n)B、図13Cでは121(1,1)B〜121(3,n)Bへの変換補正値[γ11]〜[γmn]が得られる。 Similarly, this conversion is performed by using marker coordinates 115-mn-BS and 115-mn-BR and marker positions 120-mn and 120-m- (n + 1) of an arbitrary marker image 115 (m, n) B. ) To obtain [γmn], and the marker images 121 (1, 1) B to 121 (m, n) as a conversion system from the pixel coordinate value of each image to the entire unified coordinate in the actual coordinate system of the marker position are obtained. B) In FIG. 13C, conversion correction values [γ11] to [γmn] for 121 (1,1) B to 121 (3, n) B are obtained.
図13Dは、図12Bの(d)と同様に、全体統一座標系への変換で示される各画像のマーカ画像121(m,n)Bをオリジナルの撮影画像114(m,n)Bに適用することで、マーカ座標を介した全体統一座標への変換を行った一連の合成画像が得られる。全域画像表示部195は、順次、撮影時刻が遅く、マーカ像103が最後尾にある撮影画像114に撮影時刻が前のマーカ像103が最後尾にある撮影画像114を上書きする。最終的には、全域画像表示部195は、マーカ像103のない初期の撮影画像114(1,1)O〜114(3,1)Oで上書きする。 FIG. 13D applies the marker image 121 (m, n) B of each image indicated by the conversion to the overall unified coordinate system to the original captured image 114 (m, n) B, as in (d) of FIG. 12B. By doing so, a series of synthesized images obtained by converting into the overall unified coordinates via the marker coordinates can be obtained. The entire image display unit 195 sequentially overwrites the captured image 114 with the marker image 103 at the tail end and the captured image 114 with the marker image 103 at the tail end of the previous captured image. Eventually, the entire area image display unit 195 overwrites the initial captured image 114 (1,1) O to 114 (3,1) O without the marker image 103.
また、時系列上早い撮影画像114−Bの座標変換画像122−Bで時系列上遅い撮影画像114−Bの座標変換画像122−Bを上書きして、最後にマーカ像103のない初期の撮影画像114−Oの座標変換画像122−Oで上書きをすることによるマーカ隠蔽の手順に代わり、図には示していないが時系列上遅い撮影画像114−Fの座標変換画像122−Fで時系列上早い撮影画像114−Fの座標変換画像122−Fを上書きして、最後にマーカ像103のない撮影をした画像で上書きしてもよい。 In addition, the coordinate conversion image 122-B of the time-sequentially captured image 114-B is overwritten with the coordinate conversion image 122-B of the chronologically-slowly captured image 114-B, and finally the initial imaging without the marker image 103 is performed. In place of the marker concealment procedure by overwriting the coordinate conversion image 122-O of the image 114-O with the coordinate conversion image 122-O, the coordinate conversion image 122-F of the photographed image 114-F which is not shown in the figure but is slow in time series is time series. The coordinate-converted image 122-F of the upper captured image 114-F may be overwritten and overwritten with an image captured without the marker image 103 at the end.
このようにすることで、全域画像表示部195は、マーカ像103が順次隠蔽されたオリジナルの被写体画像を合成することができる。全域画像表示部195は、実座標を統一座標系とした座標系に変換して、選択した画像122(1,1)O〜122(3,n)Bの合成画像122を得る。ここでは、分かり易く、合成画像122の表示を対象にした処理を示したが、必要に応じて、表示範囲を限定してよい。 In this way, the entire area image display unit 195 can synthesize the original subject image in which the marker images 103 are sequentially hidden. The entire area image display unit 195 converts the real coordinates into a coordinate system having a unified coordinate system, and obtains a composite image 122 of the selected images 122 (1, 1) O to 122 (3, n) B. Here, the processing intended to display the composite image 122 is easy to understand, but the display range may be limited as necessary.
共通するマーカ3のマーカ像103を用いた画像合成においては、必ず画素の粒子化に伴う粒子化誤差が発生し、さらに、撮影歪みなども加わり、補正値の掛け合わせを繰り返すと誤差や歪が累積して合わせずれを生じるようになる。撮影用のカメラ2として1920×1080画素のフルHDを使うとき、0.2[mm]のひび割れ41を撮影するための解像度を画素間隔に設定すると、撮影領域113は384[mm]×216[mm]の範囲となる。 In the image composition using the marker image 103 of the common marker 3, a particleization error always occurs due to the pixelization of the pixel, and further, imaging distortion is added. Cumulative misalignment occurs. When a full HD of 1920 × 1080 pixels is used as the camera 2 for photographing, if the resolution for photographing the crack 41 of 0.2 [mm] is set to the pixel interval, the photographing region 113 is 384 [mm] × 216 [ mm].
撮影画像114でのマーカ像103の重心位置における画素化に伴う粒子化誤差は、例えば、図12に示したマーカ画像のみの補正値処理では、統一座標系への変換では誤差が累積され、最大で±0.2mm×nの誤差が発生する。図2に示したレーザ距離計測部157として市販のレーザ距離測定装置を適用すると、マーカ移動距離情報の位置精度は±1[mm]程度である。単純には、移動撮影の回数nがn=5以上になると、レーザ距離測定装置による実マーカ統一座標系を用いた補正値の方がマーカ像基準の隣接画像間の補正値による画像合成よりも歪の少ない画像となる。逆に、表示範囲が5つの画像の範囲以下であれば、マーカ像基準の隣接画像間の補正値を持った方が画像合成の際の画像間の合わせ精度が高くなる。 For example, in the correction value processing of only the marker image shown in FIG. 12, the error is accumulated in the conversion to the unified coordinate system, and the particleization error due to the pixelation at the center of gravity of the marker image 103 in the captured image 114 is the maximum. Causes an error of ± 0.2 mm × n. When a commercially available laser distance measuring device is applied as the laser distance measuring unit 157 shown in FIG. 2, the position accuracy of the marker moving distance information is about ± 1 [mm]. Simply, when the number n of moving shooting is n = 5 or more, the correction value using the actual marker unified coordinate system by the laser distance measuring device is more than the image synthesis by the correction value between adjacent images based on the marker image. The image is less distorted. Conversely, if the display range is less than or equal to the range of five images, the accuracy of alignment between images at the time of image synthesis is higher when the correction value between adjacent images based on the marker image is used.
しかし、図12に示した手法では、全体画像を表示するために、(m−1)行とm行の統一座標系の画像合成に初期の付与マーカおよび最終の付与マーカを基準にしており、行の中間に位置する画像群では、粒子化誤差の累積によるずれの影響を受ける。このように、表示用画像合成においては、表示範囲に含まれる画像数とマーカ座標位置の測定精度、撮影に伴う歪みなどにより、画像間の合わせ精度が最適な合成補正値の算出手段が異なる。 However, in the technique shown in FIG. 12, in order to display the entire image, the initial assigned marker and the final assigned marker are used as a reference for the image synthesis of the unified coordinate system of (m−1) and m rows. The image group located in the middle of the row is affected by the shift due to the accumulation of the graining error. As described above, in the display image composition, the calculation means for the composition correction value with the optimum alignment accuracy between images differs depending on the number of images included in the display range, the measurement accuracy of the marker coordinate position, the distortion accompanying the photographing, and the like.
図11の合成画像選択部196、補正値算出部197、合成部198における画像処理において、表示域指示I52に基づく合成画像選択部196での対象となる画像群の範囲が、例えば、5画像より広い場合、実座標統一座標系への補正値または実座標情報がなければ、基準画像座標統一座標系の補正値を適用することにより、出力情報I53が出力される。 In the image processing in the composite image selection unit 196, the correction value calculation unit 197, and the synthesis unit 198 in FIG. 11, the range of the image group that is the target in the composite image selection unit 196 based on the display area instruction I52 is, for example, five images. In the wide case, if there is no correction value or real coordinate information for the real coordinate unified coordinate system, the output information I53 is output by applying the correction value for the standard image coordinate unified coordinate system.
しかし、表示範囲が狭く、例えば5以下の画像数では、近接した画像群による狭い範囲での画素レベルでの合わせ精度を得る合成処理の方が適している。さらに、マーカ位置座標系に実座標値を適用すると、このマーカ位置座標系で補正された合成画像の座標系はそのまま実寸を反映する。したがって、画像内でひび割れ寸法や対象物の寸法がそのまま画素距離として求めることができるようになる。 However, when the display range is narrow, for example, when the number of images is 5 or less, the synthesis process for obtaining the alignment accuracy at the pixel level in a narrow range by the adjacent image group is more suitable. Further, when the actual coordinate value is applied to the marker position coordinate system, the coordinate system of the composite image corrected in the marker position coordinate system reflects the actual size as it is. Therefore, the crack size and the size of the object in the image can be directly obtained as the pixel distance.
図14Aおよび図14Bは、実施例1にかかる近接した画像間での画像処理例を示す説明図である。図14Aは、表示範囲に対応して3×3の画像が選択された場合のマーカ画像123(C−1,C−1)〜123(C+1,C+1)の構成図である。画像処理装置9は、マーカ情報保持部192から関連する画像IDの隣接する共通のマーカ座標情報126を取得する。また、画像処理装置9は、マーカルート情報生成部193からマーカルート情報I29を取得し、表示の中心となるマーカ画像123(C,C)を基準として表示範囲の各画像までの最短ルートを設定する。 14A and 14B are explanatory diagrams illustrating an example of image processing between adjacent images according to the first embodiment. FIG. 14A is a configuration diagram of marker images 123 (C−1, C−1) to 123 (C + 1, C + 1) when a 3 × 3 image is selected corresponding to the display range. The image processing apparatus 9 acquires the common marker coordinate information 126 adjacent to the related image ID from the marker information holding unit 192. Further, the image processing apparatus 9 acquires the marker route information I29 from the marker route information generation unit 193, and sets the shortest route to each image in the display range with reference to the marker image 123 (C, C) that is the center of display. To do.
補正値算出部197は、順次、そのマーカルートに従い中央のマーカ画像123(C,C)の画素座標を基準とする中央画像統一座標系への変換を共通のマーカ像103の座標値を式(2)に代入してアフィン変換行列の値を求める。さらに、補正値算出部197は、ルート上で行列積の掛け合わせを行い、表示域内の画像の中央画像統一座標系への変換後のマーカ画像123(C−1,C−1)〜123(C+1,C+1)を算出する。 The correction value calculation unit 197 sequentially converts the coordinate values of the common marker image 103 into the central image unified coordinate system based on the pixel coordinates of the central marker image 123 (C, C) according to the marker route using the formula ( Substituting into 2), the value of the affine transformation matrix is obtained. Further, the correction value calculation unit 197 performs matrix product multiplication on the route, and converts the marker images 123 (C-1, C-1) to 123 (after the conversion of the image in the display area into the central image unified coordinate system. C + 1, C + 1) is calculated.
図14Bでは、図12Bの(d)や図13Dと同様に、オリジナルの撮影画像114(m,n)に中央画像統一座標系への座標変換値を適用することで一連の合成画像が得られる。全域画像表示部195は、順次、撮影時刻が遅く、マーカ像103が最後尾にある撮影画像114に撮影時刻が前のマーカ像103が最後尾にある撮影画像114を上書きする。最終的は、全域画像表示部195は、マーカ像103のない初期の撮影画像114で上書きする。全域画像表示部195は、マーカ像103が順次隠蔽されたオリジナルの被写体画像124(C−1,C−1)B/O〜124(C+1,C+1)Bを組み合わせた合成画像124を得る。 In FIG. 14B, as in (d) and FIG. 13D of FIG. 12B, a series of composite images can be obtained by applying coordinate transformation values to the central image unified coordinate system to the original photographed image 114 (m, n). . The entire image display unit 195 sequentially overwrites the captured image 114 with the marker image 103 at the tail end and the captured image 114 with the marker image 103 at the tail end of the previous captured image. Finally, the entire area image display unit 195 overwrites the initial captured image 114 without the marker image 103. The entire area image display unit 195 obtains a composite image 124 in which the original subject images 124 (C−1, C−1) B / O to 124 (C + 1, C + 1) B in which the marker images 103 are sequentially hidden are combined.
「B/O」は、マーカ像103が最後尾に配置された画像がBタイプの画像か、マーカ像103がないOタイプの画像を意味する。ここでは、分かり易く3×3の画像構成を示したが、m×nでも手順は同様である。また、時系列上早い撮影画像114-Bの座標変換画像124−Bで時系列上遅い撮影画像114−Bの座標変換画像124−Bを上書きして、最後にマーカ像103のない初期の撮影画像114−Oの座標変換画像124−Oで上書きをすることによるマーカ隠蔽の手順に代わり、図には示していないが時系列上遅い撮影画像114−Fの座標変換画像124−Fで時系列上早い撮影画像114−Fの座標変換画像124−Fを上書きして、最後にマーカ像103のない撮影をした画像で上書きしてもよい。 “B / O” means that the image in which the marker image 103 is arranged at the tail is a B-type image or an O-type image without the marker image 103. Here, a 3 × 3 image configuration is shown in an easy-to-understand manner, but the procedure is the same for m × n. In addition, the coordinate conversion image 124-B of the time-sequentially captured image 114-B is overwritten with the coordinate conversion image 124-B of the chronologically-slowly captured image 114-B, and finally the initial imaging without the marker image 103 is performed. In place of the marker concealment procedure by overwriting with the coordinate conversion image 124-O of the image 114-O, the time series of the coordinate conversion image 124-F of the captured image 114-F that is not shown in the figure is slow in time series. The coordinate-converted image 124-F of the upper captured image 114-F may be overwritten and overwritten with the image captured without the marker image 103 at the end.
<マーカ座標値算出処理手順例>
図15は、実施例1〜実施例3で共通するマーカ座標値算出処理手順例を示すフローチャートである。このフローチャートは、図11の画像処理装置9の基本処理部10が実行する処理である。基本処理部10において、まず、情報取得部190が、撮影装置5から出力される撮影画像情報I10(撮影画像114の集合)および撮影関連情報I11を取得して、撮影画像114に画像IDを付与する(ステップS50)。
<Example of marker coordinate value calculation processing procedure>
FIG. 15 is a flowchart illustrating an example of a marker coordinate value calculation processing procedure common to the first to third embodiments. This flowchart is processing executed by the basic processing unit 10 of the image processing apparatus 9 of FIG. In the basic processing unit 10, first, the information acquisition unit 190 acquires the captured image information I 10 (a set of the captured images 114) and the capturing related information I 11 output from the capturing device 5 and assigns an image ID to the captured image 114. (Step S50).
つぎに、マーカ座標値抽出部191は、各撮影画像114の輝度について閾値を設定して2値化処理を行い、マーカ画像115を作成する(ステップS51)。具体的には、たとえば、マーカ座標値抽出部191は、情報取得部190から、撮影関連情報I11を取得する。また、マーカ座標値抽出部191は、撮影装置5から出力されるモニタ画像情報I12と情報取得部190から出力されるID・関連情報I28とを取得する。そして、マーカ座標値抽出部191は、取得した情報I11,I12,I28を用いて、各撮影画像114の輝度について閾値を設定して2値化処理を行い、マーカ画像115を作成する。 Next, the marker coordinate value extraction unit 191 performs a binarization process by setting a threshold value for the luminance of each captured image 114, and creates a marker image 115 (step S51). Specifically, for example, the marker coordinate value extraction unit 191 acquires the imaging related information I11 from the information acquisition unit 190. In addition, the marker coordinate value extraction unit 191 acquires the monitor image information I12 output from the imaging device 5 and the ID / related information I28 output from the information acquisition unit 190. Then, the marker coordinate value extraction unit 191 uses the acquired information I11, I12, and I28 to set a threshold value for the luminance of each captured image 114, perform binarization processing, and create a marker image 115.
つぎに、マーカ座標値抽出部191は、マーカ画像115からマーカ像103を検知して、マーカ像103の重心座標値を算出する。マーカ座標値抽出部191は、処理する画像のIDと、マーカ重心座標値の画像内での位置(例えば、画像内の右上、右下、左上、左下など)と、撮影時刻または撮影順番などの撮影関連情報I11を用いて、マーカIDをマーカ像103に関連する情報として付与する(ステップS52)。 Next, the marker coordinate value extraction unit 191 detects the marker image 103 from the marker image 115 and calculates the barycentric coordinate value of the marker image 103. The marker coordinate value extraction unit 191 includes the ID of the image to be processed, the position of the marker centroid coordinate value in the image (for example, upper right, lower right, upper left, lower left, etc.), the shooting time or the shooting order, etc. Using the imaging related information I11, a marker ID is assigned as information related to the marker image 103 (step S52).
つぎに、マーカ座標値抽出部191は、マーカ情報保持部192に、画像ID、マーカIDおよびマーカ像103の重心座標値を関連付けて保持する(ステップS53)。これにより、基本処理部10は、一連の処理を終了する。 Next, the marker coordinate value extraction unit 191 holds the marker information holding unit 192 in association with the image ID, the marker ID, and the barycentric coordinate value of the marker image 103 (step S53). Thereby, the basic processing unit 10 ends the series of processes.
<画像合成処理手順例>
図16は、実施例1〜実施例3で共通する画像合成処理手順例を示すフローチャートである。このフローチャートは、図11の画像処理装置9の画像合成処理部11が実行する処理である。画像合成処理部11では、まず、合成用補正値算出部194が、撮影環境情報I50を取得する(ステップS55)。撮影環境情報I50は、上述したように、例えばマーカ配置間隔の実寸情報など、外部からの付加的な情報である。撮影環境情報I50は、マーカ座標位置を基準とした画像処理に利用される。
<Example of image composition process>
FIG. 16 is a flowchart illustrating an example of an image composition processing procedure common to the first to third embodiments. This flowchart is processing executed by the image composition processing unit 11 of the image processing apparatus 9 of FIG. In the image composition processing unit 11, first, the composition correction value calculation unit 194 acquires the shooting environment information I50 (step S55). As described above, the shooting environment information I50 is additional information from the outside such as the actual size information of the marker arrangement interval. The shooting environment information I50 is used for image processing based on the marker coordinate position.
つぎに、合成用補正値算出部194は、画像ID、マーカID、およびマーカ像103の重心座標値をマーカ座標情報部192から、マーカID間の関係を示す情報をマーカルート情報生成部193から取得する。つぎに、合成用補正値算出部194は、全体統一座標系の補正値算出処理を実行する(ステップS57)。全体統一座標系の補正値算出処理(ステップS57)の詳細は、実施例1では図17A、実施例2では図25、実施例3では図34に示す。 Next, the composition correction value calculation unit 194 receives the image ID, the marker ID, and the barycentric coordinate value of the marker image 103 from the marker coordinate information unit 192, and the information indicating the relationship between the marker IDs from the marker route information generation unit 193. get. Next, the composition correction value calculation unit 194 executes a correction value calculation process for the entire unified coordinate system (step S57). Details of the correction value calculation process (step S57) of the overall unified coordinate system are shown in FIG. 17A in the first embodiment, FIG. 25 in the second embodiment, and FIG. 34 in the third embodiment.
つぎに、全域画像表示部195は、全体統一座標系の補正値算出処理(ステップS57)で得られる合成画像を、出力座標形態に変換して出力する(ステップS58)。そして、合成画像選択部196は、表示情報I51に基づく指示操作、またはマニュアル操作により表示域の指定を受ける(ステップS59)。 Next, the entire area image display unit 195 converts the composite image obtained by the correction value calculation process (step S57) of the entire unified coordinate system into an output coordinate form and outputs it (step S58). Then, the composite image selection unit 196 receives a display area designation by an instruction operation based on the display information I51 or a manual operation (step S59).
つぎに、合成画像選択部196は、ステップS59で指定された指定域の画像IDを選択する(ステップS60)。補正値算出部197は、指定域が、たとえば、全体画像表示のように広範囲である場合(ステップS61:Yes)、ステップS57で算出したマーカ位置実座標系などの全体画像統一座標系での補正値を選択し、ステップS63に移行する。一方、広範囲でない場合(ステップS61:No)、ステップS62に移行する。 Next, the composite image selection unit 196 selects an image ID in the designated area designated in step S59 (step S60). For example, when the designated area is a wide range as in the entire image display (step S61: Yes), the correction value calculation unit 197 performs correction in the entire image unified coordinate system such as the marker position actual coordinate system calculated in step S57. A value is selected, and the process proceeds to step S63. On the other hand, when it is not a wide range (step S61: No), it transfers to step S62.
ステップS62では、補正値算出部197が近接画像間の補正値処理による合成画像作成処理を実行する(ステップS62)。近接画像間の補正値処理による合成画像作成処理(ステップS62)の詳細は、実施例1では図17Cに示し、実施例2では図26Bに示す。このあと、ステップS64に移行する。 In step S62, the correction value calculation unit 197 executes a composite image creation process by a correction value process between adjacent images (step S62). Details of the composite image creation process (step S62) by the correction value process between the close-up images are shown in FIG. 17C in the first embodiment and in FIG. 26B in the second embodiment. Thereafter, the process proceeds to step S64.
ステップS63では、ステップS57で算出した補正値を指定域の画像に適用して、マーカ像103を隠蔽する合成画像を作成して(ステップS63)、ステップS64に移行する。そして、合成部198は、ステップS62またはS63で作成された合成画像を出力座標形態に変換して出力する(ステップS64)。 In step S63, the correction value calculated in step S57 is applied to the image in the designated area to create a composite image that hides the marker image 103 (step S63), and the process proceeds to step S64. Then, the synthesis unit 198 converts the synthesized image created in step S62 or S63 into an output coordinate form and outputs it (step S64).
このあと、合成画像選択部196は、指定域の変更があるか否かを判断する(ステップS65)。すなわち、合成画像選択部196は、表示域指示I52があるか否かを判断する。指定域の変更がある場合(ステップS65:Yes)、ステップS60に戻る。一方、指定域の変更がない場合(ステップS65:No)、画像合成処理部11は、一連の処理を終了する。 Thereafter, the composite image selection unit 196 determines whether or not there is a change in the designated area (step S65). That is, the composite image selection unit 196 determines whether or not there is a display area instruction I52. If there is a change in the designated area (step S65: Yes), the process returns to step S60. On the other hand, when there is no change in the designated area (step S65: No), the image composition processing unit 11 ends the series of processes.
<全体統一座標系の補正値算出処理(ステップS57)>
図17Aは、図16に示した全体統一座標系の補正値算出処理(ステップS57)の詳細な処理手順例を示すフローチャートである。全体統一座標系の補正値算出処理(ステップS57)は、マーカ像103の座標位置を基準とした全画像補正値算出処理である。
<Correction value calculation process of entire unified coordinate system (step S57)>
FIG. 17A is a flowchart showing a detailed processing procedure example of the correction value calculation processing (step S57) of the entire unified coordinate system shown in FIG. The overall unified coordinate system correction value calculation process (step S57) is an all-image correction value calculation process based on the coordinate position of the marker image 103.
まず、合成用補正値算出部194は、撮影環境情報I50またはマーカルート情報I29に含まれるマーカ配置間隔情報を取得する(ステップS66)。つぎに、合成用補正値算出部194は、マーカ配置間隔情報に実寸法が含まれているか否かを判断する(ステップS67)。実寸法が含まれている場合(ステップS67:Yes)、マーカ実寸法座標系を構成できるため、ステップS69に移行する。この場合、図13に示した合成処理が実行される。一方、実寸法が含まれていない場合(ステップS67:No)、マーカ実寸法座標系を適用しないため、ステップS68に移行する。この場合、図12に示した合成処理が実行される。 First, the composition correction value calculation unit 194 obtains marker arrangement interval information included in the shooting environment information I50 or the marker route information I29 (step S66). Next, the composition correction value calculation unit 194 determines whether or not the actual size is included in the marker arrangement interval information (step S67). If the actual dimension is included (step S67: Yes), the marker actual dimension coordinate system can be configured, and the process proceeds to step S69. In this case, the composition process shown in FIG. 13 is executed. On the other hand, when the actual dimension is not included (step S67: No), the process moves to step S68 because the marker actual dimension coordinate system is not applied. In this case, the composition process shown in FIG. 12 is executed.
ステップS68では、合成用補正値算出部194は、基準画像統一座標補正値算出処理を実行して(ステップS68)、ステップS71に移行する。基準画像統一座標補正値算出処理(ステップS68)の詳細は、図17Bで説明する。 In step S68, the composition correction value calculation unit 194 executes a standard image unified coordinate correction value calculation process (step S68), and proceeds to step S71. Details of the reference image unified coordinate correction value calculation process (step S68) will be described with reference to FIG. 17B.
ステップS67:Yesの場合、合成用補正値算出部194は、図13Bに対応するマーカの実寸法座標に基づくマーカ位置座標系を設定する(ステップS69)。そして、合成用補正値算出部194は、それぞれのマーカ像103の重心座標値に対応する、画像IDで特定されるマーカ像103の画像内座標値から、図13Cのマーカ画像121に対応する実座標系統一座標への補正値を算出する(ステップS70)。 In the case of Step S67: Yes, the composition correction value calculation unit 194 sets a marker position coordinate system based on the actual dimension coordinates of the marker corresponding to FIG. 13B (Step S69). Then, the composition correction value calculation unit 194 calculates the actual image corresponding to the marker image 121 in FIG. 13C from the in-image coordinate values of the marker image 103 identified by the image ID corresponding to the barycentric coordinate values of the marker images 103. A correction value for one coordinate system coordinate is calculated (step S70).
このあと、全域画像表示部195は、合成画像を生成し、当該合成画像の生成に用いたステップS70の補正値を保存する(ステップS71)。具体的には、たとえば、ステップS70で補正値を算出した場合、全域画像表示部195は、図13Dに示したように、順次、撮影時刻が遅くマーカ像103が最後尾にある撮影画像114に、撮影時刻が前のマーカ像103が最後尾にある撮影画像114を上書きする。最終的は、全域画像表示部195は、マーカ像103のない初期の撮影画像114(1,1)O〜114(3,1)Oで上書きする。これにより、合成画像122が得られる。 Thereafter, the entire area image display unit 195 generates a composite image and stores the correction value in step S70 used for generating the composite image (step S71). Specifically, for example, when the correction value is calculated in step S70, the entire area image display unit 195 sequentially changes the captured image 114 to the captured image 114 with the latest capturing time and the marker image 103 as shown in FIG. 13D. The marker image 103 with the previous shooting time is overwritten with the shot image 114 at the end. Finally, the entire area image display unit 195 overwrites the initial captured image 114 (1, 1) O to 114 (3, 1) O without the marker image 103. Thereby, the composite image 122 is obtained.
また、ステップS68で補正値を算出した場合、合成用補正値算出部194は、図12Bの(d)に示したように、撮影時刻が遅く、マーカ像103が最後尾にある撮影画像114−Bに、撮影時刻が前のマーカ像103が最後尾にある撮影画像114を上書きする。最終的は、全域画像表示部195は、マーカ像103のない初期の撮影画像114−Oで上書きする。これにより、合成画像118が得られる。これにより、全体統一座標系の補正値算出処理(ステップS57)を終了する。 Further, when the correction value is calculated in step S68, the composition correction value calculation unit 194, as shown in (d) of FIG. 12B, the captured image is delayed and the marker image 103 is at the end. B is overwritten with the captured image 114 with the marker image 103 with the previous capturing time at the end. Finally, the entire area image display unit 195 overwrites the initial captured image 114-O without the marker image 103. Thereby, the composite image 118 is obtained. Thereby, the correction value calculation process (step S57) of the entire unified coordinate system is ended.
<基準画像統一座標補正値算出処理(ステップS68)>
図17Bは、図17Aに示した基準画像統一座標補正値算出処理(ステップS68)の詳細な処理手順例を示すフローチャートである。図17Bは、撮影画像114中のマーカ像103のみを用いた全画像補正値算出処理である。なお、図17B中、ステップS75〜S81が図12Aの(a)、(b)に対応し、ステップS82〜S86が図12Bの(c)、(d)に対応する。なお、初期状態では、m=1、n=1とする。
<Reference Image Unified Coordinate Correction Value Calculation Processing (Step S68)>
FIG. 17B is a flowchart illustrating a detailed processing procedure example of the reference image unified coordinate correction value calculation process (step S68) illustrated in FIG. 17A. FIG. 17B is a total image correction value calculation process using only the marker image 103 in the captured image 114. In FIG. 17B, steps S75 to S81 correspond to (a) and (b) in FIG. 12A, and steps S82 to S86 correspond to (c) and (d) in FIG. 12B. In the initial state, m = 1 and n = 1.
合成用補正値算出部194は、m行目のカメラ2−mで撮影した撮影画像114の2値化画像であるマーカ画像115を取得する(ステップS75)。マーカ画像115は、図12Aの(a)を参照すると、マーカ画像115(m、1)O,115(m、1)F,115(m、2)B,115(m、2)F,…,115(m、n)B,115(m、n)Fである。そして、合成用補正値算出部194は、マーカ画像115の各マーカ像103の重心座標値を取得する。 The composition correction value calculation unit 194 acquires a marker image 115 that is a binarized image of the captured image 114 captured by the m-th camera 2-m (step S75). Referring to (a) of FIG. 12A, the marker image 115 is a marker image 115 (m, 1) O, 115 (m, 1) F, 115 (m, 2) B, 115 (m, 2) F,. , 115 (m, n) B, 115 (m, n) F. Then, the composition correction value calculation unit 194 acquires the barycentric coordinate value of each marker image 103 of the marker image 115.
つぎに、合成用補正値算出部194は、移動方向の最初のマーカ画像115(m,1)Fに関連するマーカ座標情報(マーカ像103−m−2−FS,103−m−2−FRの重心座標値)を取得する(ステップS76)。そして、合成用補正値算出部194は、nをインクリメントし、図12Aの(b)の隣接画像間で共通のマーカ像103の座標値を用いて、合成用補正値[α(n−1)]を算出する(ステップS77)。たとえば、n=1のときは、マーカ画像115(m,1)Fと、インクリメント後(n=2)のマーカ画像115(m,2)Bとが隣接画像となる。この隣接画像間で共通のマーカ像103は、マーカ像103−m−2−FSとマーカ像103−m−2−BSであり、マーカ像103−m−2−FRとマーカ像103−m−2−BRである。 Next, the composition correction value calculation unit 194 performs marker coordinate information (marker images 103-m-2-FS, 103-m-2-FR) related to the first marker image 115 (m, 1) F in the moving direction. Is obtained) (step S76). Then, the composition correction value calculation unit 194 increments n, and uses the coordinate value of the marker image 103 that is common between adjacent images in FIG. ] Is calculated (step S77). For example, when n = 1, the marker image 115 (m, 1) F and the incremented (n = 2) marker image 115 (m, 2) B are adjacent images. The marker images 103 common to the adjacent images are the marker image 103-m-2-FS and the marker image 103-m-2-BS, and the marker image 103-m-2-FR and the marker image 103-m-. 2-BR.
したがって、合成用補正値算出部194は、マーカ像103−m−2−FSの座標値を式(5)の左辺に代入し、マーカ像103−m−2−BSの座標値を式(5)の右辺に代入して、[α1]を計算する。同様に、合成用補正値算出部194は、マーカ像103−m−2−FRの座標値を式(5)の左辺に代入し、マーカ像103−m−2−BRの座標値を式(5)の右辺に代入して、[α1]を計算する。合成用補正値算出部194は、両計算結果から最終的に要素が確定した変換行列である合成用補正値[α1]を出力する。 Therefore, the composition correction value calculation unit 194 substitutes the coordinate value of the marker image 103-m-2-FS for the left side of Expression (5), and sets the coordinate value of the marker image 103-m-2-BS to Expression (5). ) To calculate the [α1]. Similarly, the composition correction value calculation unit 194 substitutes the coordinate value of the marker image 103-m-2-FR for the left side of Expression (5), and sets the coordinate value of the marker image 103-m-2-BR to Expression ( Substituting into the right side of 5), [α1] is calculated. The composition correction value calculation unit 194 outputs a composition correction value [α1], which is a transformation matrix in which elements are finally determined from both calculation results.
そして、合成用補正値算出部194は、n番目のマーカ画像115(m,n)が存在するか否かを判断する(ステップS78)。n番目のマーカ画像115(m,n)が存在する場合(ステップS78:Yes)、合成用補正値算出部194は、ステップS77を再実行する。一方、n番目のマーカ画像115(m,n)が存在しない場合(ステップS78:No)、合成用補正値算出部194は、補正値行列積[α1][α2]・・・[α(n−1)](=[α])を算出する。補正値行列積[α]は、図12Aの(a)から(b)へのアフィン変換行列である。 Then, the composition correction value calculation unit 194 determines whether or not the nth marker image 115 (m, n) exists (step S78). When the n-th marker image 115 (m, n) exists (step S78: Yes), the composition correction value calculation unit 194 re-executes step S77. On the other hand, when the n-th marker image 115 (m, n) does not exist (step S78: No), the composition correction value calculation unit 194 calculates the correction value matrix product [α1] [α2]. −1)] (= [α]). The correction value matrix product [α] is an affine transformation matrix from (a) to (b) in FIG. 12A.
このあと、合成用補正値算出部194は、mをインクリメントし(ステップS80)、m番目のカメラが存在するか否かを判断する(ステップS81)。m番目のカメラが存在する場合(ステップS81:Yes)。合成用補正値算出部194は、ステップS75を再実行する。一方、m番目のカメラが存在しない場合(ステップS81:No)、ステップS82に移行する。これにより、図12Aの(b)までの処理が完了し、移動方向に連結されたm個の行内統一画像116−1,116−2、…、116−mが生成される。 Thereafter, the composition correction value calculation unit 194 increments m (step S80), and determines whether or not the m-th camera exists (step S81). When the m-th camera exists (step S81: Yes). The composition correction value calculation unit 194 re-executes step S75. On the other hand, when the m-th camera does not exist (step S81: No), the process proceeds to step S82. Thereby, the processing up to (b) in FIG. 12A is completed, and m in-row unified images 116-1, 116-2,..., 116-m connected in the moving direction are generated.
つぎに、合成用補正値算出部194は、特定のカメラ2(たとえば、m=1である左端のカメラ2−1)の座標系を基準座標系として設定し(ステップS82)、mをm=1にリセットする。 Next, the composition correction value calculation unit 194 sets the coordinate system of the specific camera 2 (for example, the leftmost camera 2-1 where m = 1) as the reference coordinate system (step S82), and sets m to m = Reset to 1.
そして、合成用補正値算出部194は、mをインクリメントし、図12Bの(c)の隣接する行内統一画像間で共通のマーカ像103の座標値を用いて、合成用補正値[β(m−1)]を算出する(ステップS83)。たとえば、行内統一画像116−(m−1)と、インクリメント後の行内統一画像116−mとが隣接する行内統一画像となる。この隣接する行内統一画像間で共通のマーカ像103は、マーカ画像116(m−1,1)のマーカ像103−(m−1)−2とマーカ画像116(m,1)のマーカ像103−(m−1)−2であり、マーカ画像116(m−1,n)のマーカ像103−(m−1)−(n+1)とマーカ画像116(m,n)のマーカ像103−(m−1)−(n+1)である。 Then, the composition correction value calculation unit 194 increments m, and uses the coordinate value of the marker image 103 common between adjacent in-line unified images in FIG. -1)] is calculated (step S83). For example, the in-row unified image 116- (m-1) and the in-row unified image 116-m are adjacent in-row unified images. The marker image 103 common between the adjacent in-row unified images is the marker image 103- (m−1) -2 of the marker image 116 (m−1,1) and the marker image 103 of the marker image 116 (m, 1). -(M-1) -2, the marker image 103- (m-1)-(n + 1) of the marker image 116 (m-1, n) and the marker image 103- () of the marker image 116 (m, n). m-1)-(n + 1).
したがって、合成用補正値算出部194は、マーカ画像116(m−1,1)のマーカ像103−(m−1)−2の座標値を式(7)の左辺に代入し、マーカ画像116(m,1)のマーカ像103−(m−1)−2の座標値を式(7)の右辺に代入して、[β(n−1)]を計算する。同様に、合成用補正値算出部194は、マーカ画像116(m−1,n)のマーカ像103−(m−1)−(n+1)の座標値を式(7)の左辺に代入し、マーカ画像116(m,n)のマーカ像103−(m−1)−(n+1)の座標値を式(7)の右辺に代入して、[β(n−1)]を計算する。合成用補正値算出部194は、両計算結果から最終的に要素が確定した変換行列である合成用補正値[β(n−1)]を出力する。 Therefore, the composition correction value calculation unit 194 substitutes the coordinate value of the marker image 103- (m−1) -2 of the marker image 116 (m−1,1) for the left side of the expression (7), and the marker image 116 [Β (n-1)] is calculated by substituting the coordinate value of the marker image 103- (m-1) -2 of (m, 1) into the right side of Expression (7). Similarly, the composition correction value calculation unit 194 assigns the coordinate value of the marker image 103- (m−1) − (n + 1) of the marker image 116 (m−1, n) to the left side of Expression (7), [Β (n-1)] is calculated by substituting the coordinate value of the marker image 103- (m-1)-(n + 1) of the marker image 116 (m, n) into the right side of Expression (7). The composition correction value calculation unit 194 outputs a composition correction value [β (n−1)], which is a transformation matrix whose elements are finally determined from both calculation results.
このあと、カメラ2−mが存在するか否かを判断し(ステップS84)、カメラ2−mが存在する場合(ステップS84:Yes)、合成用補正値算出部194は、ステップS83を再実行する。一方、カメラ2−mが存在しない場合(ステップS84:No)、合成用補正値算出部194は、補正値行列積[β1][β2]・・・[β(m−1)](=[β])を算出する(ステップS85)。補正値行列積[β]は、図12Bの(c)でのアフィン変換行列である。 Thereafter, it is determined whether or not the camera 2-m exists (step S84). When the camera 2-m exists (step S84: Yes), the composition correction value calculation unit 194 re-executes step S83. To do. On the other hand, when the camera 2-m does not exist (step S84: No), the composition correction value calculation unit 194 calculates the correction value matrix product [β1] [β2]... [Β (m−1)] (= [ β]) is calculated (step S85). The correction value matrix product [β] is an affine transformation matrix in (c) of FIG. 12B.
そして、合成用補正値算出部194は、ステップS79で算出した補正値行列積[α]とステップS85で算出した補正値行列積[β]とを組み合わせた全画像の基準画像、例えばマーカ画像115(1,1)F、の画素座標を座標系とする行列統一座標系への変換補正値[β][α]を算出する(ステップS86)。これにより、基準画像統一座標補正値算出処理(ステップS68)が終了し、ステップS71に移行する。 Then, the composition correction value calculation unit 194 combines the correction value matrix product [α] calculated in step S79 and the correction value matrix product [β] calculated in step S85, for example, a reference image of all images, for example, the marker image 115. A conversion correction value [β] [α] to a matrix unified coordinate system using the pixel coordinates of (1, 1) F as a coordinate system is calculated (step S86). Thereby, the reference image unified coordinate correction value calculation process (step S68) is completed, and the process proceeds to step S71.
<近接画像間の補正値処理による合成画像作成処理(ステップS62)>
図17Cは、図16に示した近接画像間の補正値処理による合成画像作成処理(ステップS62)の詳細な処理手順例を示すフローチャートである。図17Cは、図14Aおよび図14Bの合成処理に対応する。
<Composite Image Creation Processing by Correction Value Processing Between Close-Up Images (Step S62)>
FIG. 17C is a flowchart illustrating a detailed processing procedure example of the composite image creation process (step S62) based on the correction value process between the adjacent images illustrated in FIG. FIG. 17C corresponds to the combining process of FIGS. 14A and 14B.
合成画像選択部196は、表示情報I15に対応した撮影画像IDを設定して、設定される撮影画像IDから図14Aの中央の画像に対応する画像IDを選択する(ステップS90)。つぎに、補正値算出部197は、中央の画像IDと隣接する画像IDで共通するマーカ像103のマーカIDを選択して、マーカ情報保持部192からマーカ座標情報I26を取得する(ステップS91)。 The composite image selection unit 196 sets a captured image ID corresponding to the display information I15, and selects an image ID corresponding to the center image in FIG. 14A from the set captured image ID (step S90). Next, the correction value calculation unit 197 selects the marker ID of the marker image 103 that is common to the center image ID and the adjacent image ID, and acquires the marker coordinate information I26 from the marker information holding unit 192 (step S91). .
補正値算出部197は、中央の画像に隣接する画像間の共通マーカの座標から画像間の合成補正値を算出する(ステップS92)。つぎに、補正値算出部197は、マーカルート情報生成部193から関連するマーカのマーカルート情報I29を取得して、出力・表示する画像について中央の画像から最短となる変換ルートを設定する(ステップS93)。 The correction value calculation unit 197 calculates a composite correction value between the images from the coordinates of the common marker between the images adjacent to the center image (step S92). Next, the correction value calculation unit 197 acquires the marker route information I29 of the related marker from the marker route information generation unit 193, and sets the shortest conversion route from the central image for the image to be output / displayed (step) S93).
このあと、補正値算出部197は、変換ルートに沿って隣接する画像間の補正値を求め、ルートに沿って補正値行列を掛け合わせて、図14Aに対応する中央の画像への統一座標変換補正値を算出する(ステップS94)。そして、合成部198は、ステップS94で算出した統一座標変換補正値を適用し、図14Bに示した中央画像統一座標に変換した画像群(124(C−1,C−1)−B/O〜124(C+1,C+1)B)において時系列で後の画像に対して前の画像を上書きすることにより、図14Bに示したマーカ隠蔽画像である合成画像124を作成する(ステップS95)。このあと、図17AのステップS62に戻る。 After that, the correction value calculation unit 197 obtains a correction value between adjacent images along the conversion route, and multiplies the correction value matrix along the route to perform unified coordinate conversion into a central image corresponding to FIG. 14A. A correction value is calculated (step S94). Then, the synthesis unit 198 applies the unified coordinate conversion correction value calculated in step S94, and converts the image group (124 (C-1, C-1) -B / O converted into the central image unified coordinates shown in FIG. 14B. ˜124 (C + 1, C + 1) B), the previous image is overwritten on the subsequent image in time series, thereby creating the composite image 124 which is the marker concealed image shown in FIG. 14B (step S95). Thereafter, the process returns to step S62 in FIG. 17A.
近接画像間の共通マーカ座標をベースした座標変換では、画素の粒子化誤差や歪による誤差の累積が少ない。また、画像系全体での中央画像統一座標系への変換に比較して、画素レベルの画像合わせでは、例えば、ひび割れ41の撮影の場合、0.2[mm]程度の精度での画像合成ができ、1[mm]オーダの全体画像合わせに比べて高精度な画像結合が得られる。 In coordinate conversion based on common marker coordinates between adjacent images, accumulation of errors due to pixel particleization errors and distortion is small. Further, in comparison with the conversion to the central image unified coordinate system in the entire image system, in the image alignment at the pixel level, for example, in the case of photographing the crack 41, the image synthesis with an accuracy of about 0.2 [mm] is performed. In addition, a high-accuracy image combination can be obtained as compared with the entire image alignment of 1 [mm] order.
実施例1では、行列統一座標系を求めるに際して、最初に同じカメラで撮影した移動方向の画像間で補正値[α]を算出して統一座標系を構成した後、カメラ配列方向の補正値[β]を求めたが、この順番は逆でもよい。 In the first embodiment, when obtaining a matrix unified coordinate system, a correction value [α] is first calculated between images in the moving direction taken by the same camera to form a unified coordinate system, and then a correction value [ β] was obtained, but this order may be reversed.
ここでは、被写体の両脇に配置されている軌道レール105上を、移動処理部132および移動処理部133の駆動車輪153と誘導車輪156により、カメラ部102とマーカ付与部130を交互に移動させる構成について示したが、軌道レール105と駆動車輪153と誘導車輪156を、被写体上を走行する車輪やクローラベルトに置き換えた構成でもよい。被写体への接触が許される場合には実施例1の効果が同様に得られる。 Here, the camera unit 102 and the marker applying unit 130 are alternately moved on the track rails 105 disposed on both sides of the subject by the driving wheel 153 and the guide wheel 156 of the movement processing unit 132 and the movement processing unit 133. Although the configuration has been described, the track rail 105, the drive wheel 153, and the guide wheel 156 may be replaced with wheels or a crawler belt that travels on the subject. When contact with the subject is permitted, the effect of the first embodiment can be obtained in the same manner.
<実施例1の効果>
以上説明した実施例1では、次の(A)〜(H)のような効果がある。
(A)カメラ2を移動させて撮影するマルチ画像撮影システム1は、カメラ装置8とマーカ付与装置6を独立して交互に移動または停止させる機構である。これにより、マーカ付与装置6が独立して被写体に対して固定できる。したがって、液滴など付着性のある低輝度のマーカに限定されず、レーザなどアクティブな光源を使った高輝度なマーカを被写体に照射することができ、周囲と明確に識別できる高輝度なマーカ像の取得できる。また、画像処理においてマーカ像の重心座標値を検出するために処理が簡単な2値化画像で実行することができる。
<Effect of Example 1>
The embodiment 1 described above has the following effects (A) to (H).
(A) The multi-image photographing system 1 that photographs by moving the camera 2 is a mechanism that alternately moves or stops the camera device 8 and the marker applying device 6 independently. Thereby, the marker provision apparatus 6 can be independently fixed to the subject. Therefore, it is not limited to low-brightness markers with adhesive properties such as droplets, but a high-brightness marker image that can irradiate a subject with a high-brightness marker using an active light source such as a laser and can be clearly distinguished from the surroundings. Can be obtained. In addition, it is possible to execute a binarized image that can be easily processed in order to detect the barycentric coordinate value of the marker image in the image processing.
(B)カメラ装置8とマーカ付与装置6を交互に移動または停止させる機構とすることで、マーカ付与の間隔を最大限広げることができる。したがって、撮影枚数の低減化を図ることができ、効率的な運用が可能となる。 (B) By using a mechanism that alternately moves or stops the camera device 8 and the marker applying device 6, the marker applying interval can be maximized. Therefore, the number of shots can be reduced, and efficient operation is possible.
(C)複数のカメラ2が被写体上を平行に移動する構成とすることで、近接撮影が可能な環境での接近撮影が可能で、カメラ装置8の移動距離と撮影画像114の領域が線形な関係となり、歪の少ない撮影画像114を取得することができる。 (C) By adopting a configuration in which a plurality of cameras 2 move in parallel on the subject, close-up shooting is possible in an environment where close-up shooting is possible, and the moving distance of the camera device 8 and the area of the shot image 114 are linear. Therefore, the captured image 114 with less distortion can be acquired.
(D)カメラ2の配列方向での隣接する撮影領域113の共通領域と、移動方向で前後する隣接する撮影領域113の共通領域とにマーカ3を付与することで必要なマーカ3の付与数を削減することができる。 (D) Necessary number of markers 3 is given by adding the marker 3 to the common area of the adjacent imaging areas 113 in the arrangement direction of the cameras 2 and the common area of the adjacent imaging areas 113 moving back and forth in the moving direction. Can be reduced.
(E)カメラ2の配列方向に隣接する行内統一画像116−(m−1),116−m間の画像合成を行う場合、行内統一画像116−(m−1),116−mで間隔が広い共通するマーカ像103を選択したり(図12Cを参照)、画像合わせで隣接する画像間のマーカルートの最長の距離が短くなるように選択することで、画像合わせのずれを低くすることができる。 (E) When performing image synthesis between the in-row unified images 116- (m−1) and 116-m adjacent in the arrangement direction of the camera 2, the in-row unified images 116- (m−1) and 116-m have an interval. By selecting a wide common marker image 103 (see FIG. 12C) or by selecting so that the longest distance of the marker route between adjacent images in image matching is shortened, image misalignment can be reduced. it can.
(F)また、図13に示したように、マーカ間隔寸法や移動距離などに関するマーカ位置を規定する情報を取得し、画像合成処理の補正値算出に使用することで、合成画像枚数が多くなる広い範囲での画像合成において、隣接画像間の補正値のみによる掛け合わせで発生する撮影画像合成時に画素化に伴う粒子化誤差や撮影歪の累積の影響を排除し、画像合わせずれを低減すると共にひび割れ寸法などの実測相当の情報が画像から自動的に算出できるようになる。 (F) Also, as shown in FIG. 13, the number of synthesized images increases by acquiring information defining the marker position related to the marker interval size, moving distance, etc. and using it for calculating the correction value of the image synthesis process. In the image composition in a wide range, the influence of the particleization error due to pixelation and the accumulation of photographing distortion is eliminated at the time of composition of the photographed image generated by multiplying only the correction values between adjacent images, and the image misalignment is reduced. Information equivalent to actual measurement such as crack dimensions can be automatically calculated from the image.
(G)マルチ画像撮影システム1は、合成画像の出力範囲において、狭い範囲のときは近接画像間で画素レベルの合成を行う場合には隣接画像間の補正値を適用して、必要な画像の数が多くなる広範囲の場合にはマーカルートに基づく離れたマーカを使った補正値を適用したり、マーカ位置基準の補正値を使ったりする。これにより、出力画像に適合した画像合成補正値を使って画像間のずれや歪の少ない合成画像が提供できる。 (G) The multi-image shooting system 1 applies a correction value between adjacent images when performing pixel-level synthesis between adjacent images when the output range of the synthesized image is narrow, so that the necessary image In the case of a wide range where the number increases, a correction value using a distant marker based on the marker route is applied, or a correction value based on the marker position is used. As a result, a composite image with less displacement and distortion between images can be provided using an image composition correction value suitable for the output image.
(H)撮影画像114を全体統一画素座標に変換して画像合成を行う場合に、撮影時刻の前後関係やマーカ像の配置の関係、マーカがある画像のマーカ像をその位置にマーカ像のない画像で、上書きすることでマーカ像を隠蔽した被写体の合成画像を形成できる。 (H) When the captured image 114 is converted into a unified pixel coordinate and image synthesis is performed, there is no marker image at the position of the marker image of the image with the marker, the relationship between the chronological relationship of the shooting time and the arrangement of the marker image. By overwriting the image, it is possible to form a composite image of the subject in which the marker image is hidden.
実施例1ではカメラ2とマーカ付与部130が被写体上を平行に移動して撮影する形態について示した。これに対し、実施例2では、カメラ2とマーカ付与部130を、パン角度(水平回転)とチルト角度(鉛直回転)に移動する雲台に載せ、パン角度およびチルト角度を変更して撮影する例である。具体的には、実施例2にかかるマルチ画像撮影システム1は、被写体から離れた固定地点から撮影し、カメラ2およびマーカ付与部130の平行移動ではなく、パン角度やチルト角度を変更して撮影する。この構成により、例えば、周囲に川の流れがあり、近寄ることが困難で、実施例1のような平行移動の構成が適用できない場合でも撮影が可能となる。たとえば、橋脚が見通せる離れた地点からの撮影でもマーカ基準の画像合成ができるようになる。 In the first embodiment, the camera 2 and the marker providing unit 130 move in parallel on the subject and shoot images. On the other hand, in the second embodiment, the camera 2 and the marker applying unit 130 are mounted on a pan head that moves to a pan angle (horizontal rotation) and a tilt angle (vertical rotation), and shooting is performed by changing the pan angle and the tilt angle. It is an example. Specifically, the multi-image shooting system 1 according to the second embodiment is shot from a fixed point away from the subject, and is shot by changing the pan angle and the tilt angle instead of the parallel movement of the camera 2 and the marker providing unit 130. To do. With this configuration, for example, there is a river flow around and it is difficult to approach, and it is possible to take a picture even when the parallel movement configuration as in the first embodiment is not applicable. For example, marker-based image composition can be performed even when shooting from a distant point where a bridge pier can be seen.
なお、実施例2において、「パンマーカ」とは、パン方向に付与されるマーカであり、「チルトマーカ」とは、チルト方向に付与されるマーカである。 In the second embodiment, the “pan marker” is a marker given in the pan direction, and the “tilt marker” is a marker given in the tilt direction.
<マルチ画像撮影システム1の外観>
図18は、実施例2にかかるマルチ画像撮影システム1の外観例を示す説明図である。橋梁42の橋脚43の側壁のひび割れ41などの目視点検をするに際して、真下には川44が流れており、反対岸から遠隔でカメラ2で撮影する場面である。カメラ2はパン方向とチルト方向に回転が可能なカメラ雲台225に搭載され、三脚によって固定されている。
<Appearance of multi-image shooting system 1>
FIG. 18 is an explanatory diagram of an appearance example of the multi-image capturing system 1 according to the second embodiment. When visually inspecting the crack 41 on the side wall of the bridge pier 43 of the bridge 42, etc., a river 44 flows underneath and is a scene where the camera 2 takes a picture remotely from the opposite shore. The camera 2 is mounted on a camera head 225 that can rotate in the pan direction and the tilt direction, and is fixed by a tripod.
マーカ付与のために、三脚には、パンマーカレーザ231と、チルトマーカレーザ232−Sと、チルトマーカレーザ232−Rと、パンマーカ雲台226と、チルトマーカ雲台227−S,227−Rと、が固定されている。 In order to provide a marker, the tripod includes a pan marker laser 231, a tilt marker laser 232-S, a tilt marker laser 232-R, a pan marker head 226, tilt marker heads 227-S and 227-R, Is fixed.
パンマーカレーザ231は、カメラ2のパン方向の回転に追従して移動するパンマーカセット3Pを被写体に付与する。チルトマーカレーザ232−Sは、チルト方向の回転に追従して左端のチルトマーカセット3T−Sを被写体に付与する。チルトマーカレーザ232−Rは、チルト方向の回転に追従して右端のチルトマーカセット3T−Rを付与する。パンマーカ雲台226は、各マーカレーザをパン方向に回転させる。チルトマーカ雲台227−S,227−Rは、各マーカレーザをチルト方向に回転させる。パンマーカレーザ231とチルトマーカレーザ232−S、232−Rは、同じ色のレーザであってもよいが、例えば、パンマーカ231には赤色レーザを使い、チルトマーカレーザ232には緑色レーザを用いるなど異なる色を用いることも可能である。 The pan marker laser 231 gives the subject a pan marker set 3P that moves following the rotation of the camera 2 in the pan direction. The tilt marker laser 232-S follows the rotation in the tilt direction and applies the left end tilt marker set 3T-S to the subject. The tilt marker laser 232-R follows the rotation in the tilt direction and gives the right end tilt marker set 3T-R. The pan marker pan 226 rotates each marker laser in the pan direction. The tilt marker heads 227-S and 227-R rotate the marker lasers in the tilt direction. The pan marker laser 231 and the tilt marker lasers 232 -S and 232 -R may be the same color laser. For example, a red laser is used for the pan marker 231 and a green laser is used for the tilt marker laser 232. It is also possible to use different colors.
異なる色を用いる場合は、画像処理において赤色フィルタや緑色フィルタを使うことで同じ画像内のパン方向の画像合わせ用マーカとチルト方向の画像合わせ用マーカを分類することが簡単にできるメリットがある。なお、波長フィルタについては、撮影カメラの光学系に設けてもよいし、撮影画像の赤、緑、青の色要素分離を用いてもよい。以下、本実施例では、マーカレーザの色使いにこだわらない手法を示す。 When different colors are used, there is an advantage that it is possible to easily classify the image alignment marker in the pan direction and the image alignment marker in the tilt direction in the same image by using a red filter or a green filter in the image processing. Note that the wavelength filter may be provided in the optical system of the photographing camera, or red, green, and blue color element separation of the photographed image may be used. Hereinafter, in this embodiment, a technique that does not stick to the color usage of the marker laser will be described.
それぞれの雲台の動きや、マーカの点灯・消灯、カメラ2の撮影などを制御する制御部7、に接続されて、操作者によって操作される。 It is connected to a control unit 7 that controls movement of each pan head, lighting / extinguishing of a marker, photographing of the camera 2, and the like, and is operated by an operator.
<マルチ画像撮影システム1での撮影ルートと撮影領域>
図19は、実施例2にかかるマルチ画像撮影システム1での撮影ルートと撮影領域を示す説明図である。図19では、橋脚43の側壁の撮影における、複数のパンマーカの組であるパンマーカセット3P、複数の左チルトマーカの組である左チルトマーカセット3T−S、複数の右チルトマーカの組である右チルトマーカセット3T−Rの初期の付与位置と、撮影ルート212と、撮影領域213との関係を表している。
<Shooting route and shooting area in the multi-image shooting system 1>
FIG. 19 is an explanatory diagram of a shooting route and a shooting area in the multi-image shooting system 1 according to the second embodiment. In FIG. 19, in photographing the side wall of the pier 43, a pan marker set 3P that is a set of a plurality of pan markers, a left tilt marker set 3T-S that is a set of a plurality of left tilt markers, and a right tilt that is a set of a plurality of right tilt markers. The relationship between the initial position of the marker set 3T-R, the shooting route 212, and the shooting area 213 is shown.
ここでは、例として、撮影ルート212は、マーカ3を左上部から右横に移動して順次端まで移動して折り返すルートとする。撮影ルート212は、カメラ2の動きの効率を重視したルートであり、左端に戻って水平方向に繰り返すルートとしてもよい。また、水平方向に連続的に動かすのではなく、鉛直方向の連続的に動かして折り返すルートでもよい。実施例2のマルチ画像撮影システム1の機能ブロック図は、実施例1に示した形態と同様で図4に準じる。 Here, as an example, the shooting route 212 is a route in which the marker 3 is moved from the upper left to the right side, and then sequentially moved to the end and turned back. The shooting route 212 is a route that places importance on the efficiency of movement of the camera 2, and may be a route that returns to the left end and repeats in the horizontal direction. Further, the route may not be continuously moved in the horizontal direction, but may be continuously moved in the vertical direction and turned back. The functional block diagram of the multi-image shooting system 1 of the second embodiment is similar to that shown in the first embodiment and conforms to FIG.
<撮影装置5の機能ブロック>
図20は、実施例2の撮影装置5の機能ブロック図である。図5に示した実施例1における撮影装置5の機能ブロックと異なる点を中心に説明する。また、同一機能には同一符号を付し、説明を省略する。
<Functional blocks of the photographing device 5>
FIG. 20 is a functional block diagram of the photographing apparatus 5 according to the second embodiment. The description will focus on the differences from the functional blocks of the imaging device 5 in the first embodiment shown in FIG. Moreover, the same code | symbol is attached | subjected to the same function and description is abbreviate | omitted.
カメラ装置8は、一台のカメラ2を含むカメラ部202と、移動処理部132と、を有する。移動処理部132は、カメラパン雲台動作部241と、カメラチルト雲台動作部242と、を有する。カメラパン雲台動作部241は、カメラ部202をパン角度方向に回転移動させ、停止させる。カメラチルト雲台動作部242は、カメラ部202をチルト角度方向に回転移動させ、停止させる。 The camera device 8 includes a camera unit 202 including one camera 2 and a movement processing unit 132. The movement processing unit 132 includes a camera pan pan operation unit 241 and a camera tilt pan operation unit 242. The camera pan head operating unit 241 rotates and moves the camera unit 202 in the pan angle direction. The camera tilt pan head operating unit 242 rotates and moves the camera unit 202 in the tilt angle direction.
マーカ付与装置6は、マーカ付与部230と、移動処理部133と、を有する。マーカ付与部230は、パンマーカレーザ231などのパンマーカ光源235と、チルトマーカレーザ232−SなどのチルトマーカS光源236と、チルトマーカレーザ232−RなどのチルトマーカR光源237と、を有する。移動処理部133は、パンマーカパン雲台動作部243と、パンマーカチルト雲台動作部244と、チルトマーカS雲台動作部245と、チルトマーカR雲台動作部246と、を有する。 The marker imparting device 6 includes a marker imparting unit 230 and a movement processing unit 133. The marker providing unit 230 includes a pan marker light source 235 such as a pan marker laser 231, a tilt marker S light source 236 such as a tilt marker laser 232 -S, and a tilt marker R light source 237 such as a tilt marker laser 232 -R. The movement processing unit 133 includes a pan marker pan pan operation unit 243, a pan marker tilt pan operation unit 244, a tilt marker S pan head operation unit 245, and a tilt marker R pan head operation unit 246.
制御部7は実施例1と基本的に同じであるが、移動処理部132やマーカ付与装置6の構成が雲台に変わったことにより、制御信号やタイミング制御の内容が変わる。カメラ部202に初期の撮影方向やマーカ付与方向が設定された後、制御部7は、外部からの操作指示または所定のタイミングで、撮影制御部183からカメラ2に撮影制御信号I1を送信する。カメラは、撮影制御信号I1を受けると撮影を開始し、撮影画像114の集合である撮影画像情報I10を、図4に示した画像処理装置9に送信する。 The control unit 7 is basically the same as that of the first embodiment, but the contents of the control signal and timing control are changed when the configuration of the movement processing unit 132 and the marker applying device 6 is changed to the pan head. After the initial shooting direction and marker application direction are set in the camera unit 202, the control unit 7 transmits a shooting control signal I1 from the shooting control unit 183 to the camera 2 at an external operation instruction or at a predetermined timing. Upon receiving the shooting control signal I1, the camera starts shooting, and transmits the shot image information I10 that is a set of the shot images 114 to the image processing device 9 shown in FIG.
また、撮影装置5内でマーカ3の位置をモニタして制御する場合には、制御部7は、カメラ2からのモニタ画像情報I12をモニタ制御部185で受信すると、モニタ画像を処理してマーカ3が適正な位置に配置されるように、移動制御部186に制御信号を出力する。そして、移動制御部186は、制御信号を受けると、所定の位置にマーカが配置されるように各雲台(カメラ雲台225,パンマーカ雲台226,チルトマーカ雲台227−S,227−R)を制御する。 Further, in the case where the position of the marker 3 is monitored and controlled in the photographing apparatus 5, when the monitor image information I12 from the camera 2 is received by the monitor control unit 185, the control unit 7 processes the monitor image and performs the marker operation. A control signal is output to the movement control unit 186 so that 3 is arranged at an appropriate position. When the movement control unit 186 receives the control signal, each pan head (camera pan head 225, pan marker pan head 226, tilt marker pan head 227-S, 227-R) so that the marker is arranged at a predetermined position. To control.
具体的には、モニタ制御ならびに撮影に際した動きとして、移動制御部186は、移動処理部132のカメラパン雲台動作部241にカメラ雲台パン角移動・停止信号I31を送信する。カメラ雲台パン角移動・停止信号I31は、カメラパン雲台動作部241に、カメラ雲台225をパン方向に回転させ、また、当該回転を停止させる信号である。 Specifically, the movement control unit 186 transmits the camera pan pan angle movement / stop signal I31 to the camera pan head operation unit 241 of the movement processing unit 132 as a movement during monitor control and photographing. The camera head pan angle movement / stop signal I31 is a signal that causes the camera pan head operation unit 241 to rotate the camera head 225 in the pan direction and to stop the rotation.
また、移動制御部186は、カメラチルト雲台動作部242に、カメラ雲台チルト角動作・停止信号I31を送信する。カメラ雲台チルト角移動・停止信号I32は、カメラチルト雲台動作部242に、カメラ雲台225をチルト方向に回転させ、また、当該回転を停止させる信号である。 In addition, the movement control unit 186 transmits the camera head tilt angle operation / stop signal I31 to the camera tilt head operation unit 242. The camera head tilt angle movement / stop signal I32 is a signal that causes the camera tilt head operating unit 242 to rotate the camera head 225 in the tilt direction and stop the rotation.
移動制御部186は、パンマーカパン雲台動作部243にパンマーカパン角移動・停止信号I33を送信する。パンマーカパン角移動・停止信号I33は、パンマーカパン雲台動作部243に、パンマーカ雲台226のパン角度の回転によりパンマーカをパン方向に移動させ、また当該移動を停止させる信号である。 The movement control unit 186 transmits a pan marker pan angle movement / stop signal I33 to the pan marker pan head operation unit 243. The pan marker pan angle movement / stop signal I33 is a signal for causing the pan marker pan head operating unit 243 to move the pan marker in the pan direction by rotating the pan marker pan head 226 and to stop the movement.
移動制御部186は、パンマーカチルト雲台動作部244にパンマーカチルト角移動・停止信号I34を送信する。パンマーカチルト角移動・停止信号I34は、パンマーカチルト雲台動作部244に、チルトマーカ雲台227のチルト角度の回転によりパンマーカをチルト方向に移動させ、また当該移動を停止させる信号である。 The movement control unit 186 transmits a pan marker tilt angle movement / stop signal I34 to the pan marker tilt pan operation unit 244. The pan marker tilt angle movement / stop signal I34 is a signal that causes the pan marker tilt pan operation unit 244 to move the pan marker in the tilt direction by rotating the tilt angle of the tilt marker pan head 227 and to stop the movement.
移動制御部186は、チルトマーカS雲台動作部245にチルトマーカS角移動・停止信号I35を送信する。チルトマーカS角移動・停止信号I35は、チルトマーカS雲台動作部245に、チルトマーカ雲台227−Sのチルト角度の回転によりチルトマーカをチルト方向に移動させ、また当該移動を停止させる信号である。 The movement control unit 186 transmits a tilt marker S angle movement / stop signal I35 to the tilt marker S pan head operation unit 245. The tilt marker S angle movement / stop signal I35 is a signal for causing the tilt marker S pan head operating unit 245 to move the tilt marker in the tilt direction by rotating the tilt angle of the tilt marker pan head 227-S and to stop the movement.
移動制御部186は、チルトマーカR雲台動作部246にチルトマーカR角移動・停止信号I36を送信する。チルトマーカR角移動・停止信号I36は、チルトマーカR雲台動作部246に、チルトマーカ雲台227−Rのチルト角度の回転によりチルトマーカをチルト方向に移動させ、また当該移動を停止させる信号である。 The movement control unit 186 transmits a tilt marker R angle movement / stop signal I36 to the tilt marker R pan head operation unit 246. The tilt marker R angle movement / stop signal I36 is a signal for causing the tilt marker R pan head operating unit 246 to move the tilt marker in the tilt direction by rotating the tilt angle of the tilt marker pan head 227-R and to stop the movement.
モニタ制御部185は、カメラ撮影位置やマーカ付与位置を制御する。具体的には、例えば、モニタ制御部185は、カメラ2のモニタ画像情報I12のモニタ画像から、画像認識により高輝度マーカのマーカ像のマーカ位置を検出する。そして、モニタ制御部185は、検出したマーカ位置と予め設定していた撮影領域内の所定位置とを比較して、その位置ずれを特定し、当該位置ずれ分の補正値を移動制御部186に通知することにより、マーカ位置制御を実行する。また、モニタ制御部185は、外部に出力されたモニタ画像情報I12を操作者が見て、モニタ制御部185にモニタ観察・手動位置補正情報I6として入力したりすることにより、位置制御を実行してもよい。 The monitor control unit 185 controls the camera shooting position and the marker application position. Specifically, for example, the monitor control unit 185 detects the marker position of the marker image of the high-intensity marker from the monitor image of the monitor image information I12 of the camera 2 by image recognition. Then, the monitor control unit 185 compares the detected marker position with a predetermined position in the imaging region that has been set in advance, identifies the positional deviation, and sends a correction value for the positional deviation to the movement control unit 186. By notifying, marker position control is executed. Also, the monitor control unit 185 performs position control by allowing the operator to view the monitor image information I12 output to the outside and inputting it to the monitor control unit 185 as monitor observation / manual position correction information I6. May be.
また、モニタ制御を使わずに、制御部7が、各雲台(カメラ雲台225,パンマーカ雲台226,チルトマーカ雲台227−S,227−R)による位置設定を環境寸法情報と整合させるようにした、雲台の数値制御のみで撮影位置とマーカ付与位置を設定してもよい。 Further, without using the monitor control, the control unit 7 matches the position setting by each camera platform (camera camera platform 225, pan marker camera platform 226, tilt marker camera platform 227-S, 227-R) with the environmental dimension information. The photographing position and the marker applying position may be set only by numerical control of the pan head.
タイミング制御部182は、カメラ装置8やマーカ付与装置6の移動または停止による撮影のタイミングを制御する。具体的には、たとえば、タイミング制御部182は、移動処理部132や移動処理部133に関係したカメラ雲台パン角移動・停止信号I31、カメラ雲台チルト角移動・停止信号I32やパンマーカパン角移動・停止信号I33、パンマーカチルト角移動・停止信号I34、チルトマーカS角移動・停止信号I35、チルトマーカR角移動・停止信号I36を、移動制御部186から受信する。 The timing control unit 182 controls the shooting timing by moving or stopping the camera device 8 or the marker applying device 6. Specifically, for example, the timing control unit 182 includes a camera head pan angle movement / stop signal I31, a camera head tilt angle movement / stop signal I32, and a pan marker pan related to the movement processing unit 132 and the movement processing unit 133. An angle movement / stop signal I33, a pan marker tilt angle movement / stop signal I34, a tilt marker S angle movement / stop signal I35, and a tilt marker R angle movement / stop signal I36 are received from the movement control unit 186.
タイミング制御部182は、カメラ移動・停止信号I3を受けると、図21のタイミングチャートに示されるシーケンスに沿って、カメラ2に撮影制御信号I1を送信して、撮影のタイミングを制御する。また、タイミング制御部182は、マーカ移動・停止信号I4を受けると、マーカ付与部130のパンマーカ光源235、チルトマーカS光源235、チルトマーカR光源237に、マーカの点灯・消灯信号I30を送信して、点灯または消灯のタイミングを制御する。これにより、マーカの必要な画像に必要なマーカを付与して撮影することができる。 Upon receiving the camera movement / stop signal I3, the timing control unit 182 transmits a shooting control signal I1 to the camera 2 in accordance with the sequence shown in the timing chart of FIG. 21, and controls the shooting timing. Upon receiving the marker movement / stop signal I4, the timing control unit 182 transmits a marker on / off signal I30 to the pan marker light source 235, the tilt marker S light source 235, and the tilt marker R light source 237 of the marker applying unit 130, Control the timing of turning on or off. Thereby, a necessary marker can be added to an image that requires a marker and photographed.
また、タイミング制御部182は、撮影関連情報I11を外部に出力する。撮影関連情報I11は、画像情報に関連したメタ情報である。具体的には、たとえば、撮影関連情報I11は、撮影に伴う、撮影時刻、撮影番号、カメラ雲台225のパン方向やチルト方向の回転移動・停止、パンマーカ雲台226のパン方向やチルト方向の回転移動・停止、左側チルトマーカレーザ232−Sを搭載したチルトマーカ雲台227−Sの回転移動・停止、右側チルトマーカレーザ232−Rを搭載したチルトマーカ雲台227−Rの回転移動・移動停止、に関係した動作とその時間情報、各雲台の回転角度情報、各マーカの点灯・消灯、複数の撮影カメラがある場合にはカメラ番号と画像情報の関係を示す情報を含む。撮影関連情報I11は、図21のタイミングチャートにみるように画像IDを設定する上で関わる状態情報である。 Further, the timing control unit 182 outputs the photographing related information I11 to the outside. The shooting related information I11 is meta information related to the image information. Specifically, for example, the shooting-related information I11 includes shooting time, shooting number, rotational movement / stop of the pan / tilt direction of the camera platform 225, pan / tilt direction of the pan marker platform 226, and the like. Rotation movement / stop, rotation movement / stop of tilt marker head 227-S equipped with left tilt marker laser 232-S, rotation movement / movement stop of tilt marker head 227-R equipped with right tilt marker laser 232-R, And information on the relationship between the camera number and the image information when there are a plurality of photographing cameras. The shooting related information I11 is state information related to setting the image ID as seen in the timing chart of FIG.
また、実施例2には具体的には示していないが、被写体までの距離を別途レーザ距離測定器などで計測して、被写体との構成角度を3点のマーカ距離から求めるなどにより、各雲台(カメラ雲台225,パンマーカ雲台226,チルトマーカ雲台227−S,227−R)の設定角度と三角法により実際の撮影領域寸法やマーカ位置間隔情報などから、最大移動間隔値を距離換算し、マーカ移動距離情報として撮影関係情報I11に含めることも可能である。 Although not specifically shown in the second embodiment, each cloud is measured by separately measuring the distance to the subject using a laser distance measuring device or the like and obtaining the component angle with the subject from the three marker distances. The maximum movement interval value is converted into a distance from the setting angle of the camera platform (camera head 225, pan marker head 226, tilt marker head 227-S, 227-R) and the actual shooting area size and marker position interval information by trigonometry. However, it is also possible to include it in the imaging related information I11 as marker movement distance information.
<撮影装置5のタイミングチャート>
図21は、実施例2にかかる撮影装置5のタイミングチャートである。図21中、(1)は、カメラ2のパン角度の横方向への移動・停止のタイミングを示す、(2)は、カメラ2のチルト角度の下方向への移動・停止のタイミングを示す。(3)は、パンマーカのパン角度の横方向への移動・停止のタイミングを示す。(4)は、パンマーカのチルト角度の下方向への移動・停止のタイミングを示す。(5)は、パンマーカの点灯・消灯のタイミングを示す。
<Timing chart of photographing apparatus 5>
FIG. 21 is a timing chart of the photographing apparatus 5 according to the second embodiment. In FIG. 21, (1) shows the timing of moving / stopping the pan angle of the camera 2 in the lateral direction, and (2) shows the timing of moving / stopping the tilt angle of the camera 2 in the downward direction. (3) shows the timing of moving / stopping the pan angle of the pan marker in the horizontal direction. (4) shows the timing of the downward movement / stop of the pan marker tilt angle. (5) shows the timing of turning on / off the pan marker.
(6)のチルトマーカR角度は、チルトマーカセット3T−Rのチルト角度の下方向への移動・停止のタイミングを示す。(7)は、チルトマーカRの点灯・消灯のタイミングを示す。(8)のチルトマーカS角度は、チルトマーカセット3T−Sのチルト角度の下方位への移動・停止のタイミングを示す。(9)は、チルトマーカSの点灯・消灯のタイミングを示す。(10)は、静止画撮影(モニタ画像とは異なる)のタイミングを示す。(11)は、画像・撮影関連情報の発信のタイミングを示す。(12)は、(10)の静止画撮影で撮影される撮影画像を特定する撮影画像IDを示す。撮影画像IDは、(1)移動処理部132や(2)移動処理部133からの例えば、カメラ雲台パン角移動・停止信号I31やパンマーカパン角移動・停止信号I33などの情報に基づき、一意に決められる。 The tilt marker R angle in (6) indicates the timing of the downward movement / stop of the tilt angle of the tilt marker set 3T-R. (7) shows the timing of turning on / off the tilt marker R. The tilt marker S angle of (8) indicates the timing of moving / stopping the tilt angle of the tilt marker set 3T-S in the downward direction. (9) shows the timing of turning on / off the tilt marker S. (10) indicates the timing of still image shooting (different from the monitor image). (11) indicates the transmission timing of the image / photographing related information. (12) indicates a captured image ID that identifies a captured image captured by the still image capturing of (10). The captured image ID is based on information such as (1) the movement processing unit 132 or (2) the movement processing unit 133, such as the camera pan pan angle movement / stop signal I31 or the pan marker pan angle movement / stop signal I33. It is decided uniquely.
タイミング制御部182は、初期位置で、全マーカ3を消灯して静止画の撮影をタイミング制御する。この撮影画像が、マーカが含まれない最初の撮影画像214(1,1)Sとなる。次に、タイミング制御部182は、パンマーカ光源235とチルトマーカS光源236を点灯して撮影し、撮影画像214(1,1)Rを得る。次に、パンマーカセット3Pが撮影領域213の左端に位置するようにカメラ雲台のパン角度を移動・停止して、撮影画像214(1,2)Sを得る。 The timing control unit 182 controls the timing of taking a still image by turning off all the markers 3 at the initial position. This captured image is the first captured image 214 (1,1) S that does not include a marker. Next, the timing control unit 182 shoots with the pan marker light source 235 and the tilt marker S light source 236 turned on to obtain a captured image 214 (1,1) R. Next, the panning angle of the camera platform is moved and stopped so that the pan marker set 3P is positioned at the left end of the photographing region 213, and the photographed image 214 (1,2) S is obtained.
次に、タイミング制御部182は、パンマーカパン雲台動作部243を制御して、パンマーカセット3Pが撮影領域213の右端に位置するように移動・停止し、撮影画像214(1,2)Rを得る。タイミング制御部182は、上記カメラパン角度の移動・停止とパンマーカのパン角度の移動・停止を交互に繰り返す。 Next, the timing control unit 182 controls the pan marker pan head operation unit 243 to move and stop so that the pan marker set 3P is positioned at the right end of the imaging region 213, and the captured image 214 (1, 2). Get R. The timing control unit 182 alternately repeats the movement / stop of the camera pan angle and the movement / stop of the pan angle of the pan marker.
撮影画像214(1,4)Sを得ると、タイミング制御部182は、撮影領域213の下端部に配したチルトマーカR光源237を点灯して、撮影画像214(1,4)Rを得る。次に、タイミング制御部182は、チルトマーカセット3T−Rが撮影領域213の上端に来るようにカメラチルト角度とパンマーカチルト角度を下に移動・停止して、パンマーカ光源235を消灯し、撮影画像214(2,4)Rを得る。 When the captured image 214 (1, 4) S is obtained, the timing control unit 182 turns on the tilt marker R light source 237 disposed at the lower end of the imaging region 213 to obtain the captured image 214 (1, 4) R. Next, the timing control unit 182 moves and stops the camera tilt angle and the pan marker tilt angle so that the tilt marker set 3T-R comes to the upper end of the imaging region 213, turns off the pan marker light source 235, and performs imaging. An image 214 (2,4) R is obtained.
次に、タイミング制御部182は、チルトマーカRのチルト角度が撮影領域213の下端に来るようにチルト角度を下に移動・停止し、パンマーカ光源235を点灯して撮影画像214(2,4)Sを得る。次からは、タイミング制御部182は、カメラパン角度、パンマーカパン角度を先ほどまでの逆方向で横に交互に移動しながら、左端まで撮影を繰り返す。左端での撮影画像214(2,1)Sを得ると、先ほどの右端でのチルト方向のフローを逆転させて、チルトマーカRはチルトマーカSに置き換えて、同様のシーケンスが実行される。 Next, the timing control unit 182 moves and stops the tilt angle so that the tilt angle of the tilt marker R comes to the lower end of the imaging region 213, turns on the pan marker light source 235, and shoots the captured image 214 (2,4) S. Get. From the next time, the timing control unit 182 repeats photographing until the left end while alternately moving the camera pan angle and the pan marker pan angle horizontally in the reverse direction. When the captured image 214 (2,1) S at the left end is obtained, the flow in the tilt direction at the right end is reversed, the tilt marker R is replaced with the tilt marker S, and a similar sequence is executed.
<被写体上での撮影順序とその撮影領域群>
図22Aおよび図22Bは、実施例2にかかる被写体上での撮影順序とその撮影領域群を示す説明図である。図22Aは、撮影ルート212に沿ってカメラ2やマーカセット3を、矢印のように動かしては固定して撮影する流れを示している。図22Bは、全撮影範囲の撮影領域213と、全マーカセット3の付与位置の関係と、それぞれの撮影領域213に付与したIDの関係を示す。各マーカセット3は必ず、隣接する撮影領域が重複する共通領域に付与される。例えば、撮影領域213(1,1),213(1,2)では、共通領域に2つのパンマーカセット3P−1−1U,3P−1−1Lが付与される。また、撮影領域213(1,1),213(2,1)では、共通領域にチルトマーカセット3T−1−1S,3T−1−1Rが付与される。制御部7は、カメラ雲台225とマーカ雲台226、227の角度を制御することにより、パン方向(図22では左右)に隣接する撮影領域とパン方向の両端の撮影領域とにおいて、チルト方向(図22では上下)に隣接する撮影領域が重複する共通領域にマーカセット3を付与して、撮影を行い、撮影画像を取得する。
<Shooting order on the subject and its shooting area group>
FIG. 22A and FIG. 22B are explanatory diagrams showing a shooting sequence on a subject and a shooting region group according to the second embodiment. FIG. 22A shows a flow of shooting by moving the camera 2 and the marker set 3 along the shooting route 212 as indicated by arrows and fixing them. FIG. 22B shows the relationship between the imaging regions 213 in the entire imaging range, the positions assigned to all marker sets 3, and the relationship between the IDs assigned to the respective imaging regions 213. Each marker set 3 is always assigned to a common area where adjacent shooting areas overlap. For example, in the shooting areas 213 (1, 1) and 213 (1, 2), two pan marker sets 3P-1-1U and 3P-1-1L are assigned to the common area. In addition, in the imaging regions 213 (1, 1) and 213 (2, 1), tilt marker sets 3T-1-1S and 3T-1-1R are added to the common region. The control unit 7 controls the angles of the camera head 225 and the marker heads 226 and 227, so that the tilt direction is set between the shooting area adjacent to the pan direction (left and right in FIG. 22) and the shooting areas at both ends of the pan direction. The marker set 3 is assigned to a common area where adjacent shooting areas overlap (upper and lower in FIG. 22), and shooting is performed to obtain a shot image.
パンマーカセット3Pはカメラ2の撮影領域213の移動ルートに沿って、水平に移動し、端までいくと下に下がるが、チルトマーカセット3Tは、水平位置は両端に留まり、撮影領域213の下降に合わせて、下降する動きをする。以下、カメラ2の撮影領域213と各マーカ3の動きについて、(b)を用いて具体的に説明する。 The pan marker set 3P moves horizontally along the moving route of the shooting area 213 of the camera 2 and goes down when reaching the end. However, the tilt marker set 3T remains at both ends, and the shooting area 213 descends. Move down to match. Hereinafter, the movement of the imaging region 213 of the camera 2 and each marker 3 will be specifically described with reference to (b).
カメラ2の初期位置では、制御部7は、左チルトマーカセット3T−Sとパンマーカセット3Pを消灯させる。この消灯状態で、制御部7は、カメラ2を制御して、撮影領域213(1,1)を撮影する。 At the initial position of the camera 2, the control unit 7 turns off the left tilt marker set 3T-S and the pan marker set 3P. In this unlit state, the control unit 7 controls the camera 2 to photograph the photographing region 213 (1, 1).
次に、制御部7は、左チルトマーカセット3T−Sとパンマーカセット3Pを、隣接して撮影する予定の撮影領域213(2,1),213(1,2)の共通領域にセットして点灯させる。点灯した左チルトマーカセット3T−Sとパンマーカセット3Pは、左チルトマーカセット3T−1−S1,3T−1−1Rとパンマーカセット3P−1−1U,3P−1−1Lである。この点灯状態で、制御部7は、カメラ2を制御して、撮影領域213(1,1)を撮影する。 Next, the control unit 7 sets the left tilt marker set 3T-S and the pan marker set 3P in a common area of the shooting areas 213 (2, 1) and 213 (1, 2) scheduled to be adjacently shot. To light up. The illuminated left tilt marker set 3T-S and pan marker set 3P are left tilt marker set 3T-1-S1, 3T-1-1R and pan marker set 3P-1-1U, 3P-1-1L. In this lighting state, the control unit 7 controls the camera 2 to photograph the photographing region 213 (1, 1).
次に、制御部7は、カメラ2の撮影領域213を実線の矢印に沿って動かし、パンマーカセット3Pが撮影領域213(1,2)の左端に位置するようにカメラ雲台225のパン角度を調整して、カメラ雲台225を固定させる。この固定位置でのパンマーカセット3Pは、パンマーカセット3P−1−1U,3P−1−1Lである。この固定状態で、制御部7は、カメラ2を制御して、撮影領域213(1,2)を撮影する。 Next, the control unit 7 moves the shooting area 213 of the camera 2 along the solid arrow, and the pan angle of the camera platform 225 so that the pan marker set 3P is positioned at the left end of the shooting area 213 (1, 2). To fix the camera head 225. The pan marker sets 3P at this fixed position are the pan marker sets 3P-1-1U and 3P-1-1L. In this fixed state, the control unit 7 controls the camera 2 and images the imaging region 213 (1, 2).
次に、制御部7は、カメラ2を固定した状態で、パンマーカセット3Pが撮影領域213(1,2)の右端に配置されるように、パンマーカ雲台226のパン角度を調整して、パンマーカ雲台226を固定させる。この固定位置でのパンマーカセット3Pは、パンマーカセット3P−1−2U,3P−1−2Lである。この固定状態で、制御部7は、カメラ2を制御して、撮影領域213(1,2)を撮影する。 Next, the control unit 7 adjusts the pan angle of the pan marker head 226 so that the pan marker set 3P is arranged at the right end of the imaging region 213 (1, 2) with the camera 2 fixed. The pan marker head 226 is fixed. The pan marker sets 3P at this fixed position are the pan marker sets 3P-1-2U and 3P-1-2L. In this fixed state, the control unit 7 controls the camera 2 to photograph the imaging region 213 (1, 2).
順次、制御部7は、カメラ2とパンマーカセット3Pを交互に動かして上記の撮影形態を繰り返して実行するように制御する。撮影領域213が右端に移動して撮影領域213(1,4)になると、右チルトマーカセット3T−Rが撮影領域213(1,4)の下端に配置されるように、右チルトマーカ雲台227−Rを調整して、右チルトマーカセット3T−Rを消灯させる。この消灯状態で、制御部7は、カメラ2を制御して、撮影領域213(1,4)を撮影し、その後、さらに右チルトマーカセット3T−Rを点灯して、再度撮影領域213(1,4)を撮影する。 Sequentially, the control unit 7 performs control so that the camera 2 and the pan marker set 3P are alternately moved to repeatedly execute the above-described imaging mode. When the shooting area 213 moves to the right end and becomes the shooting area 213 (1, 4), the right tilt marker platform 227 is arranged so that the right tilt marker set 3T-R is arranged at the lower end of the shooting area 213 (1, 4). -R is adjusted to turn off the right tilt marker set 3T-R. In this unlit state, the control unit 7 controls the camera 2 to photograph the photographing area 213 (1, 4), and then turns on the right tilt marker set 3T-R again, and again captures the photographing area 213 (1 , 4).
実施例2は、撮影における実施例1の位置を角度に置き換えた例である。実施例2でのパン方向やチルト方向の最大の移動間隔L0は、実施例1の図7に示した式(1)におけるカメラ部202の移動量とマーカ付与部130の移動量を、撮影領域213の移動量に対応するカメラ雲台225のパン角度またはチルト角度、パンマーカセット3Pのパン方向の移動量に対応するパンマーカ雲台のパン角度、またはチルトマーカ3T−R,3T−Sのチルト方向の移動量に対応するチルトマーカ雲台227−R,227−Sのチルト角度に置き換え、かつ、Xを撮影領域長に対応するパン方向やチルト方向の撮影角度範囲、設定誤差を雲台の設定角度誤差、マーカ径を相当角度とすることで得られる。 The second embodiment is an example in which the position of the first embodiment in photographing is replaced with an angle. The maximum movement interval L0 in the pan direction and the tilt direction in the second embodiment is obtained by calculating the movement amount of the camera unit 202 and the movement amount of the marker providing unit 130 in the expression (1) shown in FIG. The pan angle or tilt angle of the camera head 225 corresponding to the movement amount of 213, the pan angle of the pan marker head corresponding to the movement amount of the pan marker set 3P in the pan direction, or the tilt directions of the tilt markers 3T-R and 3T-S Are replaced with tilt angles of tilt marker heads 227-R and 227-S corresponding to the movement amount of X, and X is a shooting angle range in the pan direction and tilt direction corresponding to the shooting area length, and a setting error is a setting angle of the head It is obtained by setting the error and the marker diameter to an equivalent angle.
<撮影装置5の動作処理手順例>
図23Aは、実施例2にかかる撮影装置5の動作処理手順例を示すフローチャートである。まず、撮影装置5は、カメラ装置8、マーカ付与装置6および制御部7の機能を初期化する(ステップS100)。つぎに、撮影装置5は、初期撮影位置にカメラ部202の角度を設定し、パンマーカセット3Pが被写体上の初期所定位置に配置されるようにパンマーカレーザ231の角度を設定し、チルトマーカセット3Tが被写体上の初期設定位置に配置されるようにチルトマーカレーザ232の角度を設定する(ステップS101)。
<Example of Operation Processing Procedure of Imaging Device 5>
FIG. 23A is a flowchart illustrating an example of an operation processing procedure of the imaging apparatus 5 according to the second embodiment. First, the imaging device 5 initializes the functions of the camera device 8, the marker applying device 6, and the control unit 7 (step S100). Next, the photographing apparatus 5 sets the angle of the camera unit 202 at the initial photographing position, sets the angle of the pan marker laser 231 so that the pan marker set 3P is arranged at the initial predetermined position on the subject, and the tilt marker. The angle of the tilt marker laser 232 is set so that the set 3T is arranged at the initial setting position on the subject (step S101).
つぎに、撮影装置5は、マーカ付与部230の光源235〜237を消灯し、最初の撮影を行う(ステップS102)。そして、撮影装置5は、初期撮影位置である撮影領域213(1,1)の移動方向前方に設定したパンマーカセット3P−1−1U,3P−1−1Lと撮影領域213(1,1)に配置されたチルトマーカセット3T−1−1S,3T−1−1Rを点灯する(ステップS103)。 Next, the imaging device 5 turns off the light sources 235 to 237 of the marker applying unit 230 and performs the first imaging (step S102). Then, the imaging device 5 includes pan marker sets 3P-1-1U and 3P-1-1L set in front of the moving direction of the imaging area 213 (1, 1), which is the initial imaging position, and the imaging area 213 (1, 1). The tilt marker sets 3T-1-1S and 3T-1-1R arranged in (1) are turned on (step S103).
つぎに、撮影装置5は、初期撮影位置である撮影領域213(1,1)を撮影し、撮影画像を取得する(ステップS104)。そして、撮影装置5は、撮影領域213、パンマーカセット3Pを移動させる最初のパン移動方向を設定する(ステップS104)。パン移動方向とは、パン方向(左右)のいずれか一方の方向(右または左)である。このあと、撮影装置5は、パン方向移動撮影処理を実行する(ステップS106)。パン方向移動撮影処理(ステップS106)の詳細は、図23Bで説明する。パン方向移動撮影処理(ステップS106)のあと、撮影装置5は、チルト方向操作処理を実行する(ステップS107)。チルト方向操作処理(ステップS107)の詳細は、図23Cで説明する。 Next, the photographing device 5 photographs the photographing region 213 (1, 1) that is the initial photographing position, and obtains a photographed image (step S104). Then, the imaging device 5 sets an initial pan movement direction for moving the imaging region 213 and the pan marker set 3P (step S104). The pan movement direction is one of the pan directions (left and right) (right or left). Thereafter, the photographing apparatus 5 executes pan direction moving photographing processing (step S106). Details of the pan-direction moving shooting process (step S106) will be described with reference to FIG. 23B. After the pan direction moving photographing process (step S106), the photographing apparatus 5 executes a tilt direction operation process (step S107). Details of the tilt direction operation processing (step S107) will be described with reference to FIG. 23C.
チルト方向操作処理(ステップS107)のあと、撮影装置5は、撮影対象範囲における最終撮影か否かを判断する(ステップS108)。具体的には、例えば、撮影装置5は、撮影関連情報I11を利用する場合、カメラ装置8やマーカ付与装置6に予め設定した移動範囲で最終位置の検出をすることにより、最終撮影か否かを判断する。また、撮影装置5は、モニタ画像情報I12を利用する場合、操作者がモニタ画像を見ながら、最終画像撮影の指示をすることにより、最終撮影か否かを判断する。最終撮影でない場合(ステップS108:No)、撮影装置5は、撮影領域213、パンマーカセット3Pのパン移動方向を逆方向に変更して、ステップS106に戻る。一方、最終撮影である場合(ステップS108:Yes)、撮影装置5は、一連の処理を終了する。 After the tilt direction operation process (step S107), the photographing apparatus 5 determines whether or not the final photographing within the photographing target range (step S108). Specifically, for example, when the imaging device 5 uses the imaging-related information I11, it is determined whether or not the final imaging is performed by detecting the final position within a movement range set in advance in the camera device 8 or the marker applying device 6. Judging. Further, when using the monitor image information I12, the photographing device 5 determines whether or not the final photographing is performed by instructing the final image photographing while the operator looks at the monitor image. If it is not the final photographing (step S108: No), the photographing device 5 changes the pan movement direction of the photographing region 213 and the pan marker set 3P to the reverse direction, and returns to step S106. On the other hand, if it is the final shooting (step S108: Yes), the shooting device 5 ends the series of processes.
図23Bは、図23Aに示したパン方向移動撮影処理(ステップS106)の詳細な処理手順例を示すフローチャートである。撮影装置5は、カメラ2を搭載したカメラ雲台225をパン移動方向に回転させることで、撮影領域213に既に付与されているパンマーカセット3Pをパン移動方向に移動させ、同一の撮影領域213におけるパン移動方向の最後尾(パン移動方向の反対側の端)の所定位置で、パンマーカセット3Pを停止させる(ステップS110)。 FIG. 23B is a flowchart illustrating a detailed processing procedure example of the pan-direction moving photographing process (step S106) illustrated in FIG. 23A. The imaging device 5 rotates the camera pan head 225 on which the camera 2 is mounted in the pan movement direction, thereby moving the pan marker set 3P already assigned to the imaging area 213 in the pan movement direction, and the same imaging area 213. The pan marker set 3P is stopped at a predetermined position at the end of the pan movement direction at (the end opposite to the pan movement direction) (step S110).
つぎに、撮影装置5は、カメラ2の撮影領域213が、対象とする全撮影範囲のパン移動方向の端の撮影領域213に到来したか否かを判断する(ステップS111)。具体的には、たとえば、撮影装置5は、初期設定として、制御部7の移動制御部186に、移動制限として、移動制限となるパン方向の上限移動量を設定しておき、パン移動方向の移動量が上限移動量に到達した場合、撮影装置5は、カメラ2の撮影領域213が、対象とする全撮影範囲のパン移動方向の端の撮影領域213に到来したと判断する。 Next, the photographing apparatus 5 determines whether or not the photographing region 213 of the camera 2 has arrived at the photographing region 213 at the end of the entire photographing range in the pan movement direction (step S111). Specifically, for example, as an initial setting, the imaging device 5 sets an upper limit movement amount in the pan direction as a movement limit in the movement control unit 186 of the control unit 7, and sets the pan movement direction in the pan movement direction. When the movement amount reaches the upper limit movement amount, the photographing apparatus 5 determines that the photographing region 213 of the camera 2 has arrived at the photographing region 213 at the end of the entire photographing range in the pan movement direction.
到来していない場合(ステップS111:No)、撮影装置5は、現在位置の撮影領域213を撮影し、撮影画像を取得する(ステップS112)。そして、撮影装置5は、パンマーカ光源235をパン移動方向に回転させることで、撮影領域213を固定したままパンマーカセット3Pをパン移動方向に移動させ、同一の撮影領域213のパン移動方向の最前部(パン移動方向側の端)の所定位置に、パンマーカセット3Pを停止させる(ステップS113)。このあと、撮影装置5は、現在位置の撮影領域213を撮影し、撮影画像を取得し(ステップS114)、ステップS110に戻る。 If it has not arrived (step S111: No), the imaging device 5 captures the imaging region 213 at the current position and acquires a captured image (step S112). Then, the imaging device 5 rotates the pan marker light source 235 in the pan movement direction, thereby moving the pan marker set 3P in the pan movement direction while fixing the imaging region 213, so that the same imaging region 213 is moved forward in the pan movement direction. The pan marker set 3P is stopped at a predetermined position of the section (end on the pan movement direction side) (step S113). Thereafter, the photographing device 5 photographs the photographing region 213 at the current position, acquires a photographed image (step S114), and returns to step S110.
また、ステップS111において、カメラ2の撮影領域213が、対象とする全撮影範囲のパン移動方向の端の撮影領域213に到来した場合(ステップS111:Yes)、撮影装置5は、パン方向移動撮影処理(ステップS106)を終了し、チルト方向操作処理(ステップS107)に移行する。 In step S111, when the shooting area 213 of the camera 2 has arrived at the shooting area 213 at the end of the entire shooting range in the pan movement direction (step S111: Yes), the shooting apparatus 5 moves in the pan direction. The process (step S106) ends, and the process proceeds to a tilt direction operation process (step S107).
図23Cは、図23Aに示したチルト方向操作処理(ステップS107)の詳細な処理手順例を示すフローチャートである。操作者により、カメラ2を搭載したカメラ雲台225のチルト角が撮影予定範囲の初期位置になるような角度(初期角度)に設定されているか否かを判断する(ステップS120)。初期角度の場合(ステップS120:Yes)、ステップS124に移行し、初期角度でない場合(ステップS120:No)、ステップS121に移行する。 FIG. 23C is a flowchart illustrating a detailed processing procedure example of the tilt direction operation processing (step S107) illustrated in FIG. 23A. The operator determines whether or not the tilt angle of the camera platform 225 on which the camera 2 is mounted is set to an angle (initial angle) that is the initial position of the scheduled shooting range (step S120). If it is the initial angle (step S120: Yes), the process proceeds to step S124. If it is not the initial angle (step S120: No), the process proceeds to step S121.
初期撮影を終えてチルト角が初期角度でない状態になると(ステップS120:No)、撮影装置5は、撮影領域213内のチルト移動方向の最終尾(チルト移動方向の反対端)の所定位置に配置されたチルトマーカセット3Tを含むようにカメラ雲台225の角度制御をして、チルトマーカセット3Tとパンマーカセット3Pを点灯した状態で撮影する(ステップS121)。 When the initial photographing is finished and the tilt angle is not the initial angle (step S120: No), the photographing device 5 is disposed at a predetermined position on the final tail (opposite end of the tilt moving direction) in the tilt moving direction in the photographing region 213. The angle of the camera pan head 225 is controlled so as to include the tilt marker set 3T, and shooting is performed with the tilt marker set 3T and the pan marker set 3P turned on (step S121).
つぎに、撮影装置5は、カメラ2の撮影領域213が、対象とする撮影範囲全体の最終位置に到来したか否かを判断する(ステップS122)。具体的には、たとえば、撮影装置5は、初期設定として、制御部7の移動制御部186に、移動制限となるチルト方向の上限移動量を設定しておき、チルト移動方向の移動量が上限移動量に到達した場合、撮影装置5は、カメラ2の撮影領域213が、対象とする撮影範囲全体の最終位置に到来したと判断する。 Next, the photographing apparatus 5 determines whether or not the photographing region 213 of the camera 2 has arrived at the final position of the entire photographing range (step S122). Specifically, for example, as an initial setting, the photographing apparatus 5 sets an upper limit movement amount in the tilt direction that is a movement limit in the movement control unit 186 of the control unit 7, and the movement amount in the tilt movement direction is the upper limit. When the movement amount is reached, the photographing apparatus 5 determines that the photographing region 213 of the camera 2 has arrived at the final position of the entire photographing range.
最終位置に到来した場合(ステップS122:Yes)、撮影装置5は、チルト方向操作処理(ステップS107)を終了し、ステップS108に移行する。一方、最終位置に到来していない場合(ステップS122:No)、撮影装置5は、チルトマーカセット3Tが撮影領域213内のチルト移動方向の最前部(チルト移動方向側の端)の所定位置のチルトマーカセット3Tに来るようにチルトマーカ雲台227−S,227−Rのチルト角を下げて、チルトマーカセット3Tを停止させ、現在位置の撮影領域213を撮影する(ステップS123)。そして、ステップS126に移行する。 When the final position has been reached (step S122: Yes), the imaging device 5 ends the tilt direction operation process (step S107), and proceeds to step S108. On the other hand, when the final position has not been reached (step S122: No), the imaging apparatus 5 has the tilt marker set 3T at a predetermined position at the forefront part in the tilt movement direction (end on the tilt movement direction side) in the imaging region 213. The tilt angle of the tilt marker heads 227-S and 227-R is lowered so as to come to the tilt marker set 3T, the tilt marker set 3T is stopped, and the imaging region 213 at the current position is imaged (step S123). Then, the process proceeds to step S126.
一方、最終位置に到来していない場合(ステップS122:No)、撮影装置5は、チルトマーカセット3Tを消灯し、かつ、パンマーカセット3Pは点灯した状態にして、現在位置の撮影領域213を撮影し、撮影画像を取得する(ステップS124)。つぎに、撮影装置5は、チルトマーカセット3Tを点灯して、現在位置の撮影領域213を撮影し、撮影画像を取得し(ステップS125)、ステップS126に移行する。 On the other hand, when the final position has not been reached (step S122: No), the photographing apparatus 5 turns off the tilt marker set 3T and turns on the pan marker set 3P, and sets the photographing area 213 at the current position. A photograph is taken and a photographed image is acquired (step S124). Next, the imaging device 5 turns on the tilt marker set 3T, images the imaging region 213 at the current position, acquires a captured image (step S125), and proceeds to step S126.
ステップS126において、撮影装置5は、チルトマーカセット3Tが撮影領域213内のチルト移動方向の最後尾(チルト移動方向の反対端)の所定位置に来るようにカメラ部202のチルト角を下げ、パンマーカセット3Pが所定位置となるようにパンマーカ雲台226のチルト角も下げてパンマーカセット3Pを停止させ、パンマーカセット3Pを消灯して撮影する(ステップS126)。 In step S126, the imaging device 5 lowers the tilt angle of the camera unit 202 so that the tilt marker set 3T comes to a predetermined position in the imaging region 213 at the end of the tilt movement direction (opposite end of the tilt movement direction). The pan marker set 3P is stopped by lowering the tilt angle of the pan marker head 226 so that the marker set 3P is at a predetermined position, and the pan marker set 3P is turned off and photographed (step S126).
つぎに、撮影装置5は、カメラ2のチルト角が、対象とする撮影範囲全体でのチルト移動方向の最終角度に到達か否かを判断する(ステップS127)。具体的には、たとえば、撮影装置5は、制御部7の移動制御部186に、移動制限として、初期設定として、移動制限となるチルト方向の上限移動量を設定しておき、チルト移動方向の移動量が上限移動量に到達した場合、撮影装置5は、カメラ2の撮影領域213が、対象とする撮影範囲全体でのチルト移動方向の最終角度に到達したと判断する。 Next, the imaging device 5 determines whether or not the tilt angle of the camera 2 has reached the final angle in the tilt movement direction over the entire target imaging range (step S127). Specifically, for example, the photographing apparatus 5 sets an upper limit movement amount in a tilt direction that is a movement restriction as an initial setting in the movement control unit 186 of the control unit 7 and sets the movement amount in the tilt movement direction. When the movement amount reaches the upper limit movement amount, the imaging device 5 determines that the imaging region 213 of the camera 2 has reached the final angle in the tilt movement direction in the entire target imaging range.
チルト角が最終角度に到達していない場合(ステップS127:No)、撮影装置5は、チルトマーカセット3Tを撮影領域213内のチルト移動方向の最前部(移動方向側の端)の所定位置に位置するようにチルトマーカ雲台227−S,227−Rのチルト角を下げて停止、パンマーカセット3Pも点灯して撮影し(ステップS128)、図23AのステップS107に戻る。チルト角が最終角度に到達した場合(ステップS127:No)、撮影装置5は、パンマーカセット3Pを消灯し、かつ、チルトマーカセット3Tを点灯して現在の撮影領域213を撮影し、図23AのステップS107に戻る。 If the tilt angle has not reached the final angle (step S127: No), the photographing apparatus 5 places the tilt marker set 3T at a predetermined position in the forefront portion (end on the moving direction side) of the tilt movement direction in the photographing region 213. The tilt marker pan heads 227-S and 227-R are lowered and stopped so that they are positioned, and the pan marker set 3P is also turned on to photograph (step S128), and the process returns to step S107 in FIG. 23A. When the tilt angle reaches the final angle (step S127: No), the photographing apparatus 5 turns off the pan marker set 3P and turns on the tilt marker set 3T to photograph the current photographing region 213. FIG. Return to step S107.
<撮影画像群の一例>
図24は、実施例2にかかる撮影画像群の一例を示す説明図である。図24は、図22に示した被写体上の撮影ルートに沿った撮影領域群と、図23A〜図23Cに示した撮影装置5の操作処理手順で撮影して取得した、図21のタイミングチャートの撮影画像214のIDに相当する撮影画像群と、を示している。なお、撮影画像214(m、n)は、撮影領域213(m,n)を撮影した画像である。
<Example of photographed image group>
FIG. 24 is an explanatory diagram of an example of a captured image group according to the second embodiment. FIG. 24 is a timing chart of FIG. 21 obtained by photographing the photographing region group along the photographing route on the subject shown in FIG. 22 and the operation processing procedure of the photographing device 5 shown in FIGS. 23A to 23C. A photographed image group corresponding to the ID of the photographed image 214 is shown. The captured image 214 (m, n) is an image obtained by capturing the imaging region 213 (m, n).
初期位置の撮影画像214(1,1)Oは、初期位置の撮影領域213(1,1)において、全てのマーカ3を消灯したマーカ像のない撮影画像である。撮影画像214(1,1)Rは、同じ撮影領域213(1,1)でマーカを点灯したことにより、パンマーカセット3Pのマーカ像203P−1−1−Rとチルトマーカセット3T−Sのマーカ像203T−1−1−Lを含む撮影画像である。 The captured image 214 (1,1) O at the initial position is a captured image without a marker image in which all the markers 3 are turned off in the imaging region 213 (1,1) at the initial position. The photographed image 214 (1,1) R has a marker image 203P-1-1-R of the pan marker set 3P and a tilt marker set 3T-S because the marker is lit in the same photographing region 213 (1,1). It is a picked-up image including the marker image 203T-1-1-L.
撮影画像214(1,2)Sは、撮影領域213(1,1)をパン方向に移動した移動後の撮影領域213(1,2)を撮影した撮影画像であり、撮影領域213(1,2)内のパン移動方向の最後尾に当たる左端マーカ像203P−1−1−Sを含む。 The photographed image 214 (1,2) S is a photographed image obtained by photographing the photographed area 213 (1,2) after moving the photographed area 213 (1,1) in the pan direction, and the photographed area 213 (1,1). 2) The left end marker image 203P-1-1-S corresponding to the tail end in the pan movement direction is included.
撮影画像214(1.2)Rは、同じ撮影領域213(1,2)でパンマーカセット3Pをパン移動方向に移動して、撮影領域213(1,2)内でパン移動方向の最前部に当たる右端に配置させた状態で撮影した撮影画像である。撮影画像214(1.2)Rは、撮影領域213(1,2)内でパン移動方向の最前部に当たる右端にマーカ像203P−1−2−Rを含む。 The photographed image 214 (1.2) R moves the pan marker set 3P in the pan movement direction in the same photographing area 213 (1,2), and the foremost part in the pan movement direction in the photographing area 213 (1,2). It is the picked-up image image | photographed in the state arrange | positioned at the right end which hits. The photographed image 214 (1.2) R includes a marker image 203P-1-2-R at the right end corresponding to the frontmost part in the pan movement direction within the photographing region 213 (1, 2).
撮影領域213が全撮影範囲のパン方向の端である右端に到来して撮影した画像が、撮影画像214(1,n)Sである。チルトマーカセット3T−Rも撮影領域213に含まれるが、撮影画像214(1,n)Sは、画像合成処理におけるマーカ像隠蔽のために消灯した状態で撮影される。 A captured image 214 (1, n) S is an image captured when the imaging region 213 arrives at the right end, which is the end in the pan direction of the entire imaging range. Although the tilt marker set 3T-R is also included in the shooting region 213, the shot image 214 (1, n) S is shot in a state where the marker image is turned off to hide the marker image in the image composition processing.
撮影画像214(1,n)Rは、チルト方向の移動における画像合成のために、撮影領域213のチルト移動方向側である下端部に配置され、かつ、点灯されたチルトマーカセット3T−Rのマーカ像203T−1−n−Lを含む。 The captured image 214 (1, n) R is arranged at the lower end portion on the tilt movement direction side of the imaging region 213 for image synthesis in the movement in the tilt direction, and the lit image of the illuminated tilt marker set 3T-R. It includes a marker image 203T-1-n-L.
撮影画像214(2,n)Rは、チルト方向の画像合わせのためのマーカ像203T−1−n−Uを移動方向の最後尾である上端に含むが、マーカ隠蔽処理のためにパンマーカセット3Pは消灯した状態で撮影した画像である。 The captured image 214 (2, n) R includes a marker image 203T-1-n-U for image alignment in the tilt direction at the upper end, which is the last in the movement direction, but a pan marker set for marker concealment processing. 3P is an image taken with the light turned off.
撮影画像214(2,n)Sは、同じ撮影領域213(2,n)で点灯したマーカ像203T−2−n−1と、パン移動方向の画像合わせのためのマーカ像203P−2−(n−1)−Sと、を含む。以下、図22に示した撮影ルートに沿って、図23に示したフローチャートで撮影した全撮影画像群が示されている。 The captured image 214 (2, n) S includes a marker image 203T-2-n-1 that is lit in the same imaging region 213 (2, n) and a marker image 203P-2- ( n-1) -S. In the following, along with the shooting route shown in FIG. 22, a group of all shot images shot in the flowchart shown in FIG. 23 is shown.
実施例2における画像処理を実施する機能ブロックは、実施例1の図11に示した画像処理装置9の機能ブロックに準じる。実施例1と異なる点について以下に説明する。 The functional blocks for performing the image processing in the second embodiment conform to the functional blocks of the image processing apparatus 9 shown in FIG. 11 of the first embodiment. Differences from the first embodiment will be described below.
情報取得部190は、図21のタイミンチャートに示した(12)の撮影画像群214の識別子に関連した撮影関連情報I11として(1)から(9)の状態情報を取得する。実施例2における撮影関連情報I11は、撮影に伴う、撮影時刻、撮影番号、カメラ搭載パン雲台の回転移動・停止、カメラ搭載チルト雲台の回転移動・停止、パンマーカ付与部搭載パン雲台の回転移動・停止、パンマーカ付与部搭載チルト雲台の回転移動・停止、左側チルトマーカ付与部搭載チルト雲台の回転移動・停止、右側チルトマーカ付与部搭載チルト雲台の回転移動・移動停止、に関係した移動・停止動作とその時間情報、各雲台の回転角度情報、各マーカの点灯・消灯、仮に複数の撮影カメラがある場合にはカメラ番号と画像情報の関係、などの諸情報となる。 The information acquisition unit 190 acquires the state information from (1) to (9) as the shooting related information I11 related to the identifier of the shot image group 214 of (12) shown in the timing chart of FIG. The shooting-related information I11 in the second embodiment includes shooting time, shooting number, rotational movement / stop of the camera-mounted pan head, rotational movement / stop of the camera-mounted pan head, and pan marker mounting unit-mounted pan head. Rotation movement / stop, Rotation movement / stop of tilt pan head with pan marker attachment unit, Rotation movement / stop of tilt pan head with left tilt marker attachment unit, Rotation movement / movement stop of tilt pan head with right tilt marker provision unit Information such as movement / stop operation and time information thereof, rotation angle information of each pan head, lighting / extinction of each marker, and relationship between camera number and image information if there are a plurality of photographing cameras.
情報取得部190は、撮影関連情報I11を参照して、パンマーカの移動・停止直後に撮影した画像を特定し、当該撮影画像には識別子“F”を付与する。情報取得部190は、撮影関連情報I11を参照して、カメラ2のパン方向移動・停止直後に撮影した画像を特定し、当該撮影画像には識別子“B”を付与する。情報取得部190は、撮影関連情報I11を参照して、関連したマーカが消灯している画像を特定し、当該撮影画像には識別子“O”を付与する。情報取得部190は、撮影関連情報I11を参照して、パン移動方向へのカメラ2の移動順番に伴い、画像行列(m,n)の“n”を付与する。 The information acquisition unit 190 refers to the shooting related information I11, specifies an image shot immediately after the pan marker is moved or stopped, and assigns the identifier “F” to the shot image. The information acquisition unit 190 refers to the shooting-related information I11, specifies an image shot immediately after the camera 2 is moved or stopped in the pan direction, and assigns an identifier “B” to the shot image. The information acquisition unit 190 refers to the shooting related information I11, identifies an image in which the related marker is turned off, and assigns an identifier “O” to the shot image. The information acquisition unit 190 refers to the imaging related information I11 and assigns “n” of the image matrix (m, n) according to the movement order of the camera 2 in the pan movement direction.
情報取得部190は、撮影関連情報I11を参照して、チルト方向の移動順番に対応して、画像行列の“m”を当て、図24の撮影画像群のような画像IDを撮影画像214に付与する。 The information acquisition unit 190 refers to the shooting-related information I11, applies “m” of the image matrix corresponding to the movement order in the tilt direction, and sets an image ID such as the shot image group of FIG. Give.
マーカルート情報生成部193は、マーカ付与関連情報とマーカ像203の画像内位置を示すマーカIDとをリンクさせて画像の撮影順などに連動するマーカルート情報を作成する。マーカ付与関連情報は、パンマーカパン角移動・停止信号I33やチルト角移動・停止信号I34、チルトマーカのチルト角移動・停止信号I35、I36、マーカ点・消灯信号I30を含む情報である。マーカルート情報生成部193は、マーカ座標値抽出部191からマーカ座標情報I19を抽出して、マーカ像203が属する撮影画像214を特定する。そして、マーカルート情報生成部193は、マーカ像203が撮影画像214内の位置から得られたマーカ像のIDと画像IDからマーカのIDを特定する。 The marker route information generation unit 193 creates marker route information that links the marker assignment related information and the marker ID indicating the position in the image of the marker image 203 in conjunction with the shooting order of the images. The marker addition related information is information including a pan marker pan angle move / stop signal I33, a tilt angle move / stop signal I34, tilt angle move / stop signals I35 and I36 of a tilt marker, and a marker point / light off signal I30. The marker route information generation unit 193 extracts the marker coordinate information I19 from the marker coordinate value extraction unit 191, and specifies the captured image 214 to which the marker image 203 belongs. Then, the marker route information generation unit 193 identifies the marker ID from the marker image ID and the image ID obtained when the marker image 203 is obtained from the position in the captured image 214.
例えば、パン方向のマーカ203Pについては、画像中の上下に配された2つのマーカが左半分の左端寄りにあれば「203P−S」と識別され、右半分の右端寄りにあれば「203P−R」と識別される。チルト方向のマーカ203Tが画像域の中央の寄りで上端寄りに左右に配された2つのマーカから「203T−U」と識別され、下端寄りに左右に配置された2つのマーカから「203T−L」とマーカ像IDが導出されていると、そのマーカIDと画像IDの関係から、パン方向のマーカ「3P」やチルト方向のマーカ「3T」のIDを導出して、画像IDにそって左右のマーカルートおよび上下のマーカルートを構成する。 For example, regarding the marker 203P in the pan direction, if two markers arranged at the top and bottom in the image are near the left end of the left half, they are identified as “203P-S”, and if they are near the right end of the right half, “203P− R ". The marker 203T in the tilt direction is identified as “203T-U” from the two markers arranged on the left and right near the upper end near the center of the image area, and “203T-L” from the two markers arranged on the left and right near the lower end. ] And the marker image ID are derived, the ID of the marker “3P” in the pan direction and the marker “3T” in the tilt direction are derived from the relationship between the marker ID and the image ID, and the left and right are aligned along the image ID. The marker route and the upper and lower marker routes are configured.
補正値算出部197は、実施例1と同様、合成画像選択部196により選択された画像の合成用補正値を算出する。まず、補正値算出部197は、合成用補正値用の基準画像を設定する。例えば、補正値算出部197は、選択された画像群の中央の画像を基準画像とする。基準画像から画像合成の対象である各画像までの最適なルートをマーカルート情報I29を用いて設定する。具体的には、たとえば、補正値算出部197は、基準画像から対象とする画像までのルート上の隣接画像間の行列積を算出することにより、マーカ像の座標値に内在する量子化誤差を累積するとともに、レンズ収差を撮影環境情報I50から取得することにより、レンズ収差に基づくレンズ歪み、行列積の算出に際して累積する。 The correction value calculation unit 197 calculates the correction value for composition of the image selected by the composite image selection unit 196, as in the first embodiment. First, the correction value calculation unit 197 sets a reference image for composition correction value. For example, the correction value calculation unit 197 sets the center image of the selected image group as the reference image. An optimum route from the reference image to each image to be image-combined is set using the marker route information I29. Specifically, for example, the correction value calculation unit 197 calculates a matrix error between adjacent images on the route from the reference image to the target image, thereby calculating the quantization error inherent in the coordinate value of the marker image. In addition to accumulating, the lens aberration is acquired from the shooting environment information I50, so that the lens distortion and the matrix product based on the lens aberration are calculated.
ルートの終点となる画像合成の対象となる画像は、選択された画像群のうち基準画像以外の残余の画像であるが、補正値算出部197は、選択された画像群の最も外側の画像群のみを、ルートの終点となる画像合成の対象となる画像に選択してもよい。 The image that is the target of image synthesis that is the end point of the route is the remaining image other than the reference image in the selected image group, but the correction value calculation unit 197 is the outermost image group of the selected image group. May be selected as an image to be synthesized as an end point of the route.
また、補正値算出部197は、量子化誤差やレンズ歪みを考慮して最適ルートを選択してもよい。量子化誤差はマーカ間隔と画素数に依存するため、補正値算出部197は、ルートを構成するリンクごとに、マーカ間隔および画素密度から量子化誤差をマーカ像の座標値の不確定度として数値化する。また、レンズ歪みは画像内位置に依存するため、補正値算出部197は、ルートを構成するリンクごとに、予め計測されたカメラレンズ収差からレンズ歪みをマーカ像の座標値の不確定度として数値化する。そして、補正値算出部197は、各リンクの不確定度を合計することにより、累積不確定度をルートごとに算出し、累積不確定度が最小となるルートを最適ルートとして選択する。画像枚数が多く、ルート選択肢が増えると、ルート毎の累積誤差または累積歪の影響が出てくるためにルート上の画像枚数だけに依らない最適なルートが選択される。 Further, the correction value calculation unit 197 may select the optimum route in consideration of quantization error and lens distortion. Since the quantization error depends on the marker interval and the number of pixels, the correction value calculation unit 197 calculates the quantization error from the marker interval and the pixel density as the uncertainty of the coordinate value of the marker image for each link constituting the route. Turn into. Since the lens distortion depends on the position in the image, the correction value calculation unit 197 sets the lens distortion as a degree of uncertainty of the coordinate value of the marker image from the camera lens aberration measured in advance for each link constituting the route. Turn into. Then, the correction value calculation unit 197 calculates the cumulative uncertainty for each route by summing the uncertainty of each link, and selects the route with the smallest cumulative uncertainty as the optimum route. When the number of images is large and the number of route options increases, the influence of cumulative error or cumulative distortion for each route appears, so that an optimal route that does not depend only on the number of images on the route is selected.
最終的に、補正値算出部197は、設定した最適なルートに沿って、基準画像の座標系に対象となる画像の座標系を合わせるための座標変換行列積(上記式(9)を参照)を画像合成用の合成用補正値として算出する。 Finally, the correction value calculation unit 197 performs a coordinate transformation matrix product for matching the coordinate system of the target image with the coordinate system of the reference image along the optimal route that has been set (see the above equation (9)). Is calculated as a composition correction value for image composition.
また、合成部198においても、マーカルート上の画像の時系列やマーカ配置の関係から、同じ統一座標系内で表されるマーカ像位置において、マーカ像の写っていないオリジナル画像を選択して上書きすることにより、マーカ像を隠蔽する。これにより、合成部198は、マーカ像を隠蔽した画像出力情報を出力する。 Also, the combining unit 198 selects and overwrites the original image without the marker image at the marker image position represented in the same unified coordinate system from the time series of the image on the marker route and the relationship of the marker arrangement. By doing so, the marker image is concealed. Thereby, the composition unit 198 outputs image output information in which the marker image is concealed.
<基準画像ベースの画像処理>
図25A〜図25Dは、実施例2にかかる基準画像ベースの画像処理例を示す説明図である。図25A〜図25D中の画像処理と図11の画像処理装置9との関係を説明する。図25Aは、マーカ座標値抽出部191の処理を示し、図25Bと図25Cは画像合成処理部11の合成用補正値算出部194の処理を示し、図25Dは全域画像表示部195の処理に対応したマーカ画像を示す。
<Reference image-based image processing>
FIG. 25A to FIG. 25D are explanatory diagrams illustrating a reference image-based image processing example according to the second embodiment. The relationship between the image processing in FIGS. 25A to 25D and the image processing apparatus 9 in FIG. 11 will be described. FIG. 25A shows the processing of the marker coordinate value extraction unit 191, FIGS. 25B and 25C show the processing of the correction value calculation unit for synthesis 194 of the image synthesis processing unit 11, and FIG. 25D shows the processing of the whole area image display unit 195. The corresponding marker image is shown.
但し、実際の画像処理では、全画素座標について全部計算する処理ではなく、マーカ座標を基点とした座標変換のための式(1)に準じる補正値を求める処理であり、図25A〜図25Cは、その変換される座標系のイメージを2値化されたマーカ座標系として分かり易く示した図である。 However, in actual image processing, it is not processing for calculating all the pixel coordinates, but processing for obtaining a correction value according to the equation (1) for coordinate conversion using the marker coordinates as a base point. FIGS. FIG. 6 is a diagram showing the image of the coordinate system to be converted as a binarized marker coordinate system in an easy-to-understand manner.
図25Aは、図24に示された撮影画像214の輝度に閾値を設けて2値化処理した画像群の第m行のマーカ画像215(m,1)S〜215(m,n)Rを示す。ここで、ID(符号)表記中の“S”は左、“R”は右を示し、以下、“L”は下、“U”は上、を示す。このm行は具体的には、図22B中のm番目のチルト方向の移動位置で撮影した画像群であり、nはn番目のパン方向の移動位置を示す。 FIG. 25A shows marker images 215 (m, 1) S to 215 (m, n) R in the m-th row of the image group obtained by binarizing the captured image 214 shown in FIG. Show. Here, “S” in ID (symbol) notation indicates left, “R” indicates right, “L” indicates below, and “U” indicates above. Specifically, the m rows are a group of images taken at the moving position in the m-th tilt direction in FIG. 22B, and n indicates the n-th moving position in the pan direction.
マーカ座標値抽出部191は、第m行のマーカ画像215(m,1)S〜215(m,n)R中のマーカ像203−m−1−R〜203−m−(n−1)−Sやマーカ像203T−m−1−L,203T−m−n−Lなどの重心座標値を抽出し、マーカ情報保持部192に保持する。本実施例では2値化によるマーカ像の重心座標を画像合わせ用の基準座標として利用する形態について記載しているが、画像合わせ用のマーカ像の座標は、2値化したマーカ像の重心座標に限定するものでなく、例えば、2値化したマーカ像の分布荷重を加えた中心座標やX座標軸やy座標軸での1/4分位置などマーカ像において画像に依らず共通して一意に決まる座標をマーカ像の座標するものである。また、マーカ像の輝度分布が撮影位置に依らず安定している場合には、単純にマーカ像の輝度ピークの座標を利用してもよい。この場合は、マーカ座標値の抽出処理が軽減されるメリットがある。マーカ像の座標とは、付与マーカに関連する一意に決まる定義により指定される位置の座標を意味するものである。 The marker coordinate value extraction unit 191 includes marker images 203-m-1-R to 203-m- (n-1) in the marker images 215 (m, 1) S to 215 (m, n) R in the m-th row. The barycentric coordinate values such as −S and marker images 203T-m-1-L and 203T-mn-L are extracted and held in the marker information holding unit 192. In the present embodiment, a mode is described in which the barycentric coordinate of the marker image obtained by binarization is used as the reference coordinate for image matching, but the coordinate of the marker image for image matching is the barycentric coordinate of the binarized marker image For example, the marker image is uniquely determined in common regardless of the image, such as the center coordinate to which the distribution load of the binarized marker image is added and the quarter position on the X coordinate axis or the y coordinate axis. Coordinates are used to coordinate the marker image. Further, when the luminance distribution of the marker image is stable regardless of the shooting position, the coordinates of the luminance peak of the marker image may be simply used. In this case, there is an advantage that the marker coordinate value extraction process is reduced. The coordinates of the marker image mean the coordinates of the position specified by the uniquely determined definition related to the assigned marker.
以下、マーカ座標系の変換処理についてアフィン変換表示を用いて説明する。処理の流れは実施例1と同様の流れであり、利用する変換式は実施例1を流用する。図25Bは、m行目の行内統一座標系への変換、すなわち補正値算出を示している。図25Aのm行の中で隣接する画像間を共通する2つのマーカのマーカ像、例えばマーカ画像215(m,1)R,215(m、2)Sでは、マーカ像203−m−1−SU,203−m−1−RUと、マーカ像203−m−1−SL,203−m−1−RLの画素座標値を式(3)に代入することにより、式(3)の[α]の4つの未知数が求まる。 The marker coordinate system conversion process will be described below using affine transformation display. The processing flow is the same as in the first embodiment, and the conversion formula to be used is the same as in the first embodiment. FIG. 25B shows conversion to the in-row unified coordinate system of the m-th row, that is, correction value calculation. In the marker images of two markers that are common between adjacent images in the m rows in FIG. 25A, for example, in the marker images 215 (m, 1) R and 215 (m, 2) S, the marker image 203-m-1- By substituting the pixel coordinate values of SU, 203-m-1-RU and marker images 203-m-1-SL, 203-m-1-RL into equation (3), [α in equation (3) ] Are obtained.
この求まったアフィン変換行列[α]を[α1]とすると、マーカ画像215(m、2)の座標系からマーカ画像215(m,1)の座標系への変換は式(4)で表現される。同様にして、マーカ画像215(m,n−1)Rとマーカ画像215(m,n)Sは、[α(n−1)]を用いて式(5)で表される。任意のマーカ画像の座標は、アフィン変換係数行列を掛け合わせることにより、基準画像、例えば、215(m,1)の画素座標系から行内統一座標への変換として、行列積[α1][α2]・・・[α(n−1)]を用いて式(6)のように表せる。このようにしてm行での行内統一座標系での表示がマーカ画像216(m,1)〜216(m,n)となる。 Assuming that the obtained affine transformation matrix [α] is [α1], the transformation from the coordinate system of the marker image 215 (m, 2) to the coordinate system of the marker image 215 (m, 1) is expressed by Expression (4). The Similarly, the marker image 215 (m, n-1) R and the marker image 215 (m, n) S are expressed by Expression (5) using [α (n-1)]. The coordinates of an arbitrary marker image are multiplied by an affine transformation coefficient matrix to obtain a matrix product [α1] [α2] as a transformation from a reference image, for example, a pixel coordinate system of 215 (m, 1) to in-line unified coordinates. ... [α (n-1)] can be used to express as in equation (6). In this way, the display in the in-line unified coordinate system with m rows becomes the marker images 216 (m, 1) to 216 (m, n).
図25Cは、行内統一座標系間の行列統一座標系(全体統一座標系)への変換、すなわち補正値算出を示す。図25Cは、図25Bで得られたm−1行の画像群の行内統一座標系を、m行の画像群の全体統一座標系で表示し、合成する処理を示す。 FIG. 25C shows conversion to a matrix unified coordinate system (overall unified coordinate system) between in-row unified coordinate systems, that is, correction value calculation. FIG. 25C shows a process of displaying and synthesizing the in-row unified coordinate system of the m−1 row image group obtained in FIG. 25B in the overall unified coordinate system of the m row image group.
合成用補正値算出部194は、m−1行目の行内統一座標系とm行目の行内統一座標系において、共通する移動方向の両端のマーカ3T−(m−1)−1Sのマーカ像203T−(m−1)−1−LS,203T−m−1−USと、マーカ3T−(m−1)−n−LRのマーカ像203T−(m−1)−n−LR,203T−(m−1)−n−URとの座標値を、アフィン変換の式(2)に代入して、両者の変換行列[β(m−1)]を求める。m−1行目の行内統一座標系は(a(m−1)1x,a(m−1)1y)、m行目の行内統一座標系は(am1x,am1y)であるので、アフィン変換の式(2)に代入した式は、下記式(7)で表現される。 The combination correction value calculation unit 194 includes a marker image of the markers 3T- (m−1) −1S at both ends in the common moving direction in the in-row unified coordinate system of the m−1th row and the in-row unified coordinate system of the mth row. 203T- (m-1) -1-LS, 203T-m-1-US and marker image 203T- (m-1) -n-LR, 203T- of marker 3T- (m-1) -n-LR The coordinate value of (m-1) -n-UR is substituted into affine transformation equation (2) to obtain a transformation matrix [β (m-1)] of both. The in-line unified coordinate system of the (m-1) th row is (a (m-1) 1x, a (m-1) 1y), and the in-row unified coordinate system of the mth row is (am1x, am1y). The formula assigned to the formula (2) is expressed by the following formula (7).
1行目の行内統一座標系を用いてm行の行内統一座標系を変換する場合、行間のアフィン変換行列を掛け合わせた[β1][β2]・・・[β(m−1)]を用いて式(8)のように表せる。行列内の任意のマーカ画像216(m,n)は、基準画像、例えば、マーカ画像216(1,1)の行列内統一座標でのマーカ画像217(m,n)として、式(6)と式(8)により、行列積[β1][β2]・・・[β(m−1)][α1][α2]・・・[α(n−1)]を用いて式(9)のように表せる。 When transforming the in-row unified coordinate system of m rows using the in-row unified coordinate system of the first row, [β1] [β2]... [Β (m−1)] multiplied by the affine transformation matrix between the rows is It can be expressed as shown in equation (8). An arbitrary marker image 216 (m, n) in the matrix is expressed as a reference image, for example, a marker image 217 (m, n) at the unified coordinates in the matrix of the marker image 216 (1, 1), From equation (8), the matrix product [β1] [β2]... [Β (m−1)] [α1] [α2]. It can be expressed as follows.
図25Dは、図25Cまでの処理により算出した行列の統一座標系の変換、すなわち補正値を使った全体画像の合成を示す。全域画像表示部195は、全画像の行列統一座標系への変換で示される各画像の座標系のマーカ画像217(m,n)を、オリジナルの撮影画像214(m,n)Sに適用することで、マーカ画像217(m,n)を、マーカ座標を介した一連の合成画像としての座標値に置き換える。 FIG. 25D shows transformation of the unified coordinate system of the matrix calculated by the processing up to FIG. 25C, that is, synthesis of the entire image using the correction value. The entire area image display unit 195 applies the marker image 217 (m, n) of the coordinate system of each image indicated by the conversion of the entire image to the matrix unified coordinate system to the original captured image 214 (m, n) S. Thus, the marker image 217 (m, n) is replaced with coordinate values as a series of synthesized images via the marker coordinates.
撮影画像214(m,n)を重ね合わせて合成するに際しては、合成部198は、情報取得部190から、画像IDに対応した撮影時刻を用いて、撮影時刻が遅いマーカ像が最後尾にある撮影画像214に対して、撮影時刻が早いマーカ像が最後尾にある画像を上書きする。合成部198は、最終的には初期のマーカ像のない画像で上書きするように合成する。このようにすることで、合成部198は、マーカ像が順次隠蔽されたオリジナルの被写体画像を合成することができる。 When superimposing and synthesizing the captured images 214 (m, n), the synthesizing unit 198 uses the imaging time corresponding to the image ID from the information acquisition unit 190 and has a marker image with the latest imaging time at the end. The captured image 214 is overwritten with the image having the marker image with the earliest photographing time at the end. The composition unit 198 finally composes the image so as to overwrite the image without the initial marker image. In this way, the synthesis unit 198 can synthesize the original subject image in which the marker images are sequentially hidden.
この撮影画像の移動方向の後方にマーカ像がある撮影画像群を使って時系列上早い撮影画像214−Rの座標変換画像218−Rで時系列上に遅い撮影画像214−Rの座標変換画像218−Rを上書したり、時系列上早い撮影画像214−Sの座標変換画像218−Sで時系列上遅い撮影画像214−Sの座標変換画像218−S上書きしたり、チルトマーカも時系列上早い画像の座標変換画像で時系列上遅い画像の座標変換画像で上書きすることによるマーカ隠蔽の手順に代わり、撮影画像の移動方向の前方にマーカ像がある撮影画像群を使って時系列上遅い撮影画像214−Rの座標変換画像218−Rで時系列上早い撮影画像214−Rの座標変換画像218−Rを上書したり、時系列上遅い撮影画像214−Sの座標変換画像218−Sで時系列上早い撮影画像214−Sの座標変換画像218−S上書きしたり、チルトマーカも時系列上遅い画像の座標変換画像で時系列上早い画像の座標変換画像で上書きし、最後にマーカ像の写りこみのない画像で上書きするといった前者の逆の手順でも同様に、マーカを隠蔽した合成画像を得ることができる。 Using a group of captured images having a marker image behind the moving direction of the captured image, a coordinate-converted image 218-R of the captured image 214-R that is earlier in time series and a coordinate-converted image of the captured image 214-R that is later in time series. 218-R is overwritten, the coordinate conversion image 218-S of the time-series earlier captured image 214-S is overwritten with the coordinate-converted image 218-S of the later time-series captured image 214-S, and the tilt marker is also time-series. Instead of the marker concealment procedure by overwriting the coordinate conversion image of the upper image with the coordinate conversion image of the upper image in the time series, use the captured image group with the marker image ahead in the moving direction of the captured image. The coordinate conversion image 218-R of the late photographic image 214-R is overwritten with the coordinate conversion image 218-R of the chronologically early photographic image 214-R by the coordinate conversion image 218-R of the slow photographic image 214-R. -S overwrites the coordinate conversion image 218-S of the captured image 214-S that is earlier in time series, and also overwrites the tilt marker with the coordinate conversion image of the image that is earlier in time series and the coordinate conversion image of the earlier image in time series, and finally Similarly, a composite image in which the marker is concealed can be obtained even in the reverse procedure of overwriting the former with an image without a marker image.
図25Dは、上書きの経過と上書きの流れを示しており、また、画像合わせに使い隠蔽されたマーカ像が破線で示される。最終的には、合成部198は、画像218(1,1)O〜218(m,n)Sを行列統一座標系に変換することにより、合成画像を生成する。ここでは、分かり易く、全体画像の表示を対象にした処理を示したが、必要に応じて、表示範囲を限定してよい。 FIG. 25D shows the process of overwriting and the flow of overwriting, and the marker image used for image alignment and concealed is indicated by a broken line. Finally, the synthesis unit 198 generates a synthesized image by converting the images 218 (1,1) O to 218 (m, n) S into the matrix unified coordinate system. Here, processing that is easy to understand and is intended for display of the entire image is shown, but the display range may be limited as necessary.
<近接した画像間での画像処理例>
図26Aおよび図26Bは、実施例2にかかる近接した画像間での画像処理例を示す説明図である。図26Aは、表示範囲に対応して3×3の画像が選択された場合のマーカ画像219(c−1,c−1)〜123(c+1,c+1)を示す。図11の画像処理装置9の機能ブロックにおいて、合成用補正値算出部194は、マーカ情報保持部192から関連する画像IDの隣接する共通するマーカ座標情報126を取得する。また、補正値算出部197は、マーカルート情報生成部193から、マーカルート情報I29を取得し、表示の中心となるマーカ画像219(c,c)を基準として表示範囲の各画像までの最短マーカルートを設定する。
<Example of image processing between adjacent images>
FIG. 26A and FIG. 26B are explanatory diagrams illustrating an example of image processing between adjacent images according to the second embodiment. FIG. 26A shows marker images 219 (c−1, c−1) to 123 (c + 1, c + 1) when a 3 × 3 image is selected corresponding to the display range. In the functional block of the image processing device 9 in FIG. 11, the composition correction value calculation unit 194 acquires the common marker coordinate information 126 adjacent to the related image ID from the marker information holding unit 192. Further, the correction value calculation unit 197 acquires the marker route information I29 from the marker route information generation unit 193, and uses the marker image 219 (c, c) that is the center of display as a reference to the shortest marker up to each image in the display range. Set the route.
順次、合成用補正値算出部194は、そのマーカルートに従い中央画像のマーカ画像219(c,c)の画素座標を基準とする中央画像統一座標系への変換をするため、共通マーカのマーカ像の座標値を式(2)に代入してアフィン変換行列の値を求める。合成用補正値算出部194は、ルート上で行列積の掛け合わせを行い、表示域内の画像の中央画像統一座標系への変換マーカ画像219(c−1,c−1)〜123(c+1,c+1)を算出する。 Sequentially, the composition correction value calculation unit 194 converts the marker image of the common marker into the central image unified coordinate system based on the pixel coordinates of the marker image 219 (c, c) of the central image according to the marker route. The value of the affine transformation matrix is obtained by substituting the coordinate values of The composition correction value calculation unit 194 multiplies the matrix product on the route, and converts the images in the display area into the central image unified coordinate system 219 (c-1, c-1) to 123 (c + 1, c + 1) is calculated.
図26Aでは、チルトマーカセット3Tを含む場合のルートを示しているが、合成画像選択部196での表示域指示I52からの選択画像にチルトマーカセット3Tのマーカ像を含まないケースでは、表示範囲内の画像までの最短マーカルートを導出して、その変換補正値を適用することになる。 FIG. 26A shows a route when the tilt marker set 3T is included, but in the case where the marker image of the tilt marker set 3T is not included in the selected image from the display area instruction I52 in the composite image selection unit 196, the display range is shown. The shortest marker route to the inner image is derived and the conversion correction value is applied.
図26Bでは、合成部198は、図26Aに示した中央画像の座標を基準したマーカルートに沿った式(6)の行列積による中央画像統一座標系への変換値を、オリジナルの撮影画像群214(m,n)に適用することで、式(6)の行列積による中央画像統一座標系への変換値を、マーカ座標値を介した一連の合成画像への座標値に置き換える。 In FIG. 26B, the synthesis unit 198 converts the converted value into the central image unified coordinate system by the matrix product of Expression (6) along the marker route with reference to the coordinates of the central image shown in FIG. By applying to 214 (m, n), the conversion value to the central image unified coordinate system by the matrix product of Expression (6) is replaced with the coordinate values to a series of synthesized images via the marker coordinate values.
合成については、合成部198は、撮影時刻が古いマーカ像が最後尾にある画像を上書きするように画像を重ねて、最終的にはマーカ像のない初期(最古)の画像で上書きするように合成する。このようにすることで、合成部198は、マーカ像が順次隠蔽されたオリジナルの被写体画像220(c−1,c−1)〜220(c+1,c+1)を組み合わせた合成画像220を得る。なお、合成部198は、合成画像220のマーカ像隠蔽での画像上書きに関して、最上位の画像220(c−1,c−1)にマーカ像がある場合には、さらにその前の撮影画像を重ねて隠蔽する。 As for the composition, the composition unit 198 superimposes the images so that the image having the marker image with the oldest shooting time is overwritten, and finally overwrites the image with the initial (oldest) image without the marker image. To synthesize. In this way, the synthesis unit 198 obtains a synthesized image 220 that is a combination of the original subject images 220 (c−1, c−1) to 220 (c + 1, c + 1) in which the marker images are sequentially hidden. In addition, when the uppermost image 220 (c-1, c-1) has a marker image regarding the image overwriting by the marker image concealment of the synthesized image 220, the synthesizing unit 198 further displays the previous captured image. Conceal again.
実施例2の画像処理のフローチャートにおいて、図11の画像処理装置9の機能ブロックの基本処理部10におけるマーカ座標の導出に対応するフローチャートは、実施例1に示した図15、画像合成処理部11の基本的なフローチャートは、実施例1に示した図16と同じである。ここでは、画像合成補正値算出と画像合成の詳細なフローチャートを示す。 In the flowchart of the image processing of the second embodiment, the flowchart corresponding to the derivation of the marker coordinates in the basic processing unit 10 of the functional block of the image processing apparatus 9 of FIG. 11 is the same as that of the first embodiment shown in FIG. The basic flowchart is the same as FIG. 16 shown in the first embodiment. Here, a detailed flowchart of image composition correction value calculation and image composition is shown.
<全体統一座標系の補正値算出処理(ステップS57)>
図27は、実施例2にかかる、図16に示した全体統一座標系の補正値算出処理(ステップS57)の詳細な処理手順例を示すフローチャートである。なお、初期状態では、m=1、n=1とする。
<Correction value calculation process of entire unified coordinate system (step S57)>
FIG. 27 is a flowchart of a detailed process procedure example of the correction value calculation process (step S57) of the overall unified coordinate system illustrated in FIG. 16 according to the second embodiment. In the initial state, m = 1 and n = 1.
合成用補正値算出部194は、m=1番目のチルト位置のマーカ画像群のマーカ座標値を取得する(ステップS175)。具体的には、m=1番目のチルト位置のマーカ画像群は、図25Aに示した、m=1行目のマーカ画像214(1,1)〜214(1,n)である。合成用補正値算出部194は、マーカ画像214(1,1)〜214(1,n)に含まれるマーカ像203P−1−1−R、203T−1−1−L、203P−1−1−S、203P−1−2−R、…、203P−1−(n−1)−S、203T−1−n−Lのマーカ座標値を取得することになる。 The composition correction value calculation unit 194 acquires the marker coordinate value of the marker image group at the m = 1st tilt position (step S175). Specifically, the marker image group at the m = 1st tilt position is the marker image 214 (1,1) to 214 (1, n) in the m = 1st row shown in FIG. 25A. The combination correction value calculation unit 194 includes marker images 203P-1-1-R, 203T-1-1-L, and 203P-1-1 included in the marker images 214 (1,1) to 214 (1, n). The marker coordinate values of -S, 203P-1-2-R,..., 203P-1- (n-1) -S, 203T-1-n-L are acquired.
つぎに、合成用補正値算出部194は、m番目のチルト位置のマーカ画像群のうち、パン移動方向のn番目のマーカ画像のマーカ座標値を取得する(ステップS176)。具体的には、たとえば、m=1でかつn=1の場合、n番目のマーカ画像として、マーカ画像215(1,1)に含まれるマーカ像203P−1−1−R、203T−1−1−Lの座標値が取得される。 Next, the composition correction value calculation unit 194 acquires the marker coordinate value of the nth marker image in the pan movement direction from the marker image group at the mth tilt position (step S176). Specifically, for example, when m = 1 and n = 1, as the n-th marker image, marker images 203P-1-1-1R and 203T-1- included in the marker image 215 (1,1) are used. A 1-L coordinate value is acquired.
そして、合成用補正値算出部194は、nをインクリメントし、パン移動方向の隣接画像間の共通のマーカ像の座標値を用いて、合成用補正値[α(n−1)]を算出する(ステップS177)。たとえば、m=1でかつn=1のときは、マーカ画像214(1,1)Rと、インクリメント後(n=2)のマーカ画像214(1,2)Sとが隣接画像となる。この隣接画像間で共通のマーカ像203は、マーカ画像214(1,1)Rのマーカ像203P−1−1−RUとマーカ画像214(1,2)Sのマーカ像203P−1−1−SUであり、マーカ画像214(1,1)Rのマーカ像203P−1−1−RLとマーカ画像214(1,2)Sのマーカ像203P−1−1−SLである。 Then, the composition correction value calculation unit 194 increments n and calculates the composition correction value [α (n−1)] using the coordinate value of the common marker image between adjacent images in the pan movement direction. (Step S177). For example, when m = 1 and n = 1, the marker image 214 (1,1) R and the incremented (n = 2) marker image 214 (1,2) S are adjacent images. The marker image 203 common to the adjacent images is the marker image 203P-1-1-RU of the marker image 214 (1,1) R and the marker image 203P-1-1-1 of the marker image 214 (1,2) S. A marker image 203P-1-1-RL of the marker image 214 (1,1) R and a marker image 203P-1-1-1SL of the marker image 214 (1,2) S.
したがって、合成用補正値算出部194は、マーカ画像214(1,1)Rのマーカ像203P−1−1−RUの座標値を式(5)の左辺に代入し、マーカ画像214(1,2)Sのマーカ像203P−1−1−SUの座標値を式(5)の右辺に代入して、[α(n−1)]=[α1]を計算する。同様に、合成用補正値算出部194は、マーカ画像214(1,1)Rのマーカ像203P−1−1−RLの座標値を式(5)の左辺に代入し、マーカ画像214(1,2)Sのマーカ像203P−1−1−SLの座標値を式(5)の右辺に代入して、[α(n−1)]=[α1]を計算する。合成用補正値算出部194は、両計算結果から最終的に要素が確定した変換行列である合成用補正値[α1]を出力する。 Therefore, the composition correction value calculation unit 194 substitutes the coordinate value of the marker image 203P-1-1-RU of the marker image 214 (1,1) R into the left side of the equation (5), and the marker image 214 (1,1, 2) Substituting the coordinate value of the S marker image 203P-1-1-SU into the right side of equation (5), [α (n-1)] = [α1] is calculated. Similarly, the composition correction value calculation unit 194 substitutes the coordinate value of the marker image 203P-1-1-RL of the marker image 214 (1,1) R for the left side of the equation (5), and the marker image 214 (1 , 2) Substituting the coordinate value of the marker image 203P-1-1-SL of S into the right side of equation (5), [α (n−1)] = [α1] is calculated. The composition correction value calculation unit 194 outputs a composition correction value [α1], which is a transformation matrix in which elements are finally determined from both calculation results.
そして、合成用補正値算出部194は、n番目のマーカ画像214(m,n)が存在するか否かを判断する(ステップS178)。n番目のマーカ画像214(m,n)が存在する場合(ステップS178:Yes)、合成用補正値算出部194は、ステップS177を再実行する。 Then, the composition correction value calculation unit 194 determines whether or not the n-th marker image 214 (m, n) exists (step S178). When the n-th marker image 214 (m, n) exists (step S178: Yes), the composition correction value calculation unit 194 re-executes step S177.
一方、n番目のマーカ画像214(m,n)が存在しない場合(ステップS178:No)、合成用補正値算出部194は、補正値行列積[α1][α2]・・・[α(n−1)](=[α])を算出する。補正値行列積[α]は、図25Aから図25Bへのアフィン変換行列である。 On the other hand, when the n-th marker image 214 (m, n) does not exist (step S178: No), the composition correction value calculation unit 194 calculates the correction value matrix product [α1] [α2]. −1)] (= [α]). The correction value matrix product [α] is an affine transformation matrix from FIG. 25A to FIG. 25B.
このあと、合成用補正値算出部194は、mをインクリメントし(ステップS180)、m番目のチルト位置のマーカ画像群が存在するか否かを判断する(ステップS181)。m番目のチルト位置のマーカ画像群が存在する場合(ステップS181:Yes)。合成用補正値算出部194は、ステップS175を再実行する。一方、m番目のカメラが存在しない場合(ステップS181:No)、ステップS182に移行する。これにより、図25Bまでの処理が完了し、パン移動方向に連結されたm個の行内統一画像216−1,216−2、…、216−mが生成される。 Thereafter, the composition correction value calculation unit 194 increments m (step S180), and determines whether or not there is a marker image group at the m-th tilt position (step S181). A marker image group at the m-th tilt position exists (step S181: Yes). The composition correction value calculation unit 194 re-executes step S175. On the other hand, when the m-th camera does not exist (step S181: No), the process proceeds to step S182. Thereby, the processing up to FIG. 25B is completed, and m in-row unified images 216-1, 216-2,..., 216-m connected in the pan movement direction are generated.
つぎに、合成用補正値算出部194は、特定のチルト位置m(たとえば、m=1)の座標系を基準座標系として設定し(ステップS182)、mをm=1にリセットする。 Next, the composition correction value calculation unit 194 sets a coordinate system of a specific tilt position m (for example, m = 1) as a reference coordinate system (step S182), and resets m to m = 1.
そして、合成用補正値算出部194は、mをインクリメントし、図25Cの隣接する行内統一画像間で共通のマーカ像203の座標値を用いて、合成用補正値[β(m−1)]を算出する(ステップS183)。たとえば、行内統一画像216−(m−1)と、インクリメント後の行内統一画像216−mとが隣接する行内統一画像となる。この隣接する行内統一画像間で共通のマーカ像203は、行内統一画像216−(m−1)のマーカ像203T−(m−1)−1−LS,203T−(m−1)−n−LRと、行内統一画像216−mのマーカ像203T−(m−1)−1−US,203T−(m−1)−n−URである。 Then, the composition correction value calculation unit 194 increments m, and uses the coordinate value of the marker image 203 that is common between adjacent in-line unified images in FIG. 25C, and the composition correction value [β (m−1)]. Is calculated (step S183). For example, the in-row unified image 216- (m-1) and the in-row unified image 216-m are adjacent in-row unified images. The marker images 203 common to the adjacent in-row unified images are the marker images 203T- (m-1) -1-LS, 203T- (m-1) -n- of the in-row unified images 216- (m-1). LR and marker images 203T- (m-1) -1-US, 203T- (m-1) -n-UR of the in-row unified image 216-m.
したがって、合成用補正値算出部194は、行内統一画像216−(m−1)のマーカ像203T−(m−1)−1−LSの座標値を式(7)の左辺に代入し、行内統一画像216−mのマーカ像203T−(m−1)−1−USの座標値を式(7)の右辺に代入して、[β(n−1)]を計算する。同様に、合成用補正値算出部194は、行内統一画像216−(m−1)のマーカ像203T−(m−1)−n−LRの座標値を式(7)の左辺に代入し、行内統一画像216−mのマーカ像203T−(m−1)−n−URの座標値を式(7)の右辺に代入して、[β(n−1)]を計算する。合成用補正値算出部194は、両計算結果から最終的に要素が確定した変換行列である合成用補正値[β(n−1)]を出力する。 Therefore, the compositing correction value calculation unit 194 substitutes the coordinate value of the marker image 203T- (m−1) -1-LS of the in-line unified image 216- (m−1) for the left side of the equation (7). [Β (n-1)] is calculated by substituting the coordinate value of the marker image 203T- (m-1) -1-US of the unified image 216-m into the right side of Expression (7). Similarly, the composition correction value calculation unit 194 substitutes the coordinate value of the marker image 203T- (m-1) -n-LR of the in-row unified image 216- (m-1) for the left side of the equation (7), [Β (n-1)] is calculated by substituting the coordinate value of the marker image 203T- (m-1) -n-UR of the in-row unified image 216-m into the right side of Expression (7). The composition correction value calculation unit 194 outputs a composition correction value [β (n−1)], which is a transformation matrix whose elements are finally determined from both calculation results.
このあと、合成用補正値[β(n−1)]を算出できたか否かを判断し(ステップS184)、算出できた場合(ステップS184:Yes)、合成用補正値算出部194は、ステップS183を再実行する。一方、合成用補正値[β(n−1)]を算出できなかった場合(ステップS184:No)、これ以上、行内統一画像216−mは存在しないため、合成用補正値算出部194は、補正値行列積[β1][β2]・・・[β(m−1)](=[β])を算出する(ステップS185)。補正値行列積[β]は、図25Cでのアフィン変換行列である。 Thereafter, it is determined whether or not the composition correction value [β (n−1)] can be calculated (step S184). If the composition correction value [β (n−1)] can be calculated (step S184: Yes), the composition correction value calculation unit 194 performs step S183 is re-executed. On the other hand, when the composition correction value [β (n-1)] cannot be calculated (step S184: No), since there is no more in-line unified image 216-m, the composition correction value calculation unit 194 The correction value matrix product [β1] [β2]... [Β (m−1)] (= [β]) is calculated (step S185). The correction value matrix product [β] is the affine transformation matrix in FIG. 25C.
そして、合成用補正値算出部194は、ステップS179で算出した補正値行列積[α]とステップS185で算出した補正値行列積[β]とを組み合わせた全画像の基準画像、例えばマーカ画像215(1,1)の画素座標を座標系とする行列統一座標系への変換補正値[β][α]を算出する(ステップS186)。これにより、基準画像統一座標補正値算出処理(ステップS68)が終了し、ステップS71に移行する。 Then, the composition correction value calculation unit 194 combines the correction value matrix product [α] calculated in step S179 and the correction value matrix product [β] calculated in step S185, for example, a reference image of all images, for example, the marker image 215. A conversion correction value [β] [α] to a matrix unified coordinate system using the pixel coordinates of (1, 1) as a coordinate system is calculated (step S186). Thereby, the reference image unified coordinate correction value calculation process (step S68) is completed, and the process proceeds to step S71.
なお、実施例2における近接した画像間での画像処理に対応するフローチャートに関しては、図26Aと図26Bに示した処理となり、実施例1の図17Cに準じるため、説明を省略する。 Note that the flowchart corresponding to the image processing between adjacent images in the second embodiment is the processing shown in FIGS. 26A and 26B, and is the same as FIG.
実施例2では、カメラ2をパン方向に逐次移動して折り返し時にチルト方向に移動する形態を示したが、チルト方向に逐次移動して折り返しにパン方向に移動する形態でもよく、この場合はパンとチルトの構成が入れ替わる。また、折り返しは、元の位置に戻した繰り返しでもよい。さらに、画像合成処理において、行内統一座標系を最初に求めて、その隣接行内統一座標系の合成用補正値を求めて行列統一座標系を構成したが、列統一座標系を最初に求めて、その隣接列統一座標系の合成用補正値を求めて行列統一座標系を構成してもよい。 In the second embodiment, the camera 2 is sequentially moved in the pan direction and moved in the tilt direction at the time of folding. However, the camera 2 may be sequentially moved in the tilt direction and moved in the pan direction to be turned back. And tilt configuration are switched. Further, the return may be repeated by returning to the original position. Furthermore, in the image composition process, the in-row unified coordinate system is first obtained, and the matrix unified coordinate system is configured by obtaining the correction value for composition of the adjacent in-row unified coordinate system, but the column unified coordinate system is first obtained, The matrix unified coordinate system may be configured by obtaining the composition correction value of the adjacent column unified coordinate system.
<実施例2の効果>
以上説明した実施例2では、次の(I)、(J)のような効果がある。
<Effect of Example 2>
The second embodiment described above has the following effects (I) and (J).
(I)遠隔地からでも容易にマーカを使った画像合成が可能となり、マーカ隠蔽方法を組みあわせることでマーカを隠蔽した画像合成をすることができる。 (I) Image composition using a marker can be easily performed even from a remote place, and image composition in which a marker is concealed can be performed by combining marker concealment methods.
(J)カメラとマーカを交互に一方向に回転して(例:パン方向)、連続的にマーカが撮影領域の最前部または、最後尾に含まれる画像の撮影を繰り返し、その一連の撮影動作をその垂直方向(例:チルト方向)に順次移動して繰り返す撮影において、垂直方向の画像合わせのために適切に離れた2点にマーカが付与される。したがって、垂直方向で撮影領域の最前部または最後尾に含まれる画像を撮影することで、垂直方向もあわせた面状の複数画像合成の高精度化を図ることができる。 (J) The camera and the marker are alternately rotated in one direction (eg, pan direction), and the image of the marker is continuously photographed at the forefront or tail of the photographing area, and a series of photographing operations. Are repeatedly moved in the vertical direction (example: tilt direction), and a marker is given to two points that are appropriately separated for vertical image alignment. Therefore, by capturing an image included in the forefront or rearmost part of the imaging region in the vertical direction, it is possible to improve the accuracy of combining a plurality of planar images in the vertical direction.
実施例3について説明する。実施例1では被写体に対して平行に配置した1台または一列に並べた複数のカメラ2を被写体に平行に移動して撮影し、複数の撮影画像を合成する処理に際して、カメラ2とマーカ付与部130を交互に移動させて撮影するマルチ画像撮影システム1を示した。 Example 3 will be described. In the first embodiment, the camera 2 and the marker adding unit are used in the process of shooting by moving a plurality of cameras 2 arranged in parallel to the subject or arranged in a row to the subject and combining the plurality of captured images. A multi-image shooting system 1 for shooting by moving 130 alternately is shown.
実施例3では、縦横の面状に並べた複数のカメラ2と各カメラ2の撮影画像の画像合わせ用に縦横に面状に並べたマーカ付与部からなる面状の撮影装置が用いられる。実施例3のマルチ画像撮影システム1は、面状の撮影装置を移動して撮影し、撮影画像を合成する処理に際して、面状に並べた複数のカメラ2と移動方向の画像合成用のマーカ付与部を交互に移動させて撮影する。実施例3は、実施例1に比べて一度に広い撮影領域を撮影できるので撮影時間の短縮化を図ることができる。 In the third embodiment, a planar imaging device including a plurality of cameras 2 arranged in a vertical and horizontal plane and a marker providing unit arranged in a vertical and horizontal plane for image alignment of captured images of each camera 2 is used. The multi-image shooting system 1 according to the third embodiment is configured to move and capture a planar image capturing apparatus and combine a captured image with a plurality of cameras 2 arranged in a planar shape and a marker for image composition in the moving direction. Move the parts alternately to shoot. Since the third embodiment can shoot a wider shooting area at a time than the first embodiment, the shooting time can be shortened.
<マルチ画像撮影システム1の外観>
図28A〜図28Dは、実施例3にかかるマルチ画像撮影システム1の外観例を示す説明図である。図28Aは、面状カメラ部/面状マーカ付与部の移動前の平面図、図28Bは、面状カメラ部/面状マーカ付与部の移動後の平面図、図28Cは、図28Aの状態の側面図、図28Dは、図28Aの状態の正面図である。基本的な構成は実施例1の図1と同じなので、異なる点を中心に説明する。
<Appearance of multi-image shooting system 1>
28A to 28D are explanatory diagrams illustrating an appearance example of the multi-image capturing system 1 according to the third embodiment. FIG. 28A is a plan view before movement of the planar camera unit / planar marker applying unit, FIG. 28B is a plan view after movement of the planar camera unit / planar marker providing unit, and FIG. 28C is a state of FIG. 28A. FIG. 28D is a front view of the state of FIG. 28A. Since the basic configuration is the same as that of FIG. 1 of the first embodiment, different points will be mainly described.
移動処理部132上において、実施例1では、移動方向に直交する方向に配列された複数(図1では3台)のカメラ2によりカメラ部102を構成した。実施例3では、面状カメラ部302と面状マーカ付与部333とにより、カメラ部102を構成する。 On the movement processing unit 132, in the first embodiment, the camera unit 102 is configured by a plurality (three in FIG. 1) of cameras 2 arranged in a direction orthogonal to the moving direction. In the third embodiment, the camera unit 102 is configured by the planar camera unit 302 and the planar marker providing unit 333.
面状カメラ部302は、面状に配置された複数のカメラ2−m−qである。mは移動方向に直交する方向に配列されたカメラ2の配列位置を示す番号であり、qは移動方向に配列されたカメラ2の配列位置を示す番号である。図28Aでは、m=2、q=3、すなわち、2×3の面状構成となる。なお、実施例1は、q=1の場合と同じ構成となる。 The planar camera unit 302 is a plurality of cameras 2-mq arranged in a planar shape. m is a number indicating the arrangement position of the cameras 2 arranged in the direction orthogonal to the movement direction, and q is a number indicating the arrangement position of the cameras 2 arranged in the movement direction. In FIG. 28A, m = 2, q = 3, that is, a 2 × 3 planar configuration. In addition, Example 1 becomes the same structure as the case where q = 1.
個々のカメラ2−m−qが被写体を撮影する撮影領域を、個別撮影領域113−m−qと称す。隣接しあうカメラ2−m−qの個別撮影領域113−m−qが重複するように、面状カメラ部302においてカメラ2−m−qは配置される。 A shooting area where each camera 2-mq captures a subject is referred to as an individual shooting area 113-m-q. The cameras 2-mq are arranged in the planar camera unit 302 so that the individual photographing regions 113-mq of the adjacent cameras 2-mq overlap.
また、カメラ部102の撮影領域を面状平行撮影領域313−nと称す。nは、実施例1と同様、移動の時系列を示す番号である。(a)は初期位置を示すため、n=1であり、(b)は、(a)から移動した状態を示すため、n=2である。面状平行撮影領域313−nは、個々のカメラ2−m−qの個別撮影領域113−m−qを組み合わせた撮影領域である。 The imaging area of the camera unit 102 is referred to as a planar parallel imaging area 313-n. As in the first embodiment, n is a number indicating a time series of movement. Since (a) shows the initial position, n = 1, and (b) shows the state moved from (a), so n = 2. The planar parallel imaging region 313-n is an imaging region in which the individual imaging regions 113-mq of the individual cameras 2-mq are combined.
面状マーカ付与部333は、複数のマーカレーザ131を有する。面状マーカ付与部333のマーカ31を一括で点灯した場合と消灯した場合にわけて、面状カメラ部302は面状平行撮影領域313−nを撮影する。複数のマーカレーザ131は、隣接しあうカメラ2−m−qの個別撮影領域113−m−qが重複する共通領域にマーカ31を付与する位置に配置される。 The planar marker providing unit 333 includes a plurality of marker lasers 131. The planar camera unit 302 captures the planar parallel imaging region 313-n depending on whether the markers 31 of the planar marker providing unit 333 are turned on or off collectively. The plurality of marker lasers 131 are arranged at positions where the markers 31 are added to a common area where the individual imaging areas 113-mq of the adjacent cameras 2-mq overlap.
たとえば、マーカレーザ131−1−2は、個別撮影領域113−1−1,113−1−2が重複する共通領域にマーカ31を付与する。マーカレーザ131−2−1は、個別撮影領域113−1−1,113−2−1が重複する共通領域にマーカ31を付与する。マーカレーザ131−2−2は、個別撮影領域113−1−1,113−1−2,113−2−1,113−2−2が重複する共通領域にマーカ31を付与する。マーカレーザ131−2−3は、個別撮影領域113−1−2,113−2−2が重複する共通領域にマーカ31を付与する。 For example, the marker laser 131-1-2 gives the marker 31 to a common area where the individual imaging areas 113-1-1 and 113-1-2 overlap. The marker laser 131-2-1 gives the marker 31 to a common area where the individual imaging areas 113-1-1 and 113-2-1 overlap. The marker laser 131-2-2 gives the marker 31 to a common area where the individual imaging areas 113-1-1, 113-1-2, 113-2-1 and 113-2-2 overlap. The marker laser 131-2-3 gives the marker 31 to a common area where the individual imaging areas 113-1-2 and 113-2-2 overlap.
マーカレーザ131−3−1は、個別撮影領域113−2−1,113−3−1が重複する共通領域にマーカ31を付与する。マーカレーザ131−3−2は、個別撮影領域113−2−1,113−2−2,113−3−1,113−3−2が重複する共通領域にマーカ31を付与する。マーカレーザ131−3−3は、個別撮影領域113−2−2,113−3−2が重複する共通領域にマーカ31を付与する。マーカレーザ131−4−1は、個別撮影領域113−3−1,113−3−2が重複する共通領域にマーカ31を付与する。 The marker laser 131-3-1 gives the marker 31 to a common area where the individual imaging areas 113-2-1 and 113-3-1 overlap. The marker laser 131-3-2 gives the marker 31 to a common area where the individual imaging areas 113-2-1, 113-2-2, 113-3-1, and 113-3-2 overlap. The marker laser 131-3-3 gives the marker 31 to the common area where the individual imaging areas 113-2-2 and 113-3-2 overlap. The marker laser 131-4-1 gives the marker 31 to a common area where the individual imaging areas 113-3-1 and 113-3-2 overlap.
このように、共通領域にのみマーカ31を付与するようにマーカレーザ131を配置することにより、マーカレーザ131の台数削減を図ることができる。 Thus, by arranging the marker laser 131 so that the marker 31 is provided only in the common region, the number of marker lasers 131 can be reduced.
移動処理部133は、2つの移動用マーカレーザ331−R,331−Sを搭載する。移動処理部133は、面状カメラ部302が撮影する面状平行撮影領域313−nにおいて、移動方向の最前部に移動用マーカ33−S,33−Rを付与する。最初に(a)に示すように、移動用マーカレーザ331−S,331−Sは、面状平行撮影領域313−1の移動方向の最前部に位置しており、当該位置から移動用マーカ33−S,33−Rをほぼ真下に付与する。 The movement processing unit 133 includes two movement marker lasers 331-R and 331-S. The movement processing unit 133 assigns movement markers 33-S and 33-R to the forefront part in the movement direction in the planar parallel imaging region 313-n photographed by the planar camera unit 302. First, as shown in (a), the movement marker lasers 331-S, 331-S are located at the forefront in the movement direction of the planar parallel imaging region 313-1 and the movement marker 33- S, 33-R is given almost directly below.
その後、図28Bに示すように、移動処理部132によるカメラ部102の移動方向への移動により、面状平行撮影領域313−nが面状平行撮影領域313−1から面状平行撮影領域313−2に移動する。これにより、移動用マーカ33−S,33−Rは、面状平行撮影領域313−2の最後尾に配置される。カメラ部102の移動の移動停止状態で、面状カメラ部302は、面状マーカ付与部333のマーカ31を一括で点灯した場合の面状平行撮影領域313−2と、一括消灯した場合の面状平行撮影領域313−2と、を撮影する。 Thereafter, as illustrated in FIG. 28B, the planar parallel imaging region 313-n is changed from the planar parallel imaging region 313-1 to the planar parallel imaging region 313-by the movement processing unit 132 moving in the moving direction of the camera unit 102. Move to 2. Accordingly, the movement markers 33-S and 33-R are arranged at the tail end of the planar parallel imaging region 313-2. In the movement stop state of the movement of the camera unit 102, the planar camera unit 302 has a planar parallel imaging region 313-2 when the markers 31 of the planar marker imparting unit 333 are turned on collectively, and a surface when the collective light is turned off. The parallel imaging region 313-2 is imaged.
また、カメラ部誘導部134は3台となる。図28Aでは、カメラ部誘導部134−1〜134−3が構成される。カメラ部誘導部134−1〜134−3は、移動処理部132と組み合わさって面状カメラ部302/面状マーカ付与部333の両脇を支え、移動や停止を行う。移動処理部133は誘導部135とにより移動用マーカレーザ331S,331−Rを保持するアームを両脇から支えて、移動や停止を行う。移動処理部132と移動処理部133が交互に移動・停止しながら、面状カメラ部302が面状平行撮影領域313−1や313−2を撮影する。 Moreover, the camera part guidance | induction part 134 will be three units. In FIG. 28A, camera part guidance | induction parts 134-1 to 134-3 are comprised. The camera unit guiding units 134-1 to 134-3 are combined with the movement processing unit 132 to support both sides of the planar camera unit 302 / planar marker applying unit 333, and move and stop. The movement processing unit 133 supports the arms holding the movement marker lasers 331S and 331-R from both sides by the guide unit 135, and moves and stops. While the movement processing unit 132 and the movement processing unit 133 move and stop alternately, the planar camera unit 302 captures the planar parallel imaging regions 313-1 and 313-2.
なお、面状配置のマーカレーザ131と移動用マーカレーザ331−R,331−Sは、同じ色のレーザであってもよいが、例えば、面状配置のマーカレーザ131には赤色レーザを使い、移動用マーカレーザ331には緑色レーザを用いるなど異なる色を用いることも可能である。後者の異なる色を用いる場合は、画像処理において、赤色フィルタや緑色フィルタを使うことで同じ画像内の面状配置のマーカと移動用マーカを識別することが簡単にできるメリットがある。なお、波長フィルタについては、撮影カメラの光学系に設けてもよいし、撮影画像の赤、緑、青の色要素分離を用いてもよい。以下、本実施例では、マーカレーザの色使いにこだわらない手法について示す。 The planar laser beam 131 and the moving marker lasers 331-R and 331-S may be the same color laser. For example, a red laser is used for the planar laser beam 131, and the moving marker laser is used. It is possible to use a different color for 331 such as using a green laser. When the latter different color is used, there is a merit that it is possible to easily distinguish between a planar arrangement marker and a movement marker in the same image by using a red filter or a green filter in image processing. Note that the wavelength filter may be provided in the optical system of the photographing camera, or red, green, and blue color element separation of the photographed image may be used. Hereinafter, in this embodiment, a technique that does not stick to the color usage of the marker laser will be described.
実施例3のマルチ画像撮影システム1の機能ブロックは実施例1の図4に示した内容に準じる。また、撮影装置5の機能ブロックは基本的には実施例1の図5に示した構成にほぼ準じる。相違点の一つは、図5のマーカ付与部130が、実施例3では、図28Aの移動用マーカレーザ331に置き換えられる。もう一つの相違点は、カメラ装置8であり、図29に示す。 The functional blocks of the multi-image shooting system 1 according to the third embodiment conform to the contents shown in FIG. In addition, the functional blocks of the photographing apparatus 5 basically conform to the configuration shown in FIG. One difference is that the marker applying unit 130 in FIG. 5 is replaced with the moving marker laser 331 in FIG. 28A in the third embodiment. Another difference is the camera device 8 as shown in FIG.
<カメラ装置8の機能ブロック>
図29は、実施例3にかかるカメラ装置8の機能ブロック図である。実施例3では、図5のカメラ部102のカメラ2が面状カメラ部302と面状マーカ付与部333に置き換わる。面状マーカ付与部333は、面状に配置されたマーカレーザ131の点灯・消灯情報を含む撮影制御信号I1を受信することで、撮影に連動して、マーカレーザ131が点灯または消灯する。
<Functional Block of Camera Device 8>
FIG. 29 is a functional block diagram of the camera device 8 according to the third embodiment. In the third embodiment, the camera 2 of the camera unit 102 in FIG. 5 is replaced with a planar camera unit 302 and a planar marker providing unit 333. The planar marker imparting unit 333 receives the imaging control signal I1 including information on turning on / off the marker laser 131 arranged in a planar shape, so that the marker laser 131 is turned on or off in conjunction with imaging.
また、タイミング制御部182が出力する撮影関連情報I11には、撮影時刻、撮影番号、面状カメラ部102移動または停止、移動用マーカレーザ331の移動または停止、カメラ部102の移動と移動用マーカレーザ331の移動の前後関係、面状マーカ付与部333の点灯または消灯、移動用マーカレーザ331の点灯または消灯、カメラ2の配置番号と画像との関係、面状マーカ付与部333の配置番号と画像との関係、縦横のマーカレーザの物理的な間隔寸法、レーザ距離計測部157の測定値、移動用マーカレーザ331の間隔距離などの諸情報が含まれる。 The shooting related information I11 output by the timing control unit 182 includes shooting time, shooting number, movement or stop of the planar camera unit 102, movement or stop of the moving marker laser 331, movement of the camera unit 102 and moving marker laser 331. Of the movement of the sheet marker, the lighting or extinguishing of the planar marker providing unit 333, the lighting or extinguishing of the moving marker laser 331, the relationship between the arrangement number of the camera 2 and the image, the arrangement number of the planar marker providing unit 333 and the image Various information such as the relationship, the physical distance between the vertical and horizontal marker lasers, the measured value of the laser distance measuring unit 157, and the distance of the marker laser 331 for movement are included.
<撮影領域とマーカ付与位置の関係>
図30は、実施例3にかかる撮影領域とマーカ付与位置の関係を示す説明図である。基本的には実施例1の図8と同じであるが、撮影領域113が面状平行撮影領域313である点が異なる。図30中、(1)は、移動の時系列のn番目の面状平行撮影領域331−nの最後尾に移動用マーカ33−S−n,33−R−nが付与された状態を示す。移動用マーカ33−S−n,33−R−nは、移動用マーカレーザ331−S,331−Rが付与するマーカである。
<Relationship between shooting area and marker position>
FIG. 30 is an explanatory diagram illustrating the relationship between the imaging region and the marker application position according to the third embodiment. Basically, it is the same as FIG. 8 of the first embodiment, except that the imaging area 113 is a planar parallel imaging area 313. In FIG. 30, (1) shows a state in which movement markers 33-Sn and 33-Rn are added to the tail of the n-th planar parallel imaging region 331-n in time series of movement. . The movement markers 33-Sn and 33-Rn are markers provided by the movement marker lasers 331-S and 331-R.
(2)は、移動用マーカ33−S−n,33−R−nが間隔L1分移動して、移動用マーカ33−S−(n+1)と33−R−(n+1)として面状平行撮影領域313−nの最前部に付与された状態を示す。 In (2), the movement markers 33-Sn and 33-Rn are moved by an interval L1, and the plane parallel photographing is performed as the movement markers 33-S- (n + 1) and 33-R- (n + 1). The state given to the forefront part of field 313-n is shown.
(3)は、面状平行撮影領域313−nが間隔L1分移動して、移動用マーカ33−S−(n+1),33−R−(n+1)が移動後の面状平行撮影領域313−(n+1)の最後尾に配置された状態を示す。 In (3), the planar parallel imaging region 313-n is moved by the interval L1, and the planar markers 33-S- (n + 1) and 33-R- (n + 1) for movement are moved after the planar parallel imaging region 313-n is moved. The state arranged at the end of (n + 1) is shown.
(4)は、(3)の状態において、(1)から(2)の動作と同じ動作を実行して、面状平行撮影領域313−(n+1)を撮影する状態を示す。また、マーカ3の間隔L1は、図7のカメラ2の1一台分の撮影領域113の幅Xを面状平行撮影領域313の幅に置き換え、式(1)のL0をL1に置き換えた式により表現される。 (4) shows a state in which, in the state of (3), the same operations as the operations of (1) to (2) are executed to photograph the planar parallel photographing region 313- (n + 1). Further, the interval L1 between the markers 3 is an equation in which the width X of the imaging region 113 for one camera 2 in FIG. 7 is replaced with the width of the planar parallel imaging region 313, and L0 in equation (1) is replaced with L1. It is expressed by
<撮影装置5のタイミングチャート>
図31は、実施例3にかかる撮影装置5のタイミングチャートである。図31中、(1)は、カメラ部102(面状カメラ部302および面状マーカ付与部333)の移動または停止を示す。(2)は、移動処理部133の移動や停止制御による移動用マーカレーザ331−S、331−Rの移動または停止を示す。(3)は、マーカ31の点灯または消灯を示す。(4)は、移動用マーカ33の点灯または消灯を示す。(5)は、静止画像の撮影タイミングを示す。(6)は、画像・撮影関連情報(画像情報I10および撮影関連情報I11)の送信タイミングを示す。(7)は、面状撮影画像314の画像IDを示す。画像IDは、(1)面状カメラ部302の移動を行う移動処理部132と(2)移動用マーカレーザ331−S、331−Rの移動を行う移動処理部133との移動や停止状態に基づき、一意に決められる。
<Timing chart of photographing apparatus 5>
FIG. 31 is a timing chart of the photographing apparatus 5 according to the third embodiment. In FIG. 31, (1) indicates the movement or stop of the camera unit 102 (the planar camera unit 302 and the planar marker providing unit 333). (2) indicates the movement or stop of the movement marker lasers 331-S, 331-R by movement or stop control of the movement processing unit 133. (3) indicates whether the marker 31 is turned on or off. (4) indicates whether the moving marker 33 is turned on or off. (5) shows the shooting timing of a still image. (6) shows the transmission timing of the image / shooting related information (image information I10 and shooting related information I11). (7) indicates the image ID of the planar photographed image 314. The image ID is based on the movement or stop state of (1) the movement processing unit 132 that moves the planar camera unit 302 and (2) the movement processing unit 133 that moves the movement marker lasers 331-S and 331-R. , Uniquely determined.
撮影装置5は、初期位置で、面状のマーカ31および移動用マーカ33を点灯して初期位置や動作を確認した後、マーカ31および移動用マーカ33を消灯した状態で面状撮影画像314を撮影する。このとき撮影された面状撮影画像314が、マーカ像が含まれない面状撮影画像314−1−Oである。 The imaging device 5 turns on the planar marker 31 and the moving marker 33 at the initial position to check the initial position and operation, and then displays the planar captured image 314 with the marker 31 and the moving marker 33 turned off. Take a picture. The planar photographed image 314 photographed at this time is a planar photographed image 314-1-O that does not include a marker image.
撮影装置5は、静止画像を撮影する都度、(6)に示したように、画像情報I10および撮影関連情報I11を発信する。次に、撮影装置5は、面状のマーカ31および移動用マーカ33を点灯して面状撮影画像314−1−Fを取得する。次に、撮影装置5は、面状カメラ部302を所定間隔L1移動して停止し、面状のマーカ31を消灯して撮影して面状撮影画像314−2−Bを取得する。 The photographing device 5 transmits image information I10 and photographing related information I11 as shown in (6) every time a still image is photographed. Next, the imaging device 5 turns on the planar marker 31 and the moving marker 33 to obtain a planar captured image 314-1-F. Next, the imaging device 5 moves the planar camera unit 302 by a predetermined interval L1 and stops it, turns off the planar marker 31 and shoots to obtain a planar captured image 314-2-B.
次に、撮影装置5は、移動用マーカ33を点灯したまま、移動処理部133を所定間隔L1移動して停止し、停止位置で撮影することにより、面状撮影画像314−2−Fを取得する。以降、順次、面状カメラ部302の所定間隔L1の移動および停止、面状のマーカ31の消灯、撮影、移動用マーカ33の所定間隔L1の移動および停止、面状のマーカ31の点灯、撮影を繰り返すことにより、面状撮影画像314−2−F以降の画像を得る。 Next, the photographing device 5 obtains the planar photographed image 314-2F by moving the movement processing unit 133 while moving the predetermined distance L1 while stopping the movement marker 33 and stopping and photographing at the stop position. To do. Thereafter, the planar camera unit 302 is sequentially moved and stopped at a predetermined interval L1, the planar marker 31 is turned off, photographing, the moving marker 33 is moved and stopped at a predetermined interval L1, and the planar marker 31 is turned on and photographed. By repeating the above, images after the planar photographed image 314-2-F are obtained.
実施例3における、画像処理を実施する機能ブロックは、実施例1の図11に示した画像処理装置9の機能ブロックにほぼ準じるが、実施例1と異なる点について以下に説明する。具体的には、情報取得部190は、図31のタイミンチャートに示した(6)の撮影画像群214の識別子に関連した撮影関連情報I11として(1)から(4)の状態情報を取得する。実施例3のおける撮影関連情報I11は、撮影に伴う、撮影時刻、撮影番号、面状カメラ部102移動・停止、移動用マーカレーザ331の移動・停止、カメラ部102の移動と移動用マーカレーザ331の移動の前後関係、面状マーカ付与部333の点灯・消灯、移動用マーカレーザ331の点灯・消灯、さらに、撮影カメラの配置番号画像情報の関係、面状マーカ付与部333の配置番号と画像の関係となる。 The functional blocks for performing image processing in the third embodiment substantially conform to the functional blocks of the image processing apparatus 9 shown in FIG. 11 of the first embodiment, but differences from the first embodiment will be described below. Specifically, the information acquisition unit 190 acquires the state information (1) to (4) as the photographing related information I11 related to the identifier of the photographed image group 214 (6) shown in the timing chart of FIG. . The shooting-related information I11 in the third embodiment includes shooting time, shooting number, movement / stop of the planar camera unit 102, movement / stop of the moving marker laser 331, movement of the camera unit 102, and movement marker laser 331 associated with shooting. Pre- and post-movement relations, lighting / extinguishing of the planar marker attaching unit 333, lighting / extinguishing of the moving marker laser 331, relationship of the arrangement number image information of the photographing camera, relationship between the arrangement number of the planar marker providing unit 333 and the image It becomes.
情報取得部190は、撮影関連情報I11を参照して、面状のカメラ2−m−qの縦横の並びに対応したIDから行列要素(m,q)を得る。情報取得部190は、撮影関連情報I11を参照して、面状のマーカ31の縦横の並びに対応したマーカIDを作成して保持する。 The information acquisition unit 190 refers to the imaging related information I11 to obtain a matrix element (m, q) from the corresponding IDs in the vertical and horizontal directions of the planar camera 2-mq. The information acquisition unit 190 creates and holds a marker ID corresponding to the vertical and horizontal alignments of the planar marker 31 with reference to the imaging related information I11.
情報取得部190は、撮影関連情報I11を参照して、面状カメラ部102の撮影位置に対応したIDに、移動用マーカレーザ331の移動停止直後の撮影画像には識別子“F”を付与する。情報取得部190は、撮影関連情報I11を参照して、面状カメラ部302の移動停止直後に撮影した画像に識別子“B”を付与する。情報取得部190は、撮影関連情報I11を参照して、全マーカが消灯している画像に識別子“O”を付与する。情報取得部190は、撮影関連情報I11を参照して、カメラ2−m−qの移動順番に伴い、面状カメラ部302で撮影した画像行列(m,q)をひとまとめとした画像群314に移動IDを付与する。 The information acquisition unit 190 refers to the imaging related information I11 and assigns the identifier “F” to the captured image immediately after the movement of the moving marker laser 331 to the ID corresponding to the imaging position of the planar camera unit 102. The information acquisition unit 190 refers to the shooting related information I11 and assigns an identifier “B” to an image shot immediately after the movement of the planar camera unit 302 is stopped. The information acquisition unit 190 refers to the imaging related information I11 and assigns an identifier “O” to an image in which all markers are turned off. The information acquisition unit 190 refers to the shooting-related information I11 and creates an image group (314) that is a group of image matrices (m, q) shot by the planar camera unit 302 according to the movement order of the cameras 2-m-q. A movement ID is assigned.
マーカルート情報生成部193では、マーカ付与関連情報やマーカ像の画像内位置とリンクさせて画像の撮影順などに連動するマーカルート情報I29を生成する。マーカ付与関連情報は、移動用マーカレーザ331の移動・停止、カメラ部102の移動と移動用マーカレーザ331の移動の前後関係、移動用マーカレーザ331の点灯・消灯などの情報を含む。具体的には、たとえば、マーカルート情報生成部193は、マーカ座標値抽出部191からマーカ座標情報I19を抽出して、移動用マーカレーザ331のマーカ像が属する撮影画像114を特定する。そして、マーカルート情報生成部193は、マーカ像が撮影画像114内において左半分の領域に存在する場合には「S」を、右半分の領域に存在する場合には「R」を、図32(b)のマーカ像のマーカIDに設定する。 The marker route information generation unit 193 generates marker route information I29 that is linked to the marker addition related information and the position in the image of the marker image, and is linked to the image capturing order. The marker addition related information includes information such as the movement / stop of the movement marker laser 331, the front-rear relationship between the movement of the camera unit 102 and the movement of the movement marker laser 331, and the turning on / off of the movement marker laser 331. Specifically, for example, the marker route information generation unit 193 extracts the marker coordinate information I19 from the marker coordinate value extraction unit 191, and specifies the captured image 114 to which the marker image of the moving marker laser 331 belongs. Then, the marker route information generation unit 193 displays “S” when the marker image exists in the left half region in the captured image 114, and displays “R” when the marker image exists in the right half region. Set to the marker ID of the marker image in (b).
また、カメラ部102の撮影領域113に含まれる面状のマーカ31のマーカ像103については、撮影画像114の画像行列(m,q)とマーカ像103の画像内位置の関係から、進行方向の前側であれば、「−(n+1)−F」、進行方向の後ろ側であれば「−n−B」、さらに、マーカ像103の画像内位置が画像行列(m,q)のmの進行方向の左であれば、「−m−(n+1)−FS」、右であれば「−(m+1)−(n+1)−FR」を、画像IDに割り付ける。 Further, regarding the marker image 103 of the planar marker 31 included in the imaging region 113 of the camera unit 102, the traveling direction is determined based on the relationship between the image matrix (m, q) of the captured image 114 and the position in the image of the marker image 103. If it is the front side, “− (n + 1) −F”, if it is the rear side in the traveling direction, “−n−B”, and the position in the image of the marker image 103 is m in the image matrix (m, q). If the direction is to the left, “−m− (n + 1) −FS” is assigned to the image ID, and if the direction is to the right, “− (m + 1) − (n + 1) −FR” is assigned to the image ID.
補正値算出部197は、実施例1と同様、合成画像選択部196により選択された画像の合成用補正値を算出する。まず、補正値算出部197は、合成用補正値用の基準画像を設定する。例えば、補正値算出部197は、選択された画像群の中央の画像を基準画像とする。基準画像から画像合成の対象である各画像までの最適なルートをマーカルート情報I29を用いて設定する。具体的には、たとえば、補正値算出部197は、基準画像から対象とする画像までのルート上の隣接画像間の行列積を算出することにより、マーカ像の座標値に内在する量子化誤差を累積するとともに、レンズ収差を撮影環境情報I50から取得することにより、レンズ収差に基づくレンズ歪み、行列積の算出に際して累積する。 The correction value calculation unit 197 calculates the correction value for composition of the image selected by the composite image selection unit 196, as in the first embodiment. First, the correction value calculation unit 197 sets a reference image for composition correction value. For example, the correction value calculation unit 197 sets the center image of the selected image group as the reference image. An optimum route from the reference image to each image to be image-combined is set using the marker route information I29. Specifically, for example, the correction value calculation unit 197 calculates a matrix error between adjacent images on the route from the reference image to the target image, thereby calculating the quantization error inherent in the coordinate value of the marker image. In addition to accumulating, the lens aberration is acquired from the shooting environment information I50, so that the lens distortion and the matrix product based on the lens aberration are calculated.
ルートの終点となる画像合成の対象となる画像は、選択された画像群のうち基準画像以外の残余の画像であるが、補正値算出部197は、選択された画像群の最も外側の画像群のみを、ルートの終点となる画像合成の対象となる画像に選択してもよい。 The image that is the target of image synthesis that is the end point of the route is the remaining image other than the reference image in the selected image group, but the correction value calculation unit 197 is the outermost image group of the selected image group. May be selected as an image to be synthesized as an end point of the route.
また、補正値算出部197は、量子化誤差やレンズ歪みを考慮して最適ルートを選択してもよい。量子化誤差はマーカ間隔と画素数に依存するため、補正値算出部197は、ルートを構成するリンクごとに、マーカ間隔および画素密度から量子化誤差をマーカ像の座標値の不確定度として数値化する。また、レンズ歪みは画像内位置に依存するため、補正値算出部197は、ルートを構成するリンクごとに、予め計測されたカメラレンズ収差からレンズ歪みをマーカ像の座標値の不確定度として数値化する。そして、補正値算出部197は、各リンクの不確定度を合計することにより、累積不確定度をルートごとに算出し、累積不確定度が最小となるルートを最適ルートとして選択する。画像枚数が多く、ルート選択肢が増えると、ルート毎の累積誤差または累積歪の影響が出てくるためにルート上の画像枚数だけに依らない最適なルートが選択される。 Further, the correction value calculation unit 197 may select the optimum route in consideration of quantization error and lens distortion. Since the quantization error depends on the marker interval and the number of pixels, the correction value calculation unit 197 calculates the quantization error from the marker interval and the pixel density as the uncertainty of the coordinate value of the marker image for each link constituting the route. Turn into. Since the lens distortion depends on the position in the image, the correction value calculation unit 197 sets the lens distortion as a degree of uncertainty of the coordinate value of the marker image from the camera lens aberration measured in advance for each link constituting the route. Turn into. Then, the correction value calculation unit 197 calculates the cumulative uncertainty for each route by summing the uncertainty of each link, and selects the route with the smallest cumulative uncertainty as the optimum route. When the number of images is large and the number of route options increases, the influence of cumulative error or cumulative distortion for each route appears, so that an optimal route that does not depend only on the number of images on the route is selected.
最終的に、補正値算出部197は、設定した最適なルートに沿って、基準画像の座標系に対象となる画像の座標系を合わせるための座標変換行列積(上記式(9)を参照)を画像合成用の合成用補正値として算出する。 Finally, the correction value calculation unit 197 performs a coordinate transformation matrix product for matching the coordinate system of the target image with the coordinate system of the reference image along the optimal route that has been set (see the above equation (9)). Is calculated as a composition correction value for image composition.
また、合成部198においても、マーカルート上の画像の時系列やマーカ配置の関係から、同じ統一座標系内で表されるマーカ像位置において、マーカ像の写っていないオリジナル画像を選択して上書きすることにより、マーカ像を隠蔽する。これにより、合成部198は、マーカ像を隠蔽した画像出力情報を出力する。 Also, the combining unit 198 selects and overwrites the original image without the marker image at the marker image position represented in the same unified coordinate system from the time series of the image on the marker route and the relationship of the marker arrangement. By doing so, the marker image is concealed. Thereby, the composition unit 198 outputs image output information in which the marker image is concealed.
<被写体上の撮影領域と撮影画像群>
図32Aおよび図32Bは、実施例3にかかる被写体上の撮影領域と撮影画像群を示す説明図である。図32Aは、移動前後の面状平行撮影領域313−1,313−2におけるマーカ31および移動用マーカ33を示す。面状平行撮影領域313−1は、撮影領域113−1(1,1)〜113−1(3,2)を含む。面状平行撮影領域313−2は、撮影領域113−2(1,1)〜113−2(3,2)を含む。
<Shooting area and photographed image group on subject>
FIG. 32A and FIG. 32B are explanatory diagrams illustrating a shooting area and a shot image group on a subject according to the third embodiment. FIG. 32A shows the marker 31 and the moving marker 33 in the planar parallel imaging regions 313-1 and 313-2 before and after the movement. The planar parallel imaging region 313-1 includes imaging regions 113-1 (1, 1) to 113-1 (3, 2). The planar parallel imaging region 313-2 includes imaging regions 113-2 (1,1) to 113-2 (3,2).
図32Bは、面状カメラ部302/面状マーカ付与部333と移動用マーカレーザ331とを交互に移動および停止させながら、図31のタイミングチャートに沿って撮影した撮影画像114−1(1,1)O〜114−2(3,2)Fを含む面状撮影画像314−1−O〜314−2−Fを示す。 FIG. 32B shows a photographed image 114-1 (1, 1) taken along the timing chart of FIG. 31 while the planar camera unit 302 / planar marker applying unit 333 and the moving marker laser 331 are alternately moved and stopped. ) Planar captured images 314-1-O to 314-2-F including O to 114-2 (3,2) F are shown.
面状撮影画像314−1−Oは、初期位置でマーカ31を消灯して撮影した画像である。面状撮影画像314−1−Fは、初期位置でマーカ31を点灯して撮影した画像である。面状撮影画像314−1−Fは、面状撮影画像314−1−Fの最前部に移動用マーカレーザ331により移動用マーカ33−1−S,33−1−Rを点灯して、マーカ像303−1−FS,303−1−FR(図32B中便宜上四角で表示)を生成した画像である。 The planar photographed image 314-1-O is an image photographed with the marker 31 turned off at the initial position. The planar captured image 314-1-F is an image captured by lighting the marker 31 at the initial position. The planar photographed image 314-1-F is a marker image in which the movement markers 33-1-S and 33-1-R are lit by the movement marker laser 331 at the forefront of the planar photographed image 314-1-F. It is the image which produced | generated 303-1-FS and 303-1-FR (it displays with the square for convenience in FIG. 32B).
面状撮影画像314−2−Bは、面状カメラ部302/面状マーカ付与部333の移動により、面状平行撮影領域313−nが、面状平行撮影領域313−1から面状平行撮影領域313−2に移行した場合に、面状平行撮影領域313−2を撮影した画像である。面状撮影画像314−2−Bは、マーカ31を消灯し、かつ、面状平行撮影領域313−2の最後尾に、移動用マーカレーザ331により移動用マーカ33−1−S,33−1Rを点灯して、マーカ像303−1−BS,303−1−BRを生成した画像である。 The planar captured image 314-2-B is captured by the planar parallel imaging region 313-n from the planar parallel imaging region 313-1 by the movement of the planar camera unit 302 / planar marker providing unit 333. It is the image which image | photographed the planar parallel imaging | photography area | region 313-2 when transfering to the area | region 313-2. In the planar photographed image 314-2-B, the markers 31 are turned off, and the movement markers 33-1-S and 33-1R are moved by the movement marker laser 331 at the end of the planar parallel photographing region 313-2. Illuminated to generate marker images 303-1-BS and 303-1-BR.
面状撮影画像314−2−Fは、マーカ31を点灯し、かつ、面状平行撮影領域313−2の最前部に移動用マーカレーザ331を移動して、移動用マーカ33−2−S,33−2−Rを点灯して、マーカ像303−2−FSと303−2−FRを生成した画像である。 The planar photographed image 314-2-F turns on the marker 31 and moves the moving marker laser 331 to the forefront part of the planar parallel photographing region 313-2, thereby moving markers 33-2-S and 33. This is an image in which the marker images 303-2-FS and 303-2-FR are generated by turning on -2-R.
<撮影装置5の動作処理手順>
図33は、実施例3にかかる撮影装置5の動作処理手順例を示すフローチャートである。図33は、図31のタイミングチャートの流れに沿う処理フローである。まず、撮影装置5は、撮影装置5を初期化する(ステップS301)。つぎに、撮影装置5は、面状カメラ部302/面状マーカ付与部333を初期位置に設置する(ステップS302)。そして、撮影装置5は、マーカレーザ131,331を消灯した状態で撮影して、面状撮影画像314−1−Oを取得する(ステップS303)。
<Operation Processing Procedure of Imaging Device 5>
FIG. 33 is a flowchart illustrating an example of an operation processing procedure of the imaging apparatus 5 according to the third embodiment. FIG. 33 is a processing flow along the flow of the timing chart of FIG. First, the imaging device 5 initializes the imaging device 5 (step S301). Next, the imaging device 5 installs the planar camera unit 302 / planar marker providing unit 333 at the initial position (step S302). And the imaging device 5 image | photographs in the state which turned off the marker lasers 131 and 331, and acquires the planar picked-up image 314-1-O (step S303).
つぎに、撮影装置5は、移動用マーカレーザ331を点灯して移動用マーカ33を移動し、移動用マーカ33が面状平行撮影領域313−nの最前部に配置される位置で停止させる(ステップS304)。そして、撮影装置5は、同じ位置でマーカレーザ131を点灯して、面状撮影画像314−1−Fを撮影する(ステップS305)。 Next, the imaging device 5 turns on the movement marker laser 331 to move the movement marker 33 and stops it at a position where the movement marker 33 is arranged in the forefront of the planar parallel imaging region 313-n (step). S304). And the imaging device 5 lights the marker laser 131 in the same position, and image | photographs the planar image 314-1-F (step S305).
つぎに、撮影装置5は、面状カメラ部302および面状マーカ付与部333を移動するか否かを判断する(ステップS306)。具体的には、例えば、撮影装置5は、撮影関連情報I11に基づいて、マルチ画像撮影システム1の現在位置があらかじめ設定された撮影範囲内にあるか否かにより、面状カメラ部302および面状マーカ付与部333の移動の是非を判断する。すなわち、撮影装置5は、マルチ画像撮影システム1の現在位置が撮影範囲内であれば、面状カメラ部302および面状マーカ付与部333を移動すべきと判断し(ステップS306:Yes)、撮影範囲外であれば、移動すべきでないと判断する(ステップS306:No)。ステップS306:Yesの場合、ステップS307に移行する。 Next, the imaging device 5 determines whether to move the planar camera unit 302 and the planar marker providing unit 333 (step S306). Specifically, for example, the imaging device 5 determines whether the current position of the multi-image imaging system 1 is within a preset imaging range based on the imaging related information I11, and the planar camera unit 302 and the plane. The right or wrong of the movement of the marker-like marking unit 333 is determined. That is, the imaging device 5 determines that the planar camera unit 302 and the planar marker providing unit 333 should be moved if the current position of the multi-image imaging system 1 is within the imaging range (step S306: Yes), and imaging. If it is out of the range, it is determined that it should not move (step S306: No). Step S306: If Yes, the process moves to step S307.
つぎに、撮影装置5は、移動用マーカ33の位置を保持したまま、面状カメラ部302/面状マーカ付与部333を移動させて、移動用マーカ33が面状平行撮影領域313−nの最後尾に配置される位置で停止させる(ステップS307)。そして、撮影装置5は、全マーカレーザ131を消灯して、移動用マーカ33が面状平行撮影領域313−nの最後尾に配置される位置で面状撮影画像314−(n+1)−Bを撮影する(ステップS308)。nは、面状カメラ部302/面状マーカ付与部333の移動回数である。 Next, the imaging device 5 moves the planar camera unit 302 / planar marker applying unit 333 while holding the position of the movement marker 33, so that the movement marker 33 is in the planar parallel imaging region 313-n. It stops at the position arranged at the end (step S307). Then, the imaging device 5 turns off all the marker lasers 131 and captures the planar captured image 314- (n + 1) -B at a position where the moving marker 33 is arranged at the tail of the planar parallel imaging region 313-n. (Step S308). n is the number of movements of the planar camera unit 302 / planar marker providing unit 333.
つぎに、撮影装置5は、移動用マーカ33が面状平行撮影領域313の最前部に配置されるように移動処理部133を移動して停止させる(ステップS309)。そして、撮影装置5は、全マーカレーザ131を消灯して、移動用マーカ33が面状平行撮影領域313の最前部に配置される面状平行撮影領域313−nを撮影し、面状撮影画像314−(n+1)−Fを取得する(ステップS310)。そして、ステップ306に戻る。ステップS306:Noの場合、撮影装置5の動作は終了する。 Next, the imaging device 5 moves and stops the movement processing unit 133 so that the movement marker 33 is arranged at the forefront of the planar parallel imaging region 313 (step S309). Then, the imaging device 5 turns off all the marker lasers 131, images the planar parallel imaging region 313-n in which the moving marker 33 is disposed in the forefront of the planar parallel imaging region 313, and the planar captured image 314. -(N + 1) -F is acquired (step S310). Then, the process returns to step 306. Step S306: In the case of No, the operation of the imaging device 5 ends.
<基準画像ベースの画像処理例>
図34Aから図34Dは、実施例3にかかる基準画像ベースの画像処理例を示す説明図である。図34Aは、面状撮影画像314内の基準の撮影画像114への統一座標系に変換した面状統一座標系マーカ画像319−1,319−2を示す。面状統一座標系マーカ画像319−1,319−2は、2値化画像である。面状統一座標系マーカ画像319−1,319−2は、図32Bの面状撮影画像314において、各面状撮影画像314の中の撮影画像114−1,114−2をマーカ像103−1−1−2〜103−1−4−2やマーカ像103−1−1−2〜103−1−4−2を用いて、実施例1の図12に示したフロー、または、各マーカ像103の間隔寸法情報が分かっていれば図13に示したフローで、画像処理した画像である。
<Reference image-based image processing example>
FIG. 34A to FIG. 34D are explanatory diagrams illustrating a reference image-based image processing example according to the third embodiment. FIG. 34A shows planar unified coordinate system marker images 319-1 and 319-2 converted into a unified coordinate system for the reference photographed image 114 in the planar photographed image 314. The planar unified coordinate system marker images 319-1 and 319-2 are binarized images. The planar unified coordinate system marker images 319-1 and 319-2 are obtained by replacing the captured images 114-1 and 114-2 in the planar captured images 314 with the marker image 103-1 in the planar captured image 314 of FIG. 32B. The flow shown in FIG. 12 of Example 1 or each marker image using -1-2 to 103-1-4-2 and marker images 103-1-1-2 to 103-1-4-2. If the interval size information 103 is known, the image is processed in the flow shown in FIG.
本実施例では2値化によるマーカ像の重心座標を画像合わせ用の基準座標として利用する形態について説明するが、画像合わせ用のマーカ座標は、2値化したマーカ像の重心座標に限定するものでなく、2値化したマーカ像の、例えば、分布荷重を加えた中心座標やX座標軸やy座標軸での1/4分位置などマーカ像において画像に依らず一意に決まる座標をマーカ像の座標としてよい。また、マーカ像の輝度分布が撮影位置に依らず安定している場合には、単純にマーカ像の輝度ピークの座標を画像合わせ用基準座標に利用してもよい。この場合は、マーカ座標値の抽出処理が軽減されるメリットがある。このように、マーカ像の座標とは、付与マーカに関連する一意に決まる定義により指定される位置の座標を意味するものである。 In the present embodiment, a description will be given of a mode in which the binarized marker image centroid coordinates are used as reference coordinates for image alignment. However, the image alignment marker coordinates are limited to the binarized marker image centroid coordinates. Rather than the binarized marker image, for example, the coordinate of the marker image that is uniquely determined by the marker image, such as the center coordinate with the distributed load applied, or the quarter position on the X coordinate axis or the y coordinate axis. As good as When the brightness distribution of the marker image is stable regardless of the shooting position, the brightness peak coordinates of the marker image may be simply used as the reference coordinates for image alignment. In this case, there is an advantage that the marker coordinate value extraction process is reduced. As described above, the coordinates of the marker image mean the coordinates of the position specified by the uniquely determined definition related to the assigned marker.
また、面状統一座標系マーカ画像319−1,319-2は、夫々共通の移動用マーカ33−1−S,33−1−Rの撮影画像であるマーカ像303−1−FS,303−1−FR、303−1−BS,303−1−BRを含む。 Further, the planar unified coordinate system marker images 319-1 and 319-2 are marker images 303-1-FS and 303-, which are captured images of the common movement markers 33-1-S and 33-1-R, respectively. 1-FR, 303-1-BS, 303-1-BR.
図34Bは、面状統一座標系マーカ画像319−1,319−2において、この両者の座標系を統一するために必要な、移動用マーカ像303−1−FS,303−1−FR、303−1−BS,303−1−BRのみを分かり易く表示した図である。この面状統一座標系マーカ画像319−1,319−2中で各々共通の移動用マーカ像の画素座標値を式(3)に代入することにより、式(3)の[α]の4つの未知数を求めることができる。 FIG. 34B shows the movement marker images 303-1-FS, 303-1-FR, 303, which are necessary for unifying the coordinate systems of the planar unified coordinate system marker images 319-1, 319-2. It is the figure which displayed only -1-BS and 303-1-BR in an easy-to-understand manner. By substituting the pixel coordinate value of the common marker image for movement in the planar unified coordinate system marker images 319-1 and 319-2 into the equation (3), four [α] in the equation (3) are obtained. An unknown number can be obtained.
求まったアフィン変換行列[α]を[α1]とすると、面状統一座標系マーカ画像319−1の座標系で面状統一座標系マーカ画像319−2の座標を統一して、式(4)と同様に隣接画像間で変換することができる。同様に、複数の面状統一座標系マーカ画像があれば、基準の面状統一座標系への変換として、移動方向に行列積[α1][α2]・・・[α(n−1)]を用いて式(6)のように表せる。任意のマーカ画像の座標は、アフィン変換係数行列を掛け合わせることにより、基準面状統一座標系マーカ画像、例えば、面状統一座標系マーカ画像319−1の座標系で全体統一座標系のマーカ画像320となる。 Assuming that the obtained affine transformation matrix [α] is [α1], the coordinates of the planar unified coordinate system marker image 319-2 are unified in the coordinate system of the planar unified coordinate system marker image 319-1, and the equation (4) Similarly, it is possible to convert between adjacent images. Similarly, if there are a plurality of planar uniform coordinate system marker images, the matrix product [α1] [α2]... [Α (n−1)] in the movement direction is converted into the standard planar uniform coordinate system. Can be expressed as shown in Equation (6). The coordinates of an arbitrary marker image are multiplied by an affine transformation coefficient matrix to obtain a reference plane unified coordinate system marker image, for example, a marker image of the entire unified coordinate system in the coordinate system of the plane unified coordinate system marker image 319-1. 320.
図34Cは、実施例3としてn=2の場合の全体統一座標系のマーカ画像320を示している。一般的な面状撮影域数nに対して上記アフィン変換係数行列積をn−1回繰り返すことでn番目の基準面状統一座標系を全体統一座標系に変換することができる。 FIG. 34C shows a marker image 320 of the entire unified coordinate system when n = 2 as Example 3. By repeating the above affine transformation coefficient matrix product n-1 times for a general planar imaging area number n, the nth reference planar uniform coordinate system can be converted into an overall unified coordinate system.
図34Dは、図34Cまでの処理により算出した全体統一座標系への変換補正値をつかった、全体画像の合成を示す。まず、合成部198は、面状撮影画像314内の画像合成を行う。合成部198は、面状のマーカ31の写り込みのない面状撮影画像314−1−O,314−2−Bを画像合成に用いる。合成部198は、全体統一座標系での画像の座標を適用して各撮影画像114を配置することでマーカ像を隠蔽した面状撮影画像内の合成を行う。 FIG. 34D shows the synthesis of the whole image using the conversion correction value to the whole unified coordinate system calculated by the processing up to FIG. 34C. First, the composition unit 198 performs image composition within the planar photographed image 314. The synthesizing unit 198 uses the planar photographed images 314-1-O and 314-2-B without the reflection of the planar marker 31 for image synthesis. The synthesizing unit 198 synthesizes the planar captured image in which the marker image is concealed by arranging the captured images 114 by applying the coordinates of the image in the overall unified coordinate system.
次に、合成部198は、面状撮影画像314間の接合を行う。面状撮影画像314−2−Bに対して、撮影時刻が前である、面状撮影画像314−1−Oの合成画像を上書きすることで、移動用マーカの画像303―1−BSと303−1−BRを隠蔽した出力用の全体画像321を得る。実施例3では、面状撮影画像数nが2つの場合を示したが、一般的には、n個の面状撮影画像314のIDに対応した撮影時刻を用いて、撮影時刻が遅く、移動用マーカ33のマーカ像303が最後尾にある面状撮影画像314の合成画像に撮影時刻が前で同じ移動用マーカ33のマーカ像303が最後尾にある面状撮影合成画像を上書きするように画像情報を重ねて、最終的は、初期のマーカ像のない画像314−1−0で上書きするように合成し、出力用の全体画像321を得る。 Next, the synthesizing unit 198 performs bonding between the planar shot images 314. By overwriting the composite image of the planar photographed image 314-1-O whose photographing time is before the planar photographed image 314-2-B, the movement marker images 303-1-BS and 303 are displayed. An overall image 321 for output in which -1-BR is concealed is obtained. In the third embodiment, the case where the number n of the planar photographed images is two is shown. However, in general, the photographing time is late using the photographing time corresponding to the ID of the n planar photographed images 314, and the movement is performed. The marker image 303 of the moving marker 33 of the same moving marker 33 is overwritten with the composite image of the planar captured image 314 with the marker image 303 of the moving marker 33 at the end and the same marker image 303 of the moving marker 33 is overwritten at the end. The image information is superimposed and finally combined so that the image 314-1-0 without the initial marker image is overwritten to obtain an overall image 321 for output.
また、実施例3では、面状平行撮影領域313が一方向に移動し、その移動方向での撮影領域の面状撮影画像314が2つの場合と、一般のn個に拡大した場合を示したが、実施例2のように、移動方向に直交する方向にm回の移動撮影を行う拡大もあり得る。 Further, in the third embodiment, the case where the planar parallel imaging region 313 moves in one direction and the number of the planar imaging images 314 in the imaging region in the moving direction is two, and the case where it is enlarged to n in general are shown. However, as in the second embodiment, there may be enlargement in which moving imaging is performed m times in a direction orthogonal to the moving direction.
<全体統一座標系の補正値算出処理(ステップS57)>
図35は、実施例3にかかる、図16に示した全体統一座標系の補正値算出処理(ステップS57)の詳細な処理手順例を示すフローチャートである。なお、初期状態では、m=1、n=1とする。合成用補正値算出部194は、最初の面状撮影画像群のマーカ像103の座標値を取得する(ステップS375)。つぎに、合成用補正値算出部194は、移動方向と移動方向に直交する方向の撮影画像114について、実施例1の図17Aと同様の処理を行い、面状撮影画像314の面状画像統一座標系への変換値を得る(ステップS376)。
<Correction value calculation process of entire unified coordinate system (step S57)>
FIG. 35 is a flowchart of a detailed process procedure example of the correction value calculation process (step S57) of the overall unified coordinate system shown in FIG. 16 according to the third embodiment. In the initial state, m = 1 and n = 1. The composition correction value calculation unit 194 acquires the coordinate value of the marker image 103 of the first planar photographed image group (step S375). Next, the composition correction value calculation unit 194 performs the same processing as that in FIG. 17A of the first embodiment on the captured image 114 in the direction orthogonal to the moving direction, and unifies the planar image of the planar captured image 314. A conversion value to the coordinate system is obtained (step S376).
つぎに、合成用補正値算出部194は、次の面状撮影画像314の有無を判断する(ステップS377)。次の面状撮影画像314がある場合(ステップS377:Yes)、合成用補正値算出部194は、次の面状撮影画像314のマーカ座標を取得し(ステップS378)、ステップ376に戻る。一方、次の面状撮影画像314がない場合(ステップS377:No)、ステップS379に進む。 Next, the composition correction value calculation unit 194 determines the presence or absence of the next planar photographed image 314 (step S377). When there is the next planar photographed image 314 (step S377: Yes), the composition correction value calculation unit 194 acquires the marker coordinates of the next planar photographed image 314 (step S378) and returns to step 376. On the other hand, when there is no next planar image 314 (step S377: No), the process proceeds to step S379.
つぎに、合成用補正値算出部194は、複数の面状統一座標系の基準の撮影画像114への統一座標系群から、全体撮影領域の統一座標化のために基準となる面状統一座標系を選択する(ステップS380)。たとえば、n=1の面状撮影画像314−1の座標系が基準となる面状統一座標系として選択される。そして、合成用補正値算出部194は、ステップS380で選択されたn=1番目の面状統一座標系を処理対象とし、nをインクリメントする。そして、合成用補正値算出部194は、インクリメント後の(n−1)番目の面状統一座標系と、n番目の面状統一座標系とにおいて、共通の移動用マーカ33のマーカ像303の座標値から合成補正値の座標変換行列[α(n)]を算出し、保持する(ステップS381)。ここで、nは移動回数である。 Next, the compositing correction value calculation unit 194 uses the uniform surface coordinates as a reference for the unified coordinate of the entire photographing area from the unified coordinate system group to the reference photographed image 114 of the plurality of uniform planar coordinate systems. A system is selected (step S380). For example, the coordinate system of the planar photographed image 314-1 with n = 1 is selected as the standard planar coordinate system. Then, the composition correction value calculation unit 194 sets the n = 1st planar unified coordinate system selected in step S380 as a processing target and increments n. Then, the composition correction value calculation unit 194 calculates the marker image 303 of the common movement marker 33 in the (n−1) th planar unified coordinate system after increment and the nth planar unified coordinate system. A coordinate conversion matrix [α (n)] of the composite correction value is calculated from the coordinate values and held (step S381). Here, n is the number of movements.
つぎに、合成用補正値算出部194は、次の面状撮影画像314の有無を判断する(ステップS382)。次の面状撮影画像314がある場合(ステップS382:Yes)、ステップS381に戻り再実行する。一方、次の面状撮影画像314がない場合(ステップS382:No)、合成用補正値算出部194は、全体撮影領域の画像について、面状統一座標系間の補正値を掛け合わせて全体統一座標系への変換補正値である補正値行列積[α1][α2]・・・[α(n−1)]を算出する(ステップS383)。そして、図16のステップS57に戻る。 Next, the composition correction value calculation unit 194 determines whether or not there is a next planar image 314 (step S382). If there is a next planar photographed image 314 (step S382: Yes), the process returns to step S381 and is executed again. On the other hand, when there is no next planar photographed image 314 (step S382: No), the composition correction value calculation unit 194 multiplies the correction values between the uniform planar coordinate systems for the entire photographing region image to unify the whole. Correction value matrix products [α1] [α2]... [Α (n−1)] that are conversion correction values for the coordinate system are calculated (step S383). Then, the process returns to step S57 in FIG.
<実施例3の効果>
以上説明した実施例3では、次の(K)〜(N)のような効果がある。
<Effect of Example 3>
The third embodiment described above has the following effects (K) to (N).
(K)面状に配置した複数のカメラとその撮影領域で隣接撮影領域の共通領域にマーカを付与する面状カメラ部302により、実施例1のカメラ部102よりも広い撮影範囲を一括撮影できるため、撮影時間を短縮することができる。 (K) With a plurality of cameras arranged in a plane and a planar camera unit 302 that assigns a marker to a common region of adjacent shooting regions in the shooting region, a wider shooting range than the camera unit 102 of the first embodiment can be collectively shot. Therefore, the shooting time can be shortened.
(L)面状カメラ部302による隣接撮影領域の共通領域にマーカを付与し、非共通領域にマーカを付与しない構成とすることにより、マーカレーザの台数を削減することができる。 (L) The number of marker lasers can be reduced by providing a marker in a common area of adjacent photographing areas by the planar camera unit 302 and not providing a marker in a non-common area.
(M)カメラ部102を構成する面状カメラ部302を支持する移動処理部132と移動用マーカレーザ331を支持する移動処理部133を、交互に移動させて撮影することで、面状撮影画像間の画素レベルで高精度な面状平行撮影領域間の画像合わせを容易に実現することができる。 (M) The movement processing unit 132 that supports the planar camera unit 302 that constitutes the camera unit 102 and the movement processing unit 133 that supports the moving marker laser 331 are alternately moved to capture images between the planar captured images. Therefore, it is possible to easily realize the image alignment between the planar parallel imaging regions with high accuracy at the pixel level.
<変形例>
本実施例1〜3の変形例を挙げる。
(a)全実施例において、カメラ部とマーカ付与部を交互に移動させるための制御部を有する撮影装置により撮影された画像と撮影関連情報を取得して画像処理を行う画像処理装置について述べたが、カメラ部とマーカ付与部の交互の移動機構を手動で動かして撮影し画像と手動で提供される撮影関連情報を用いても、画像処理装置では実施例と同様の画像処理を行うことが可能である。
<Modification>
The modification of the present Examples 1-3 is given.
(A) In all the embodiments, an image processing apparatus that acquires an image photographed by a photographing apparatus having a control unit for alternately moving a camera unit and a marker providing unit and photographing related information and performs image processing has been described. However, the image processing apparatus can perform the same image processing as in the embodiment even if an image is taken by manually moving the alternate moving mechanism of the camera unit and the marker providing unit and using the image and the shooting-related information provided manually. Is possible.
(b)実施例1では、被写体に平行にカメラやマーカ付与部を設置して平行に移動させる形態でマーカ3の位置を規定する寸法や移動用マーカの間隔寸法や移動距離に関する情報を取得し、画像合成処理の補正値算出に使用する手法について述べた。実施例2のように被写体から離れた地点の設置した雲台上にカメラやマーカ付与部を搭載して、雲台を回転させて撮影領域やマーカ付与位置を移動させる場合でも、被写体までの距離をレーザ距離測定で求めてこの距離情報と雲台の角度情報からマーカ間隔の寸法を導出して、これを用いたマーカ位置の寸法情報に当てて画像合成することも可能である。 (B) In the first embodiment, information relating to the dimension that defines the position of the marker 3, the interval dimension of the moving marker, and the moving distance is acquired in a form in which a camera or a marker applying unit is installed in parallel with the subject and moved in parallel. The technique used for calculating the correction value of the image composition process has been described. Even when a camera or a marker attaching unit is mounted on a pan head installed at a point away from the subject as in the second embodiment, and the pan and head are rotated to move the imaging region and the marker attaching position, the distance to the subject It is also possible to derive the dimension of the marker interval from this distance information and the pan head angle information by laser distance measurement, and synthesize the image by applying it to the dimension information of the marker position using this.
(c)実施例1や実施例3では、被写体に対して平行な関係で複数のカメラや複数のマーカ付与部を線状に一列、あるいは面状に縦横に配置し、幅あるいは面で広い撮影領域を一括で撮影する構成について述べた。実施例2のように被写体から離れた地点の設置した雲台上にカメラやマーカ付与部を搭載して、雲台を回転させて撮影領域やマーカ付与位置を移動させる場合でも、複数カメラや複数マーカ付与部の構成を雲台上に線状で放射状、または面状で放射状に配置して、被写体上の広い領域を一括で撮影してもよい。また、角度移動方向には移動用マーカを設け、その移動用マーカを使いそれらの画像接合合成など、効率的な撮影して画像合成することも可能である。 (C) In the first and third embodiments, a plurality of cameras and a plurality of marker applying units are arranged in a line in a line or vertically and horizontally in a plane with a parallel relationship to the subject, and wide imaging in width or plane. The configuration for shooting the area at once is described. Even when a camera or a marker attaching unit is mounted on a pan head installed at a point away from the subject as in the second embodiment, and the pan and head are rotated to move the imaging region and the marker attaching position, a plurality of cameras The configuration of the marker applying unit may be arranged linearly on the camera platform in a radial pattern or in a planar pattern in a radial pattern so that a wide area on the subject can be imaged collectively. It is also possible to provide a moving marker in the angle moving direction and use the moving marker to efficiently synthesize an image by combining such image joining and combining.
(d)全実施例において、移動用マーカの隠蔽については、撮影時刻の早い、あるいは撮影番号の小さい画像で撮影時刻の遅い、あるいは撮影番号の大きい画像のマーカ像を上書きしてマーカ像を隠蔽する手順を示したが、逆に、撮影時刻の早い、あるいは撮影番号の小さい画像のマーカ像を撮影時刻の遅い、あるいは撮影番号の大きい画像のマーカ像で上書きしても同様の効果が得られ、最初の撮影位置でマーカ像のない画像を撮影する代わりに、最後の撮影位置でマーカ像のない画像を撮影して最終合成画像とすることでマーカ隠蔽画像合成をすることも可能である。 (D) In all the embodiments, regarding the movement marker concealment, the marker image is concealed by overwriting the marker image of the image with the earlier photographing time or with the smaller photographing number or the photographing time later or with the larger photographing number. However, the same effect can be obtained by overwriting the marker image of the image with the earlier shooting time or with the smaller shooting number with the marker image with the later shooting time or with the larger shooting number. Instead of photographing an image without a marker image at the first photographing position, it is also possible to compose a marker concealed image by photographing an image without a marker image at the last photographing position to obtain a final composite image.
(e)全実施例においては、撮影画像そのものを用いてマーカを隠蔽する手法について記述したが、同一の撮影領域について第1の撮影画像と第2の撮影画像にマーカ像が含まれる場合に、第1の撮影画像と第2の撮影画像のマーカ像をお互いのマーカ像の無い部分を組み合わせて合成する手順を適用することにより、前記マーカ像が存在しない画像を形成してこれを画像合成に適用することも可能である。 (E) In all the embodiments, the technique of hiding the marker using the captured image itself has been described. However, when the first captured image and the second captured image include a marker image for the same captured area, By applying a procedure for combining the marker images of the first captured image and the second captured image by combining the portions without the marker images, an image without the marker image is formed, and this is used for image synthesis. It is also possible to apply.
以上のように、本実施例によれば、画像合成用の高輝度なマーカを安定的に付与して、広範囲の被写体の詳細な画像をマーカの写りこみのない被写体自体の画像として得ることができる。また、周囲よりも高輝度なマーカを被写体に付与して画像合成の高精度化を図ることができる。 As described above, according to the present embodiment, a high-intensity marker for image synthesis can be stably provided, and a detailed image of a wide range of subjects can be obtained as an image of the subject itself without any marker reflection. it can. In addition, it is possible to increase the accuracy of image composition by providing a marker with higher brightness than the surroundings to the subject.
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。 The present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the configurations described. A part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Moreover, you may add the structure of another Example to the structure of a certain Example. Moreover, you may add, delete, or replace another structure about a part of structure of each Example.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 In addition, each of the above-described configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them, for example, with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。 Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, and an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, and a DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 Further, the control lines and the information lines are those that are considered necessary for the explanation, and not all the control lines and the information lines that are necessary for the mounting are shown. In practice, it can be considered that almost all the components are connected to each other.
1 マルチ画像撮影システム
2 カメラ
5 撮影装置
6 マーカ付与装置
7 制御部
8 カメラ装置
9 画像処理装置
11 画像合成処理部
DESCRIPTION OF SYMBOLS 1 Multi-image imaging system 2 Camera 5 Imaging device 6 Marker providing device 7 Control unit 8 Camera device 9 Image processing device 11 Image composition processing unit
Claims (15)
前記撮影装置は、
撮影領域の被写体を撮影する少なくとも一つのカメラを有するカメラ装置と、
隣接する前記撮影領域が重複する共通領域に前記被写体の輝度よりも高輝度な少なくとも1つのマーカを付与するマーカ付与装置と、
前記カメラ装置および前記マーカ付与装置を所定の移動方向に、それぞれ独立して断続的に移動または停止するように移動制御し、かつ、前記マーカ付与装置による前記マーカの付与と前記カメラ装置による撮影とのタイミングを制御する制御部と、を有し、
前記制御部は、
前記撮影領域における前記移動方向の最前部に前記マーカが配置されるように、前記マーカ付与装置を移動して停止させ、前記カメラ装置により前記撮影領域を撮影させる第1の制御処理と、
前記撮影領域の前記移動方向に隣接し、かつ、前記撮影領域との共通領域に前記マーカが含まれる次の撮影領域が撮影可能となるように前記カメラ装置を前記撮影領域の撮影位置から前記移動方向に移動して停止させ、前記カメラ装置により前記次の撮影領域を撮影させる第2の制御処理と、を交互に実行し、
前記画像処理装置は、
前記撮影装置によって撮影された撮影画像群の各撮影画像において前記マーカの像であるマーカ像を構成する画素集合に基づいて、前記各撮影画像から前記マーカ像の座標値を抽出する抽出部と、
前記撮影画像群の中の第1の撮影領域を撮影した第1の撮影画像と前記第1の撮影領域に対し前記次の撮影領域となる第2の撮影領域を撮影した第2の撮影画像との組み合わせごとに、前記第1の撮影領域と前記第2の撮影領域との共通領域に付与された同一のマーカについて、前記抽出部によって、前記第1の撮影画像から抽出された第1のマーカ像の座標値と、前記第2の撮影画像から抽出された第2のマーカ像の座標値と、に基づいて、前記第1の撮影画像と前記第2の撮影画像とを合成する補正値を算出する算出部と、
前記算出部によって算出された補正値を用いて、前記第1の撮影画像から前記共通領域の画像を除いた画像と、前記第2の撮影画像から前記共通領域の画像を除いた画像と、前記第1の撮影画像および前記第2の撮影画像のうちいずれか一方の撮影画像の前記撮影領域であり、かつ、前記マーカ像が存在しない残余の画像と、を合成する合成部と、
を有することを特徴とするマルチ画像撮影システム。 A multi-image photographing system having a photographing device and an image processing device,
The imaging device
A camera device having at least one camera for photographing a subject in a photographing region;
A marker imparting device that imparts at least one marker having a brightness higher than the brightness of the subject to a common area where adjacent shooting areas overlap;
The camera device and the marker applying device are controlled to move independently and intermittently in a predetermined movement direction, and the marker is applied by the marker applying device and the image is taken by the camera device. A control unit for controlling the timing of
The controller is
A first control process for causing the marker applying device to move and stop so that the marker is arranged in the forefront portion of the moving direction in the shooting region, and shooting the shooting region with the camera device;
The camera device is moved from the shooting position of the shooting area so that the next shooting area that is adjacent to the moving direction of the shooting area and includes the marker in a common area with the shooting area can be shot. And moving in the direction to stop, and alternately executing a second control process for photographing the next photographing area by the camera device,
The image processing apparatus includes:
An extraction unit that extracts a coordinate value of the marker image from each captured image based on a set of pixels constituting a marker image that is an image of the marker in each captured image of the captured image group captured by the imaging device;
A first photographed image obtained by photographing a first photographed area in the photographed image group, and a second photographed image obtained by photographing a second photographed area as the next photographed area with respect to the first photographed area. The first marker extracted from the first photographed image by the extraction unit with respect to the same marker given to the common area of the first photographing area and the second photographing area for each combination Based on the coordinate value of the image and the coordinate value of the second marker image extracted from the second photographed image, a correction value for combining the first photographed image and the second photographed image is obtained. A calculation unit for calculating,
Using the correction value calculated by the calculation unit, an image obtained by removing the image of the common area from the first photographed image, an image obtained by removing the image of the common area from the second photographed image, A synthesizing unit that synthesizes the remaining image where the marker image does not exist and is the imaging region of one of the first captured image and the second captured image;
A multi-image shooting system comprising:
隣接する前記撮影領域が重複する共通領域に前記被写体の輝度よりも高輝度な少なくとも1つのマーカを付与するマーカ付与装置と、
前記カメラ装置および前記マーカ付与装置を所定の移動方向に、それぞれ独立して断続的に移動または停止するように移動制御し、かつ、前記マーカ付与装置による前記マーカの付与と前記カメラ装置による撮影とのタイミングを制御する制御部と、を有し、
前記制御部は、
前記撮影領域における前記移動方向の最前部に前記マーカが配置されるように、前記マーカ付与装置を移動して停止させ、前記カメラ装置により前記撮影領域を撮影させる第1の制御処理と、
前記撮影領域の前記移動方向に隣接し、かつ、前記撮影領域との共通領域に前記マーカが含まれる次の撮影領域が撮影可能となるように前記カメラ装置を前記撮影領域の撮影位置から前記移動方向に移動して停止させ、前記カメラ装置により前記次の撮影領域を撮影させる第2の制御処理と、を交互に実行することを特徴とする撮影装置。 A camera device having at least one camera for photographing a subject in a photographing region;
A marker imparting device that imparts at least one marker having a brightness higher than the brightness of the subject to a common area where adjacent shooting areas overlap;
The camera device and the marker applying device are controlled to move independently and intermittently in a predetermined movement direction, and the marker is applied by the marker applying device and the image is taken by the camera device. A control unit for controlling the timing of
The controller is
A first control process for causing the marker applying device to move and stop so that the marker is arranged in the forefront portion of the moving direction in the shooting region, and shooting the shooting region with the camera device;
The camera device is moved from the shooting position of the shooting area so that the next shooting area that is adjacent to the moving direction of the shooting area and includes the marker in a common area with the shooting area can be shot. And a second control process for alternately moving and stopping in the direction and causing the camera device to photograph the next imaging region.
同一の前記撮影領域において、前記最後尾に付与された第1のマーカの付与位置と、前記最前部に付与された第2のマーカの付与位置との間隔が、前記撮影領域における前記移動方向の幅長から、前記第1のマーカの配置誤差の許容幅と、前記第2のマーカの配置誤差の許容幅と、前記マーカの幅と、を除いた間隔であることを特徴する撮影装置。 In the imaging device according to claim 2,
In the same shooting area, the interval between the position of the first marker applied to the rearmost position and the position of the second marker applied to the frontmost portion is the moving direction in the imaging area. An imaging apparatus, wherein the interval is obtained by removing an allowable width of an arrangement error of the first marker, an allowable width of an arrangement error of the second marker, and the width of the marker from a width length.
前記カメラ装置は、前記被写体上で前記被写体に垂直な方向で撮影する位置関係となるように固定され、
前記カメラ装置および前記マーカ付与装置は、前記被写体の表面に平行に移動する構造を有することを特徴とする撮影装置。 In the imaging device according to claim 2 or 3,
The camera device is fixed on the subject so as to be in a positional relationship for photographing in a direction perpendicular to the subject,
The camera apparatus and the marker applying apparatus have a structure that moves parallel to the surface of the subject.
前記カメラ装置は、前記カメラを少なくとも第1の回転方向に回転可能な第1のカメラ雲台を有し、
前記マーカ付与装置は、前記マーカを付与し、かつ、前記第1の回転方向に回転可能なマーカ付与部と、前記マーカ付与部を搭載する第1のマーカ付与雲台と、を有し、
前記制御部は、
前記カメラ装置の前記撮影領域の最前部に前記マーカが付与されるように前記第1のマーカ付与雲台を回転して停止させ、前記カメラ装置に撮影させる第3の制御処理と、
前記次の撮影領域の最後尾に前記マーカが配置されるように前記第1のカメラ雲台を回転して停止させ、前記カメラ装置に撮影させる第4の制御処理と、を交互に実行することを特徴とする撮影装置。 In the imaging device according to claim 2 or 3,
The camera device includes a first camera platform that can rotate the camera in at least a first rotation direction;
The marker imparting device includes a marker imparting unit that imparts the marker and that is rotatable in the first rotation direction, and a first marker imparting platform that mounts the marker imparting unit,
The controller is
A third control process for rotating and stopping the first marker application platform so that the marker is applied to the forefront part of the imaging region of the camera device, and causing the camera device to perform imaging,
And alternately executing a fourth control process in which the first camera pan head is rotated and stopped so that the marker is arranged at the tail end of the next imaging region, and the camera device performs imaging. An imaging device characterized by the above.
前記第1のカメラ雲台と共に前記第1の回転方向に対して90度異なる第2の回転方向に回転可能な第2のカメラ雲台と、
前記第1のマーカ付与雲台と共に前記第2の回転方向に回転可能な第2のマーカ付与雲台と、
前記マーカ付与部とは別の少なくとも1つの他のマーカ付与部と、
前記他のマーカ付与部を前記第2の回転方向に回転可能な第3のマーカ付与雲台と、を有し、
前記制御部は、
前記カメラ装置により撮影される前記第1の回転方向の一連の撮影領域の一部の撮影領域において、前記撮影領域の第2の回転方向の最前部に前記他のマーカ付与部により他のマーカが付与されるように前記第3のマーカ付与雲台を回転して停止させ、前記カメラ装置に撮影させる第3の制御処理と、
前記次の撮影領域の前記第2の回転方向の最終尾に前記第2のマーカが配置されるように前記第2のマーカ付与雲台を前記第2の回転方向に回転して停止させ、前記カメラ装置に撮影させる第5の制御処理と、を交互に実行することを特徴とする撮影装置。 In the imaging device according to claim 5,
A second camera head that is rotatable in a second rotation direction that is 90 degrees different from the first rotation direction together with the first camera head;
A second marker-carrying pan that is rotatable in the second rotation direction together with the first marker-carrying pan;
At least one other marker providing unit different from the marker applying unit;
A third marker attachment platform that can rotate the other marker application portion in the second rotation direction;
The controller is
In some imaging areas of the series of imaging areas in the first rotation direction imaged by the camera device, another marker is provided by the other marker applying unit at the forefront part in the second rotation direction of the imaging area. A third control process for rotating and stopping the third marker attaching pan head to be assigned, and causing the camera device to shoot,
Rotating and stopping the second marker-attached pan head in the second rotation direction so that the second marker is arranged at the final tail in the second rotation direction of the next imaging region, And a fifth control process for causing the camera device to shoot alternately.
前記複数のカメラの前記撮影領域群において隣接する撮影領域が重複する共通領域に少なくとも1つのマーカを付与する複数のマーカ付与部と、
前記複数のマーカ付与部によるマーカの付与のタイミングと前記複数のカメラによる撮影のタイミングとを制御する制御部と、を有し、
前記制御部は、
前記複数のマーカ付与部により前記マーカが付与された場合において、前記撮影領域群を前記複数のカメラに撮影させ、前記マーカが付与されていない場合において、前記撮影領域群を前記複数のカメラに撮影させることを特徴とする撮影装置。 A planar camera unit in which a plurality of cameras that shoot subjects in each imaging area are arranged in a plane;
A plurality of marker assigning units for assigning at least one marker to a common region where adjacent photographing regions overlap in the photographing region group of the plurality of cameras;
A control unit that controls the timing of marker application by the plurality of marker applying units and the timing of imaging by the plurality of cameras;
The controller is
When the markers are assigned by the plurality of marker assigning units, the imaging region group is imaged by the plurality of cameras, and when the marker is not assigned, the imaging region group is imaged by the plurality of cameras. An imaging apparatus characterized by causing the image to be captured.
前記複数のマーカ付与部は、
前記移動方向に直交する方向に配列された前記複数のカメラのうち隣接し合うカメラの各撮影領域が重なり合う共通撮影領域と、前記移動方向で前記撮影領域が重なり合う共通撮影領域との中で、3つ以上の隣接する撮影領域が重なり合う共通領域に前記マーカを付与することを特徴とする撮影装置。 In the imaging device according to claim 7,
The plurality of marker providing units are:
Among the plurality of cameras arranged in the direction orthogonal to the moving direction, among the common shooting area where the shooting areas of adjacent cameras overlap, and the common shooting area where the shooting areas overlap in the moving direction, 3 An imaging apparatus, wherein the marker is added to a common area where two or more adjacent imaging areas overlap.
前記複数のマーカ付与部は、
前記移動方向に直交する方向に配列された前記複数のカメラのうち隣接し合うカメラの各撮影領域が重なり合う共通撮影領域と、前記複数のカメラを面状に配置した複数のカメラの前記撮影領域群において隣接する撮影領域が重複する共通領域との中で、3つ以上の隣接する撮影領域が重なり合う共通領域に前記マーカを付与することを特徴とする撮影装置。 In the imaging device according to claim 7,
The plurality of marker providing units are:
Among the plurality of cameras arranged in a direction orthogonal to the moving direction, a common photographing region where the photographing regions of adjacent cameras overlap each other, and the photographing region group of the plurality of cameras in which the plurality of cameras are arranged in a plane. The marker is attached to a common area where three or more adjacent imaging areas overlap among the common areas where adjacent imaging areas overlap.
前記撮影装置は、
行方向および前記行方向に直交する列方向に配置された複数のカメラを含むカメラ装置と、
各々被写体にマーカを付与する複数のマーカ付与部を含むマーカ付与装置と、
前記複数のカメラおよび前記複数のマーカ付与部を前記行方向に移動して停止し、少なくとも前記列方向に隣接する撮影領域と前記行方向に隣接する撮影領域との間で重複する共通領域に、前記複数のマーカ付与部により前記マーカを付与した撮影領域群を前記複数のカメラで撮影することにより、前記マーカを付与した撮影領域群についての撮影画像群を記憶し、
前記画像処理装置は、
前記撮影画像群を取得する取得部と、
前記取得部によって取得された撮影画像群の各撮影画像においてマーカ像の共通の定義により一意に指定される位置の座標値をマーカ像の座標値として抽出する抽出部と、
前記抽出部によって抽出された、同一マーカについて隣接する撮影領域の撮影画像にそれぞれ含まれる第1のマーカ像の座標値と第2のマーカ像の座標値とに基づいて、前記隣接する撮影領域の撮影画像の座標系を共通化する第1の補正値を前記隣接する撮影領域の撮影画像ごとに算出する第1の算出部と、
前記撮影画像群のうち同じ行に属する行内撮影画像群の中の基準画像を行ごとに選択し、前記第1の算出部によって算出された前記隣接する撮影領域の撮影画像ごとの第1の補正値を用いて、前記行内撮影画像群の座標系を前記基準画像の画素座標系に統一することにより、前記行内撮影画像群を前記行ごとに合成し、前記列方向に隣接する前記行内撮影画像群間で共通する2つマーカのマーカ像を選択し、当該選択したマーカ像の行内統一座標値を用いた第2の補正値を前記列方向に隣接する前記行内撮影画像群間ごとに順次算出する第2の算出部と、
前記複数の前記行内撮影画像群の中で、基準となる行内統一座標系を選択し、前記第2の補正値を用いて、前記複数の行内撮影画像群の各座標系を統一させる第3の補正値を算出する第3の算出部と、
前記第3の算出部によって算出された第3の補正値を用いて、前記複数の行内撮影画像群を合成する合成部と、
を有することを特徴とする画像処理装置。 An image processing device that cooperates with a photographing device,
The imaging device
A camera device including a plurality of cameras arranged in a row direction and a column direction orthogonal to the row direction;
A marker imparting device including a plurality of marker imparting units each imparting a marker to a subject;
The plurality of cameras and the plurality of marker imparting units are moved and stopped in the row direction, and at least a common region overlapping between a photographing region adjacent to the column direction and a photographing region adjacent to the row direction, By capturing the imaging region group to which the marker is added by the plurality of marker applying units with the plurality of cameras, the captured image group for the imaging region group to which the marker is applied is stored,
The image processing apparatus includes:
An acquisition unit for acquiring the captured image group;
An extraction unit that extracts a coordinate value of a position uniquely specified by a common definition of a marker image in each captured image of the captured image group acquired by the acquisition unit, as a coordinate value of the marker image;
Based on the coordinate value of the first marker image and the coordinate value of the second marker image respectively included in the captured image of the adjacent imaging region for the same marker extracted by the extraction unit, the adjacent imaging region A first calculation unit that calculates a first correction value for sharing a coordinate system of captured images for each captured image in the adjacent imaging region;
A reference image in an in-line photographed image group belonging to the same row in the photographed image group is selected for each row, and a first correction for each photographed image in the adjacent photographing region calculated by the first calculating unit. By using the values, the coordinate system of the in-line captured image group is unified with the pixel coordinate system of the reference image, so that the in-line captured image group is synthesized for each row, and the in-line captured image adjacent in the column direction is combined. Select a marker image of two markers that are common between groups, and sequentially calculate a second correction value using the in-row unified coordinate value of the selected marker image for each in-row captured image group adjacent in the column direction. A second calculation unit that
A third in-line coordinate system is selected from the plurality of in-line captured image groups, and a third coordinate system of the plurality of in-line captured image groups is unified using the second correction value. A third calculation unit for calculating a correction value;
A synthesizing unit that synthesizes the plurality of in-line captured image groups using the third correction value calculated by the third calculating unit;
An image processing apparatus comprising:
前記合成部によって合成された合成画像から表示対象領域を選択する選択部と、
前記合成画像のうち、前記選択部によって選択された表示対象領域に含まれるいずれかの撮影画像を基準画像とし、前記抽出部によって抽出された、同一のマーカについて隣接する撮影領域の撮影画像にそれぞれ含まれる第1のマーカ像の座標値と第2のマーカ像の座標値との組み合わせと、前記撮影画像の撮影の時系列と、に基づいて、前記隣接する撮影領域の撮影画像ごとに、前記第1のマーカ像と前記第2のマーカ像とをつなぎ合わせる接合順を示すマーカルート情報を生成する生成部と、
前記生成部によって生成されたマーカルート情報に基づいて、前記基準画像から前記表示対象領域内の他の撮影画像までのルート群を設定し、前記ルート群のルートを構成する撮影画像の枚数が最小となる特定のルートを前記ルート群の中から選択し、前記特定のルートに沿って、前記特定のルートを構成する他の撮影画像の座標系を、前記基準画像の座標系に変換する第4の補正値を算出する第4の算出部と、を有し、
前記合成部は、
前記第4の算出部によって算出された第4の補正値を用いて、前記表示対象領域を合成することを特徴とする画像処理装置。 The image processing apparatus according to claim 10,
A selection unit for selecting a display target region from the synthesized image synthesized by the synthesis unit;
Among the composite images, any one of the captured images included in the display target region selected by the selection unit is set as a reference image, and each of the captured images in the adjacent shooting region extracted for the same marker is extracted by the extraction unit. Based on the combination of the coordinate value of the first marker image and the coordinate value of the second marker image included, and the time series of shooting of the shot image, for each shot image of the adjacent shooting area, A generation unit that generates marker route information indicating a joining order for connecting the first marker image and the second marker image;
Based on the marker route information generated by the generation unit, a route group from the reference image to another captured image in the display target area is set, and the number of captured images constituting the route of the route group is minimized. A specific route to be selected from the group of routes, and a coordinate system of another captured image constituting the specific route is converted into a coordinate system of the reference image along the specific route. A fourth calculation unit that calculates a correction value of
The synthesis unit is
The image processing apparatus, wherein the display target area is synthesized using the fourth correction value calculated by the fourth calculation unit.
前記撮影装置は、
行方向および前記行方向に直交する列方向に配置された複数のカメラを含むカメラ装置と、
被写体にマーカを付与する複数のマーカ付与部とマーカ付与地点の間隔または位置に関連する値を計測する計測部を含むマーカ付与装置と、
前記複数のカメラおよび前記複数のマーカ付与部を前記行方向に移動して停止させ、少なくとも前記列方向に隣接する撮影領域と前記行方向に隣接する撮影領域との間で重複する共通領域に、前記複数のマーカ付与部により前記マーカを付与した撮影領域群を前記複数のカメラに撮影させる制御部と、
前記マーカ付与装置による前記マーカの間隔または位置に関連する値を発信するマーカ位置座標関係情報発信部を有し、
前記画像処理装置は、
前記撮影装置によって撮影された前記撮影領域群と前記マーカ位置座標関係情報と取得する取得部と、
前記取得部によって取得された撮影画像群の各撮影画像において前記マーカの画像であるマーカ像を構成する画素集合に基づいて、前記各撮影画像から前記マーカ像の座標値を抽出する抽出部と、
前記撮影画像の撮影の時系列にそって前記マーカ位置座標関係情報に含まれる前記マーカのマーカ位置座標値またはマーカ間隔情報から導出した前記マーカのマーカ位置座標値に対応する前記マーカ像の座標値を特定し、前記マーカ像の座標値を前記マーカ位置座標値に変換する補正値を算出する算出部と、
前記算出部によって算出された補正値を用いて、前記複数の撮影画像群を合成する合成部と、
を有することを特徴とする画像処理装置。 An image processing device that cooperates with a photographing device,
The imaging device
A camera device including a plurality of cameras arranged in a row direction and a column direction orthogonal to the row direction;
A marker applying device including a plurality of marker applying units for applying a marker to a subject and a measuring unit for measuring a value related to the interval or position between the marker applying points;
The plurality of cameras and the plurality of marker imparting units are moved and stopped in the row direction, and at least a common region overlapping between a photographing region adjacent to the column direction and a photographing region adjacent to the row direction, A control unit that causes the plurality of cameras to shoot the imaging region group to which the marker is added by the plurality of marker applying units;
A marker position coordinate relationship information transmission unit for transmitting a value related to the interval or position of the marker by the marker applying device;
The image processing apparatus includes:
An acquisition unit that acquires the imaging region group and the marker position coordinate relationship information captured by the imaging device;
An extraction unit that extracts a coordinate value of the marker image from each captured image based on a pixel set that constitutes a marker image that is an image of the marker in each captured image of the captured image group acquired by the acquisition unit;
The coordinate value of the marker image corresponding to the marker position coordinate value of the marker derived from the marker position coordinate value of the marker or marker interval information included in the marker position coordinate relationship information along the time series of shooting of the captured image And calculating a correction value for converting the coordinate value of the marker image into the marker position coordinate value;
A combining unit that combines the plurality of captured image groups using the correction value calculated by the calculating unit;
An image processing apparatus comprising:
前記合成部は、
同一の撮影領域について前記マーカのマーカ像が存在する第1の撮影画像と前記マーカ像が存在しない第2の撮影画像とがある場合には、前記第2の撮影画像で隣接する撮影領域の撮影画像を合成することを特徴とする画像処理装置。 In the image processing device according to any one of claims 10 to 12,
The synthesis unit is
When there is a first photographed image in which the marker image of the marker exists and a second photographed image in which the marker image does not exist for the same photographing region, photographing of the photographing regions adjacent to each other in the second photographed image An image processing apparatus characterized by combining images.
前記合成部は、
前記複数の撮影画像群の各撮影画像群において、同一の撮影領域について前記行方向の後方側に前記マーカのマーカ像が存在する第1の撮影画像と前記マーカ像が存在しない第2の撮影画像とがある場合には、前記第2の撮影画像を採用し、同一の撮影領域について前記第1の撮影画像と前記行方向の前方側に前記マーカのマーカ像が存在する第3の撮影画像とがある場合には、前記第3の撮影画像を採用し、前記補正値を用いて、採用された撮影画像群を、撮影順序の遅い方の撮影画像が撮影順序の早い方の撮影画像に重なるように合成することを特徴とする画像処理装置。 In the image processing device according to any one of claims 10 to 12,
The synthesis unit is
In each photographed image group of the plurality of photographed image groups, a first photographed image in which the marker image of the marker exists on the rear side in the row direction and a second photographed image in which the marker image does not exist in the same photographing region. The second photographed image is adopted, and the first photographed image and the third photographed image in which the marker image of the marker exists on the front side in the row direction for the same photographing region, If there is, the third photographed image is adopted, and using the correction value, the adopted photographed image group is overlapped with the photographed image having the slower photographing order on the photographed image having the earlier photographing order. An image processing apparatus characterized by combining the images as described above.
前記合成部は、
前記複数の撮影画像群の各撮影画像群において、同一の撮影領域について前記行方向の前方側に前記マーカのマーカ像が存在する第1の撮影画像と前記マーカ像が存在しない第2の撮影画像とがある場合には、前記第2の撮影画像を採用し、同一の撮影領域について前記第1の撮影画像と前記行方向の後方側に前記マーカのマーカ像が存在する第3の撮影画像とがある場合には、前記第3の撮影画像を採用し、前記補正値を用いて、採用された撮影画像群を、撮影順序の早い方の撮影画像が撮影順序の遅い方の撮影画像に重なるように合成することを特徴とする画像処理装置。 In the image processing device according to any one of claims 10 to 12,
The synthesis unit is
In each captured image group of the plurality of captured image groups, a first captured image in which the marker image of the marker exists on the front side in the row direction and a second captured image in which the marker image does not exist in the same captured area. When the second captured image is used, the first captured image and the third captured image in which the marker image of the marker exists on the rear side in the row direction for the same captured area If there is, the third photographed image is adopted, and using the correction value, the adopted photographed image group overlaps the photographed image with the earlier photographing order with the photographed image with the later photographing order. An image processing apparatus characterized by combining the images as described above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015088279A JP2016208294A (en) | 2015-04-23 | 2015-04-23 | Multiple-image photographing system, photographing apparatus, and image processing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015088279A JP2016208294A (en) | 2015-04-23 | 2015-04-23 | Multiple-image photographing system, photographing apparatus, and image processing apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016208294A true JP2016208294A (en) | 2016-12-08 |
Family
ID=57488081
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015088279A Pending JP2016208294A (en) | 2015-04-23 | 2015-04-23 | Multiple-image photographing system, photographing apparatus, and image processing apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016208294A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022534699A (en) * | 2019-05-23 | 2022-08-03 | プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング | Track construction machine and method for compacting track |
| JP2022540351A (en) * | 2019-06-24 | 2022-09-15 | サークル オプティクス,インコーポレイテッド | Optomechanics of a panoramic capture device with adjacent cameras |
| CN115273268A (en) * | 2022-07-27 | 2022-11-01 | 中建三局集团有限公司 | Large-scene construction site inspection method based on tower crane carrying zoom camera |
| US12332549B2 (en) | 2019-12-23 | 2025-06-17 | Circle Optics, Inc. | Mounting systems for multi-camera imagers |
-
2015
- 2015-04-23 JP JP2015088279A patent/JP2016208294A/en active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022534699A (en) * | 2019-05-23 | 2022-08-03 | プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング | Track construction machine and method for compacting track |
| JP7680964B2 (en) | 2019-05-23 | 2025-05-21 | プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング | Track construction machine and method for compacting tracks |
| JP2022540351A (en) * | 2019-06-24 | 2022-09-15 | サークル オプティクス,インコーポレイテッド | Optomechanics of a panoramic capture device with adjacent cameras |
| US12092800B2 (en) | 2019-06-24 | 2024-09-17 | Circle Optics, Inc. | Opto-mechanics of panoramic capture devices with abutting cameras |
| US12287465B2 (en) | 2019-06-24 | 2025-04-29 | Circle Optics, Inc. | Multi-camera panoramic image capture devices with a faceted dome |
| US12313825B2 (en) | 2019-06-24 | 2025-05-27 | Circle Optics, Inc. | Lens design for low parallax panoramic camera systems |
| JP7695207B2 (en) | 2019-06-24 | 2025-06-18 | サークル オプティクス,インコーポレイテッド | Optomechanics of a panoramic acquisition system with adjacent cameras |
| US12332549B2 (en) | 2019-12-23 | 2025-06-17 | Circle Optics, Inc. | Mounting systems for multi-camera imagers |
| CN115273268A (en) * | 2022-07-27 | 2022-11-01 | 中建三局集团有限公司 | Large-scene construction site inspection method based on tower crane carrying zoom camera |
| CN115273268B (en) * | 2022-07-27 | 2023-05-19 | 中建三局集团有限公司 | Large-scene construction site inspection method based on tower crane equipped with zoom camera |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6091923B2 (en) | Multi-camera photographing apparatus and multi-camera photographing method | |
| CA2946801C (en) | 3d data in underwater surveys | |
| US10171802B2 (en) | Calibration method and calibration device | |
| US8717361B2 (en) | Method for generating orthophoto image | |
| US20120147224A1 (en) | Imaging apparatus | |
| JP2016208294A (en) | Multiple-image photographing system, photographing apparatus, and image processing apparatus | |
| JP6574845B2 (en) | Drawing creating apparatus and drawing creating method | |
| JP5762525B2 (en) | Image processing method and thermal image camera | |
| JP2017034576A (en) | Image photographing system, photographing device, and image processing device | |
| CN112415010B (en) | Imaging detection method and system | |
| JP6788915B2 (en) | 3D laser scanner, 3D laser scanner system, construction work machine and construction method | |
| TWI448681B (en) | A method and an apparatus for simultaneous 2d and 3d optical inspection and acquisition of optical inspection data of an object | |
| US20190324261A1 (en) | Endoscope device | |
| JP2009156704A (en) | Display panel brightness measuring device, brightness measuring method, and display device | |
| KR101801100B1 (en) | Video providing apparatus and method for supporting production of immersive contents | |
| JP2014212462A (en) | Imaging device | |
| JP2010032282A (en) | Method and system for measuring three-dimensional position of marker | |
| JP2016024516A (en) | Movable multiple image pick-up apparatus | |
| JP2017101965A (en) | Device | |
| JP7216994B2 (en) | Existing survey map creation system, method and program | |
| JP5227883B2 (en) | Composite video generation system, lighting control device, and program | |
| JP5364982B2 (en) | Information processing system | |
| WO2018070354A1 (en) | Image-capturing plan generation device, image-capturing plan generation method, and program | |
| KR101671936B1 (en) | Method and device for automatically generating and projecting multi-surface images | |
| JP2018124092A (en) | Structure diagnosis method |