[go: up one dir, main page]

JP2021069032A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2021069032A
JP2021069032A JP2019193712A JP2019193712A JP2021069032A JP 2021069032 A JP2021069032 A JP 2021069032A JP 2019193712 A JP2019193712 A JP 2019193712A JP 2019193712 A JP2019193712 A JP 2019193712A JP 2021069032 A JP2021069032 A JP 2021069032A
Authority
JP
Japan
Prior art keywords
image
camera
resolution
images
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019193712A
Other languages
Japanese (ja)
Other versions
JP7393179B2 (en
Inventor
福井 基文
Motofumi Fukui
基文 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2019193712A priority Critical patent/JP7393179B2/en
Publication of JP2021069032A publication Critical patent/JP2021069032A/en
Application granted granted Critical
Publication of JP7393179B2 publication Critical patent/JP7393179B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】狭隘部に適した撮影装置を提供する。【解決手段】撮影装置100は、狭隘部の側方の正面視画像を生成する。カメラ110は、狭隘部を奥行き方向に移動しながら撮影する。画像処理部120は、学習済みモデル122を有する。学習済みモデルは、注視部分とカメラが相対的に遠いときのカメラの画像における注視部分の像と、注視部分とカメラが相対的に近いときのカメラの画像における注視部分の像との相関から導かれる。実動作中に、画像処理部は、カメラから順次出力されるカメラ画像にもとづいて、正面視画像を生成する。【選択図】図2PROBLEM TO BE SOLVED: To provide a photographing device suitable for a narrow portion. An imaging device 100 generates a side view image of a narrow portion. The camera 110 shoots while moving the narrow portion in the depth direction. The image processing unit 120 has a trained model 122. The trained model is derived from the correlation between the image of the gaze part in the camera image when the gaze part and the camera are relatively far from each other and the image of the gaze part in the camera image when the gaze part and the camera are relatively close to each other. It will be taken. During the actual operation, the image processing unit generates a front view image based on the camera images sequentially output from the camera. [Selection diagram] Fig. 2

Description

本発明は、狭隘部に適した撮影装置に関する。 The present invention relates to a photographing device suitable for a narrow portion.

トンネルや狭い路地、室内、狭い凹部を有する構造物、間隔が狭い2枚の壁に挟まれた空間をはじめとする狭隘部において、その周辺や内部構造(以下、被写体という)を撮影したい場合がある。狭隘部においては、カメラと被写体との距離を十分にとることができないため、カメラと被写体とを正対させると、広角なレンズを用いた場合であっても、被写体の一部分がカメラに写らない状況が生じうる。 In narrow areas such as tunnels, narrow alleys, indoors, structures with narrow recesses, and spaces sandwiched between two narrow walls, you may want to photograph the surroundings and internal structure (hereinafter referred to as the subject). is there. In a narrow area, it is not possible to keep a sufficient distance between the camera and the subject, so if the camera and the subject are facing each other, even if a wide-angle lens is used, a part of the subject will not be captured by the camera. Situations can occur.

特許文献8には、被写体に沿ってカメラを移動しながら、被写体を近くで斜め方向から撮影し、撮影画像から被写体を含む部分をクロップし、正面から撮影した画像に変換し、変換後の画像を、走査方向にならって順に繋げて合成する技術が開示される。この手法によれば、カメラを被写体に正対させた場合に比べて視野を広くすることができる。 In Patent Document 8, while moving the camera along the subject, the subject is photographed from an oblique direction nearby, a portion including the subject is cropped from the photographed image, converted into an image photographed from the front, and the converted image is obtained. Disclosed is a technique for synthesizing images by connecting them in order according to the scanning direction. According to this method, the field of view can be widened as compared with the case where the camera faces the subject.

特開2004−312549号公報Japanese Unexamined Patent Publication No. 2004-31549 国際公開WO08/102898号公報International Publication WO08 / 102898 特開2007−323616号公報Japanese Unexamined Patent Publication No. 2007-323616 特開2010−073035号公報Japanese Unexamined Patent Publication No. 2010-073035 特開2012−022652号公報Japanese Unexamined Patent Publication No. 2012-022652 特開2012−109737号公報Japanese Unexamined Patent Publication No. 2012-109737 特開2013−250891号公報Japanese Unexamined Patent Publication No. 2013-250891 特開2011−126989号公報Japanese Unexamined Patent Publication No. 2011-126998

R. Timofte, V.D. Smet, and L. V. Gool., "A+: Adjusted Anchored Neighborhood Regression for Fast Super-Resolution. ACCV, 2014"R. Timofte, V.D. Smet, and L. V. Gool., "A +: Adjusted Anchored Neighborhood Regression for Fast Super-Resolution. ACCV, 2014" C. Dong, C. C. Loy, K. He, and X. Tang. "Image Super-Resolution Using Deep Convolutional Networks", TPAMI, 2016C. Dong, C. C. Loy, K. He, and X. Tang. "Image Super-Resolution Using Deep Convolutional Networks", TPAMI, 2016

特許文献8に記載の技術であっても、高さ方向の撮影範囲が十分でない状況が生じうる。この問題を解決するアプローチとして、カメラを高さ方向(ピッチング方向)にチルトさせながら撮影を行い、複数の画像を合成する方法が考えられる。しかしながらこの方法では、カメラをチルトさせる必要があるため、撮影装置全体が構造的に複雑となる。また、複数回の撮影が必要となるため、時間がかかる。 Even with the technique described in Patent Document 8, a situation may occur in which the imaging range in the height direction is not sufficient. As an approach to solve this problem, a method of taking a picture while tilting the camera in the height direction (pitching direction) and synthesizing a plurality of images can be considered. However, in this method, since it is necessary to tilt the camera, the entire photographing apparatus becomes structurally complicated. In addition, it takes time because multiple shootings are required.

この問題を解決する別のアプローチとして、異なる方向を向いた、あるいは高さが異なる位置に配置された複数のカメラを設けて撮影する方法が考えられる。しかしながらこの場合、複数のカメラが必要となるため、システムが複雑化し、またコストが高くなる。 As another approach to solve this problem, it is conceivable to provide a plurality of cameras facing different directions or arranged at different heights for shooting. However, in this case, since a plurality of cameras are required, the system becomes complicated and the cost increases.

本発明は係る課題に鑑みてなされたものであり、そのある態様の例示的な目的のひとつは、狭隘部に適した撮影装置の提供にある。 The present invention has been made in view of the above problems, and one of the exemplary purposes of the present invention is to provide a photographing device suitable for a narrow portion.

本発明のある態様は、狭隘部の側方の正面視画像を生成する撮影装置に関する。撮影装置は、狭隘部を奥行き方向に移動しながら撮影するカメラと、注視部分とカメラが相対的に遠いときのカメラの画像における注視部分の像と、注視部分とカメラが相対的に近いときのカメラの画像における注視部分の像との相関から導かれた学習済みモデルを有しており、実動作中に、カメラから順次出力されるカメラ画像にもとづいて、正面視画像を生成する画像処理部と、を備える。 One aspect of the present invention relates to a photographing device that generates a lateral front view image of a narrow portion. The photographing device includes a camera that shoots while moving the narrow part in the depth direction, an image of the gaze part in the image of the camera when the gaze part and the camera are relatively far from each other, and when the gaze part and the camera are relatively close to each other. It has a trained model derived from the correlation with the image of the gaze part in the camera image, and is an image processing unit that generates a front view image based on the camera images sequentially output from the camera during actual operation. And.

画像処理部は、カメラ画像から所定領域をクロップし、クロップした画像を学習済みモデルに入力して高解像度画像を生成し、カメラの移動にともない順次生成される高解像度画像を合成し、正面視画像を生成してもよい。 The image processing unit crops a predetermined area from the camera image, inputs the cropped image to the trained model to generate a high-resolution image, synthesizes the high-resolution images sequentially generated as the camera moves, and views the front view. An image may be generated.

画像処理部は、異なる時刻において撮影されたカメラ画像のペアの一方に含まれ、他方に含まれない第1領域をクロップし、クロップした画像を学習済みモデルに入力して高解像度部分画像を生成し、高解像度部分画像を、カメラ画像のペアの他方の第2領域の画像と結合して、高解像度画像を生成し、カメラの移動にともない順次生成される高解像度画像を合成し、正面視画像を生成してもよい。 The image processing unit crops a first region that is included in one of the pair of camera images taken at different times and is not included in the other, and inputs the cropped image to the trained model to generate a high resolution partial image. Then, the high-resolution partial image is combined with the image of the other second region of the pair of camera images to generate a high-resolution image, and the high-resolution images sequentially generated as the camera is moved are combined for front view. An image may be generated.

画像処理部は、異なる時刻において撮影された複数のカメラ画像を含む画像セットにもとづいて高解像度画像を生成してもよい。 The image processing unit may generate a high resolution image based on an image set including a plurality of camera images taken at different times.

画像セットに含まれる複数のカメラ画像それぞれについて、異なる位置に所定領域が定められており、画像処理部は、各カメラ画像から対応する所定領域をクロップし、クロップした画像を学習済みモデルに入力して高解像度中間画像を生成し、複数のカメラ画像について得られた複数の高解像度中間画像を合成して、高解像度画像を生成してもよい。 A predetermined area is defined at a different position for each of the plurality of camera images included in the image set, and the image processing unit crops the corresponding predetermined area from each camera image and inputs the cropped image to the trained model. A high-resolution intermediate image may be generated, and a plurality of high-resolution intermediate images obtained for a plurality of camera images may be combined to generate a high-resolution image.

高解像度画像は、ベクトルデータであってもよい。 The high resolution image may be vector data.

なお、以上の構成要素の任意の組み合わせや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components or components and expressions of the present invention that are mutually replaced between methods, devices, systems, and the like are also effective as aspects of the present invention.

本発明によれば、狭隘部に適した撮影装置を提供できる。 According to the present invention, it is possible to provide a photographing device suitable for a narrow portion.

図1(a)は、実施の形態に係る撮影装置の撮影対象を説明する図であり、図1(b)は、撮影装置の出力である最終画像を示す図である。FIG. 1A is a diagram for explaining a photographing target of the photographing apparatus according to the embodiment, and FIG. 1B is a diagram showing a final image which is an output of the photographing apparatus. 実施の形態に係る撮影装置のブロック図である。It is a block diagram of the photographing apparatus which concerns on embodiment. 図3(a)は、カメラの移動を説明する図であり、図3(b)、(c)は、図3(a)のカメラの視点A,Bにおいて得られる2枚の画像IMG_A,IMG_Bを示す図である。FIG. 3A is a diagram illustrating the movement of the camera, and FIGS. 3B and 3C are two images IMG_A and IMG_B obtained from the viewpoints A and B of the camera of FIG. 3A. It is a figure which shows. 図4(a)、(b)は、第1比較技術および第2比較技術において得られる正面視画像を示す図である。4 (a) and 4 (b) are views showing front view images obtained in the first comparative technique and the second comparative technique. 学習を説明する図である。It is a figure explaining learning. 図6(a)、(b)は、超解像処理を説明する図である。6 (a) and 6 (b) are diagrams for explaining super-resolution processing. 図7(a)〜(c)は、撮影装置の動作を説明する図である。7 (a) to 7 (c) are diagrams for explaining the operation of the photographing apparatus. 実施例に係る撮影装置のブロック図である。It is a block diagram of the photographing apparatus which concerns on Example. 図9(a)、(b)は、正面視画像合成部の処理を説明する図である。9 (a) and 9 (b) are views for explaining the processing of the front view image synthesizing unit. ディスプレイのユーザインタフェースを示す図である。It is a figure which shows the user interface of a display. 変形例1に係る超解像処理を説明する図である。It is a figure explaining the super-resolution processing which concerns on modification 1. FIG. 変形例2に係る超解像処理を説明する図である。It is a figure explaining the super-resolution processing which concerns on modification 2.

以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 Hereinafter, the present invention will be described with reference to the drawings based on preferred embodiments. The same or equivalent components, members, and processes shown in the drawings shall be designated by the same reference numerals, and redundant description will be omitted as appropriate. Further, the embodiment is not limited to the invention but is an example, and all the features and combinations thereof described in the embodiment are not necessarily essential to the invention.

図1(a)は、実施の形態に係る撮影装置100の撮影対象を説明する図である。撮影装置100の撮影対象は狭隘部2(この例では道路)の側方である。撮影装置100は、狭隘部2を奥行き方向に進行しながら、両側あるいは片側を撮影する。以下では、説明の簡潔化と理解の容易化のため、撮影装置100の左側方に着目して説明する。 FIG. 1A is a diagram illustrating a photographing target of the photographing apparatus 100 according to the embodiment. The photographing target of the photographing device 100 is the side of the narrow portion 2 (the road in this example). The photographing device 100 photographs both sides or one side while advancing through the narrow portion 2 in the depth direction. In the following, in order to simplify the explanation and facilitate understanding, the left side of the photographing apparatus 100 will be focused on.

図1(b)は、撮影装置100の出力である最終画像IMGfを示す図である。最終画像IMGfは、狭隘部の側方(ここでは左側方)の正面視画像であり、狭隘部2の左側に存在する複数の物体OBJ1〜OBJ3が含まれている。 FIG. 1B is a diagram showing a final image IMGf which is an output of the photographing apparatus 100. The final image IMGf is a front view image of the side of the narrow portion (here, the left side), and includes a plurality of objects OBJ1 to OBJ3 existing on the left side of the narrow portion 2.

図2は、実施の形態に係る撮影装置100のブロック図である。撮影装置100は、カメラ110および画像処理部120を備える。カメラ110は、撮影装置100の進行方向正面に向けられている。あるいは左側方のみを測定する場合には、カメラ110は左側にわずかに傾けて配置してもよい。 FIG. 2 is a block diagram of the photographing apparatus 100 according to the embodiment. The photographing device 100 includes a camera 110 and an image processing unit 120. The camera 110 is directed to the front of the photographing device 100 in the traveling direction. Alternatively, when measuring only the left side, the camera 110 may be arranged at a slight inclination to the left side.

カメラ110は、狭隘部を奥行き方向に移動しながら、連続的に撮影を行う。カメラ110は、スチルカメラであってもよいし、ビデオカメラであってもよい。 The camera 110 continuously shoots while moving in the narrow portion in the depth direction. The camera 110 may be a still camera or a video camera.

図3(a)は、カメラの移動を説明する図である。図3(a)には、狭隘部2を横から見た様子が示される。図3(b)、(c)は、図3(a)のカメラの視点A,Bにおいて得られる2枚のカメラ画像IMG_A,IMG_Bを示す図である。 FIG. 3A is a diagram illustrating the movement of the camera. FIG. 3A shows a state in which the narrow portion 2 is viewed from the side. 3 (b) and 3 (c) are diagrams showing two camera images IMG_A and IMG_B obtained at the viewpoints A and B of the camera of FIG. 3 (a).

中央の物体OBJ2(この例ではビル)に着目する。手前側の視点Aから写した画像IMG_Aには、物体OBJ2の正面の全体が写っているが、そのサイズは小さいため、物体OBJ2の解像度は低いといえる。 Focus on the central object OBJ2 (building in this example). The entire front surface of the object OBJ2 is shown in the image IMG_A taken from the viewpoint A on the front side, but since the size is small, it can be said that the resolution of the object OBJ2 is low.

より被写体である物体OBJ2に近い視点Bから写した画像IMG_Bには、物体OBJ2が、画像IMG_Aよりも大きく、その細部まで高解像度で写っている。ただし物体OBJ2の正面の全体は写っていない。 In the image IMG_B taken from the viewpoint B closer to the object OBJ2 which is the subject, the object OBJ2 is larger than the image IMG_A, and the details thereof are shown in high resolution. However, the entire front of the object OBJ2 is not shown.

実施の形態に係る撮影装置100の画像処理を説明する前に、いくつかの比較技術を説明する。 Before explaining the image processing of the photographing apparatus 100 according to the embodiment, some comparative techniques will be described.

第1比較技術では、被写体(注視部分)に近い位置で撮影した画像から、当該被写体を含む領域(図3(b)、(c)の領域RGN1)をクロップして、それを正面視変換して合成する。図4(a)は、第1比較技術において得られる正面視画像を示す図である。第1比較技術では、高解像度な正面視画像を得ることができるが、被写体の上側が欠けることとなる。 In the first comparative technique, an area including the subject (area RGN1 in FIGS. 3B and 3C) is cropped from an image taken at a position close to the subject (gaze portion), and the area is converted to front view. And synthesize. FIG. 4A is a diagram showing a front view image obtained in the first comparative technique. In the first comparison technique, a high-resolution front-view image can be obtained, but the upper side of the subject is chipped.

第2比較技術では、被写体から遠い位置で撮影した画像から、被写体の全体が写っている領域(図3(b),(c)の領域RGN2)をクロップして、それを正面視変換して、合成する。図4(b)は、第2比較技術において得られる正面視画像を示す図である。第2比較技術では、被写体の正面の全体を観察できるが、正面視変換により画像が引き伸ばされるため解像度が低下し、ピンボケのようにエッジや輪郭が滲んで見える。 In the second comparison technique, the area (area RGN2 in FIGS. 3B and 3C) in which the entire subject is captured is cropped from the image taken at a position far from the subject, and the area is converted to front view. , Synthesize. FIG. 4B is a diagram showing a front view image obtained in the second comparative technique. In the second comparison technique, the entire front surface of the subject can be observed, but the image is stretched by the front view conversion, so that the resolution is lowered and the edges and contours appear blurred like out-of-focus.

図2に戻り、本実施の形態における画像処理について説明する。画像処理部120は、カメラ110の出力にもとづいて最終画像IMGfを生成する。画像処理部120は、CPU(Central Processing Unit)などの演算処理手段と、ソフトウェアプログラムの組み合わせで実装することができる。 Returning to FIG. 2, the image processing in the present embodiment will be described. The image processing unit 120 generates the final image IMGf based on the output of the camera 110. The image processing unit 120 can be implemented by combining a calculation processing means such as a CPU (Central Processing Unit) and a software program.

画像処理部120には、機械学習によって予め生成された学習済みモデル122が実装される。学習済みモデル122の機械学習について説明する。学習済みモデル122は、画像の超解像処理に利用される。 A trained model 122 generated in advance by machine learning is mounted on the image processing unit 120. The machine learning of the trained model 122 will be described. The trained model 122 is used for super-resolution processing of an image.

超解像処理は、学習データを必要としない古典的な手法(たとえばbilinear法、Lanczos法)などを用いてもよいが、その場合、精度が問題となる。そこで本実施の形態では、非特許文献1に開示されるA+法や、非特許文献2に開示されるSRCNN法などの、学習ベースの手法を採用するものとする。A+法は、学習データから、スパース辞書と呼ばれる学習モデルを構築する手法である。SRCNN法は、深層学習を使った手法である。学習画像としては、汎用コーパスを用いてもよいし、独自に用意してよい。学習済みモデル122の学習には、低解像度画像と高解像度画像のペアが必要となるが、しばしば用いられるのが、高解像度画像とそれを上述の古典的手法を用いて低解像度化した画像である。低解像度画像に対応する高解像度画像の拡大率は事前に定めた値(仮にrとする)を用いる。 For the super-resolution processing, a classical method that does not require training data (for example, the bilinear method or the Lanczos method) may be used, but in that case, accuracy becomes a problem. Therefore, in the present embodiment, a learning-based method such as the A + method disclosed in Non-Patent Document 1 and the SRCNN method disclosed in Non-Patent Document 2 will be adopted. The A + method is a method of constructing a learning model called a sparse dictionary from learning data. The SRCNN method is a method using deep learning. As the learning image, a general-purpose corpus may be used, or a general-purpose corpus may be prepared independently. Training of the trained model 122 requires a pair of low-resolution images and high-resolution images, but it is often used for high-resolution images and images that have been reduced in resolution using the classical method described above. is there. A predetermined value (assumed to be r) is used as the enlargement ratio of the high-resolution image corresponding to the low-resolution image.

一方、学習データとして、撮影装置100が使用される環境、あるいはそれと近い環境で入手した画像を用いることもできる。図5は、学習を説明する図である。学習段階において、カメラ110を移動させながら複数のサンプル画像SIを撮影する。このサンプル画像SIが、学習データとして使用される。狭隘部に存在するある物体あるいは部分(注視部分という)は、異なる位置から撮影された複数のサンプル画像に、異なるサイズで異なる位置に写る。 On the other hand, as the learning data, an image obtained in an environment in which the photographing apparatus 100 is used or an environment close thereto can be used. FIG. 5 is a diagram illustrating learning. In the learning stage, a plurality of sample image SIs are taken while moving the camera 110. This sample image SI is used as training data. An object or part (called a gaze part) existing in a narrow part appears in a plurality of sample images taken from different positions in different sizes and in different positions.

図5において、XとY(#=1,2,…)は、同じ注視部分を含む領域を表している。ある注視部分に着目したときに、注視部分とカメラが相対的に遠いときのサンプル画像を第1画像と称する。また同じ注視部分とカメラが相対的に遠いときのサンプル画像を第2画像と称する。学習済みモデルは、第1画像における注視部分の像Xと、第2画像における注視部分の像Yの相関にもとづいて導かれる。像Xは、注視部分の広範囲かつ低解像度な画像であり、像Yは、注視部分の狭範囲かつ、高解像な画像である。学習済みモデル122は、XからYへの変換処理を実行するものと把握できる。この変換処理を写像fで表す。
=f(X
上述のように、像X、Yのペアは、幅が1ピクセルの一次元画像(ベクトル)であってもよい。この場合、像Yの高さ(ピクセル数)は、像Xの高さ(ピクセル数)のr倍である。
In FIG. 5, X # and Y # (# = 1, 2, ...) Represent a region including the same gaze portion. When focusing on a certain gaze portion, a sample image when the gaze portion and the camera are relatively far from each other is referred to as a first image. Further, a sample image when the same gaze portion and the camera are relatively far from each other is referred to as a second image. The trained model is derived based on the correlation between the image X # of the gaze portion in the first image and the image Y # of the gaze portion in the second image. Image X # is a wide-range, low-resolution image of the gaze portion, and image Y # is a narrow-range, high-resolution image of the gaze portion. The trained model 122 can be grasped as executing the conversion process from X to Y. This conversion process is represented by a map f.
Y # = f (X # )
As described above, the pair of images X # and Y # may be a one-dimensional image (vector) having a width of 1 pixel. In this case, the height (number of pixels) of the image Y # is r times the height (number of pixels) of the image X #.

像X、Yのペアを、幅が2ピクセル以上の二次元画像とする場合、それらの形状は異なっていてもよい。なぜならカメラの光学系によって同じ被写体までの距離や位置に応じてパースが付くため、それらの形状は異なって撮影されるからである。 When the pair of images X # and Y # is a two-dimensional image having a width of 2 pixels or more, their shapes may be different. This is because, depending on the optical system of the camera, perspectives are added according to the distance and position to the same subject, so their shapes are photographed differently.

複数のサンプル画像から、複数の注視部分それぞれについて、像XとYのペアを学習器に入力することにより、学習済みモデルとして、変換器Y=f(X)を得ることができる。画像処理部120においては、超解像処理に加えて、デノイジング処理を施してもよい。 From a plurality of sample images, a converter Y = f (X) can be obtained as a trained model by inputting a pair of images X # and Y # into the learner for each of the plurality of gaze portions. In the image processing unit 120, a denoising process may be performed in addition to the super-resolution process.

図2に戻る。画像処理部120は、撮影装置100の動作中に、カメラ110の出力画像から、所定領域をクロップし、所定領域に含まれる低解像度画像を、学習済みモデルである変換器に入力する。その結果、所定領域全体を超解像処理した画像(高解像度画像)が得られる。図6(a)、(b)は、超解像処理を説明する図である。図6(a)は、一次元の低解像度画像IMGlを入力する場合を示す。高解像度画像IMGhは、カメラの位置が、注視部分に近づいたときに得られる画像を推定したものと把握でき、その高さh’は、低解像度画像IMGlの高さhのr倍(r>1)である。 Return to FIG. During the operation of the photographing device 100, the image processing unit 120 crops a predetermined area from the output image of the camera 110, and inputs the low resolution image included in the predetermined area to the converter which is the trained model. As a result, an image (high resolution image) obtained by super-resolution processing the entire predetermined region can be obtained. 6 (a) and 6 (b) are diagrams for explaining super-resolution processing. FIG. 6A shows a case where a one-dimensional low-resolution image IMGl is input. The high-resolution image IMGh can be grasped as an estimate of the image obtained when the camera position approaches the gaze portion, and its height h'is r times the height h of the low-resolution image IMGl (r>. 1).

図6(b)は、二次元の低解像度画像を入力する場合であり、高解像度画像IMGhの高さh’は、低解像度画像IMGlの高さhのr倍である。高解像度画像IMGhの幅w’は、低解像度画像IMGlの幅wと等しくてもよいし、それより大きくてもよい。 FIG. 6B shows a case where a two-dimensional low-resolution image is input, and the height h'of the high-resolution image IMGh is r times the height h of the low-resolution image IMGl. The width w'of the high-resolution image IMGh may be equal to or larger than the width w of the low-resolution image IMGl.

図2に戻る。画像処理部120は、カメラ110の移動にともなって順次生成される高解像度画像を結合し、正面視画像である最終画像IMGfを生成する。 Return to FIG. The image processing unit 120 combines the high-resolution images sequentially generated with the movement of the camera 110 to generate the final image IMGf which is a front view image.

以上が撮影装置100の構成である。続いてその動作を説明する。図7(a)〜(c)は、撮影装置100の動作を説明する図である。図7(a)は、ある時刻において得られたカメラ110の出力画像を示す。画像処理部120は、図7(a)の画像の中から、所定領域RGNcを抽出する。この例では、所定領域RGNcの横幅は2ピクセル以上であり、クロップされる低解像度画像は、二次元画像データであるが、所定領域RGNcの横幅を1ピクセルとして、低解像度画像を一次元ベクトルデータとしてもよい。 The above is the configuration of the photographing device 100. Next, the operation will be described. 7 (a) to 7 (c) are diagrams for explaining the operation of the photographing apparatus 100. FIG. 7A shows an output image of the camera 110 obtained at a certain time. The image processing unit 120 extracts a predetermined region RGNc from the image of FIG. 7A. In this example, the width of the predetermined area RGNc is 2 pixels or more, and the cropped low-resolution image is two-dimensional image data. However, the width of the predetermined area RGNc is one pixel, and the low-resolution image is one-dimensional vector data. May be.

図7(b)は、領域RGNc内の画像データを、学習済みモデル122に入力して得られる高解像度画像IMGhを示す。比較のために、図3(c)の画像IMG_Bのフレームを一点鎖線で示す。この高解像度画像IMGhは、画像IMG_Bのフレームからはみ出した部分についても、ディテールが豊富である。 FIG. 7B shows a high-resolution image IMGh obtained by inputting the image data in the region RGNc into the trained model 122. For comparison, the frame of the image IMG_B in FIG. 3 (c) is shown as an alternate long and short dash line. This high-resolution image IMGh has abundant details even in the portion protruding from the frame of the image IMG_B.

図7(c)は、図7(b)の高解像度画像IMGhを、正面視変換した画像IMGgを示す。図7(a)〜(c)の処理を、カメラの位置を変えながら、言い換えると異なる時刻において得られたカメラ画像に対して繰り返すことで、複数の正面視高解像度画像IMGgが生成される。そしてそれらを結合することにより、図1(b)の最終画像IMGfを得ることができる。 FIG. 7 (c) shows an image IMGg obtained by converting the high-resolution image IMGh of FIG. 7 (b) into a front view. By repeating the processes of FIGS. 7 (a) to 7 (c) with respect to the camera images obtained at different times while changing the position of the camera, a plurality of front-view high-resolution images IMGg are generated. Then, by combining them, the final image IMGf of FIG. 1 (b) can be obtained.

続いて、撮影装置100の具体的な構成を、実施例を参照して説明する。 Subsequently, a specific configuration of the photographing apparatus 100 will be described with reference to Examples.

図8は、実施例に係る撮影装置200のブロック図である。撮影装置200は、画像撮影部202、入力画像決定部204、鮮明化処理部206、正面視画像合成部208、画像出力部210を備える。 FIG. 8 is a block diagram of the photographing apparatus 200 according to the embodiment. The photographing device 200 includes an image photographing unit 202, an input image determining unit 204, a sharpening processing unit 206, a front view image synthesizing unit 208, and an image output unit 210.

入力画像決定部204は、画像の取得手段であり、図2のカメラ110に対応する。入力画像決定部204は、カメラと、カメラを移動させる手段、カメラの位置あるいは移動距離を取得する手段、カメラの姿勢を制御する手段などを含みうる。入力画像決定部204が撮影した画像は、位置情報とともに、入力画像決定部204に入力される。 The input image determination unit 204 is an image acquisition means and corresponds to the camera 110 of FIG. The input image determination unit 204 may include a camera, a means for moving the camera, a means for acquiring the position or moving distance of the camera, a means for controlling the posture of the camera, and the like. The image taken by the input image determination unit 204 is input to the input image determination unit 204 together with the position information.

入力画像決定部204、鮮明化処理部206、正面視画像合成部208は、図2の画像処理部120に対応付けることができる。 The input image determination unit 204, the sharpening processing unit 206, and the front view image composition unit 208 can be associated with the image processing unit 120 of FIG.

入力画像決定部204は、画像撮影部202において得られた画像および位置情報を受け、入力された画像の一部分(図7(b)の所定領域RGNcに相当、以下、選択領域という)を選択し、それを出力する。選択領域は、カメラから遠くに位置する比較的広い範囲を撮影した領域であり、カメラから遠すぎて鮮明度(実効的な解像度)が低い領域である。選択領域は、線状(ベクトル)であってもよいし、幅をもった領域(画像)であってもよい。選択領域の画像データは、位置情報とともに鮮明化処理部206に供給される。 The input image determination unit 204 receives the image and position information obtained by the image capturing unit 202, and selects a part of the input image (corresponding to the predetermined area RGNc in FIG. 7B, hereinafter referred to as a selection area). , Output it. The selected area is an area in which a relatively wide range located far from the camera is photographed, and is an area in which the sharpness (effective resolution) is low because the area is too far from the camera. The selected area may be a linear area (vector) or a wide area (image). The image data of the selected area is supplied to the sharpening processing unit 206 together with the position information.

鮮明化処理部206は、入力画像決定部204からの選択領域を受け、鮮明度を高めた画像を出力する。「鮮明化」とは、超解像処理のように、画像を拡大する機能や、ノイズを除去する機能(デノイジング)を含む。超解像処理の場合、選択領域がベクトルデータの場合は、その要素数を定数倍したサイズのベクトルを出力とする。選択領域が幅を持つ二次元画像データの場合は、縦方向と横方向のピクセル数を定数倍したサイズの画像を出力するものとする。鮮明化処理部206の出力は、高解像化された画像(一次元のベクトルあるいは二次元画像)およびその位置情報を含む。高解像度画像を生成する手段としては、図2の学習済みモデル122を用いることができる。 The sharpening processing unit 206 receives a selection area from the input image determination unit 204 and outputs an image with enhanced sharpness. "Clarification" includes a function of enlarging an image and a function of removing noise (denosing), such as super-resolution processing. In the case of super-resolution processing, if the selected area is vector data, the output is a vector whose size is the number of elements multiplied by a constant. In the case of two-dimensional image data in which the selected area has a width, an image having a size obtained by multiplying the number of pixels in the vertical direction and the horizontal direction by a constant shall be output. The output of the sharpening processing unit 206 includes a high-resolution image (one-dimensional vector or two-dimensional image) and its position information. As a means for generating a high-resolution image, the trained model 122 of FIG. 2 can be used.

図9(a)、(b)は、正面視画像合成部208の処理を説明する図である。正面視画像合成部208は、鮮明化処理部206から出力される高解像度画像を、それとともに出力された位置情報を利用して繋ぎ合わせて、1枚の大きな最終画像IMGfを生成する。高解像度画像が一次元画像(ベクトル)である場合には、図9(a)に示すように、複数の高解像度画像L1〜Lnを横方向に結合すればよい。高解像度画像が二次元画像である場合には、図9(b)に示すように、のりしろ部4を設けて貼り合わせてもよい。この場合、のりしろ部4での画素値は、対応する画素の平均値を用いたり、最大値を用いてもよい。この処理によって、正面視画像を得ることができる。貼り合わせ処理の結果、接合部において異様なエッジなどが生じる場合、それを滑らかにする後処理を行ってもよく、たとえばガウシアンフィルタやウィーナーフィルタなどを用いることができる。 9 (a) and 9 (b) are views for explaining the processing of the front view image synthesizing unit 208. The front view image synthesizing unit 208 joins the high-resolution images output from the sharpening processing unit 206 together by using the position information output together with the sharpening processing unit 206 to generate one large final image IMGf. When the high-resolution image is a one-dimensional image (vector), as shown in FIG. 9A, a plurality of high-resolution images L1 to Ln may be combined in the horizontal direction. When the high-resolution image is a two-dimensional image, as shown in FIG. 9B, a margin portion 4 may be provided and bonded. In this case, as the pixel value in the margin portion 4, the average value of the corresponding pixels may be used, or the maximum value may be used. By this process, a front view image can be obtained. If an unusual edge or the like is generated at the joint as a result of the bonding process, a post-treatment for smoothing the edge or the like may be performed, and for example, a Gaussian filter or a Wiener filter can be used.

なお、貼り合わせの前処理、あるいは後処理として、正面視した画像に近づけるために、カメラの位置情報補正などの変換処理を行ってもよい。 As pre-processing or post-processing of bonding, conversion processing such as camera position information correction may be performed in order to bring the image closer to the front view image.

図8に戻る画像出力部210は、正面視画像合成部208によって得られた最終画像IMGfを出力する。画像出力部210は、ディスプレイを備え、最終画像IMGfをユーザに視覚的に提示してもよい。画像出力部210は、拡大縮小機能を有してもよい。また、最終画像が複数存在するような場合には、それらを同時に表示する機能、それらを択一的に表示する機能を備えてもよい。最終画像のサイズが大きい場合には、スライドバーなどのGUI(Graphical User Interface)によって、表示部分を変化させるようにしてもよい。 Returning to FIG. 8, the image output unit 210 outputs the final image IMGf obtained by the front view image composition unit 208. The image output unit 210 may include a display and visually present the final image IMGf to the user. The image output unit 210 may have an enlargement / reduction function. Further, when there are a plurality of final images, a function of displaying them at the same time and a function of displaying them selectively may be provided. When the size of the final image is large, the display portion may be changed by a GUI (Graphical User Interface) such as a slide bar.

また、画像出力部210は、ユーザにとって関心がある部分(たとえば異常部分や損傷部分)にマーカー付して強調表示する機能を有してもよい。またユーザが関心を持つ部分の位置情報を計算し、その値を表示する機能を有してもよい。なお、画像出力部210は、最終画像IMGfのデータを、記憶媒体に保存してもよい。 Further, the image output unit 210 may have a function of adding a marker to a portion of interest to the user (for example, an abnormal portion or a damaged portion) and highlighting the portion. Further, it may have a function of calculating the position information of the portion of interest to the user and displaying the value. The image output unit 210 may store the data of the final image IMGf in a storage medium.

図10は、ディスプレイのユーザインタフェースを示す図である。ディスプレイ300の領域302には、カメラの出力画像が表示される。この領域302と付随して、再生、停止、巻き戻しのボタン306が設けられており、領域302に表示する画像(あるいはフレーム)を制御できるようになっている。 FIG. 10 is a diagram showing a user interface of the display. The output image of the camera is displayed in the area 302 of the display 300. Along with this area 302, buttons 306 for play, stop, and rewind are provided so that the image (or frame) displayed in the area 302 can be controlled.

領域302には、マーキング308が表示可能となっている。マーキング308は、ユーザが指定する領域であり、マーキング308の表示の有無は、マーキングボタン310によって制御可能である。たとえば撮影装置200が診断装置である場合には、マーキング308で囲まれる領域が、異常検出処理の対象となり、領域内の異常箇所や損傷箇所が検出される。 Marking 308 can be displayed in the area 302. The marking 308 is an area designated by the user, and the presence or absence of display of the marking 308 can be controlled by the marking button 310. For example, when the photographing apparatus 200 is a diagnostic apparatus, the area surrounded by the marking 308 is the target of the abnormality detection process, and the abnormal portion or the damaged portion in the region is detected.

領域310には、画像処理によって得られた最終画像IMGfが表示される。領域310は、複数のコラム312に分割されてもよい。たとえば、複数のコラム312には、最終画像IMGfの異なる部分を選択的に表示してもよい。また、狭隘部の右側と左側の両方の正面視画像を生成する場合には、複数のコラム312の一方に左側面の最終画像を、他方に右側面の最終画像を表示してもよい。コラム312に、最終画像の全体が表示できない場合には、スライドバー314を表示するようにして、表示範囲をユーザが選択できるようにしてもよい。スライドバー314に加えて、あるいはそれに代えて、画像を拡大、縮小するためのボタンを追加してもよい。 The final image IMGf obtained by image processing is displayed in the area 310. Region 310 may be divided into a plurality of columns 312. For example, different parts of the final image IMGf may be selectively displayed in the plurality of columns 312. Further, when generating both the right side and left side front view images of the narrow portion, the final image of the left side surface may be displayed on one of the plurality of columns 312, and the final image of the right side surface may be displayed on the other side. If the entire final image cannot be displayed in column 312, the slide bar 314 may be displayed so that the user can select the display range. In addition to or in place of the slide bar 314, buttons for enlarging or reducing the image may be added.

領域310にも、マーキング316が表示可能であり、マーキング316の表示部(つまり310)は、ボタン320,322によって拡大、縮小の制御が可能となっている。 The marking 316 can also be displayed in the area 310, and the display unit (that is, 310) of the marking 316 can be controlled to be enlarged or reduced by the buttons 320 and 322.

以上が撮影装置200の構成である。撮影装置200によれば、広い範囲が撮影された正面視画像を生成することができ、人間が目視で画像中のどこに何が存在するのかを発見することが容易となる。さらに歪みが殆どないため、どこに何が存在するかを、画像認識処理により自動的に見つけることが容易となる。したがって、撮影装置200の出力を利用した、目視処理や自動画像認識処理の精度を向上できる。 The above is the configuration of the photographing device 200. According to the photographing device 200, it is possible to generate a front-view image in which a wide range is captured, and it becomes easy for a human being to visually discover what is present in the image. Furthermore, since there is almost no distortion, it becomes easy to automatically find out where and what is present by the image recognition process. Therefore, it is possible to improve the accuracy of visual processing and automatic image recognition processing using the output of the photographing apparatus 200.

撮影装置100や撮影装置200の用途は特に限定されないが、トンネルや土管、コークス炉など、測定対象が細長く、カメラを壁面に正対させることができない場合、設置することが困難な場合に広く適用できる。 The application of the photographing device 100 and the photographing device 200 is not particularly limited, but it is widely applied when the measurement target is long and narrow such as a tunnel, a clay pipe, a coke oven, etc. it can.

以上、本発明を実施例にもとづいて説明した。本発明は上記実施形態に限定されず、種々の設計変更が可能であり、様々な変形例が可能であること、またそうした変形例も本発明の範囲にあることは、当業者に理解されるところである。以下、こうした変形例を説明する。 The present invention has been described above based on examples. It will be understood by those skilled in the art that the present invention is not limited to the above embodiment, various design changes are possible, various modifications are possible, and such modifications are also within the scope of the present invention. By the way. Hereinafter, such a modification will be described.

(変形例1)
これまでの超解像処理では、ひとつの注視部分の高解像度画像を、1枚の画像を利用して生成したが、変形例1では、異なる距離で撮影された複数のカメラ画像のセットを利用して、ひとつの注視部分の高解像度画像を生成する。図11は、変形例1に係る超解像処理を説明する図である。図11には、異なる時刻において得られる、言い換えると、同じ注視部分を異なる距離から撮影した複数(この例では3枚)のカメラ画像が示される。複数のカメラ画像それぞれに対して、同じ注視部分を包含するように、固有の領域が定められている。各カメラ画像から、固有の領域の画像をクロップし、3枚の低解像度画像IMGl1〜IMGl3が生成される。3枚の低解像度画像IMGl1〜IMGl3に超解像処理を施すことにより、3枚の高解像度中間画像IMGh1〜IMGh3が得られる。3枚の高解像度中間画像IMGh1〜IMGh3を合成し、1枚の高解像度画像IMGhが生成される。
(Modification example 1)
In the conventional super-resolution processing, a high-resolution image of one gaze portion is generated using one image, but in the modified example 1, a set of a plurality of camera images taken at different distances is used. Then, a high-resolution image of one gaze part is generated. FIG. 11 is a diagram illustrating the super-resolution processing according to the first modification. FIG. 11 shows a plurality of (three images in this example) camera images obtained at different times, in other words, the same gaze portion taken from different distances. For each of the plurality of camera images, a unique area is defined so as to include the same gaze portion. From each camera image, an image of a unique region is cropped to generate three low-resolution images IMGl1 to IMGl3. By performing super-resolution processing on the three low-resolution images IMGl1 to IMGl3, three high-resolution intermediate images IMGh1 to IMGh3 can be obtained. Three high-resolution intermediate images IMGh1 to IMGh3 are combined to generate one high-resolution image IMGh.

(変形例2)
図12は、変形例2に係る超解像処理を説明する図である。図6(a)、(b)の超解像処理では、クロップする領域が、注視部分の全体を含むように定められていた。これに対して図12の変形例では、注視部分の一部をクロップして、超解像処理を施す。図12の左側は、注視部分400から遠いときに得られる画像を、図12の右側は、注視部分400に近いときに得られる画像を示す。図12の画像中、符号402はカメラが注視部分に近づいたときに、フレームアウトする部分を表す。この変形例では、この部分402をクロップし、クロップした画像に超解像処理を施す。その結果、カメラが注視部分に近接したときにフレームアウトする部分の高解像度な画像部分(高解像度部分画像)404が得られる。また、カメラが注視部分に近接したときに得られる画像にフレームインしている注視部分の範囲406が選択され、2つの部分404と406を結合することにより、高解像度画像IMGhを生成できる。
(Modification 2)
FIG. 12 is a diagram illustrating the super-resolution processing according to the second modification. In the super-resolution processing of FIGS. 6A and 6B, the cropping region was defined to include the entire gaze portion. On the other hand, in the modified example of FIG. 12, a part of the gaze portion is cropped and super-resolution processing is performed. The left side of FIG. 12 shows an image obtained when it is far from the gaze portion 400, and the right side of FIG. 12 shows an image obtained when it is close to the gaze portion 400. In the image of FIG. 12, reference numeral 402 represents a portion that is framed out when the camera approaches the gaze portion. In this modification, this portion 402 is cropped, and the cropped image is subjected to super-resolution processing. As a result, a high-resolution image portion (high-resolution partial image) 404 of a portion that is framed out when the camera approaches the gaze portion is obtained. Further, the range 406 of the gaze portion framed in the image obtained when the camera is close to the gaze portion is selected, and the high resolution image IMGh can be generated by combining the two portions 404 and 406.

2 狭隘部
100 撮影装置
110 カメラ
120 画像処理部
122 学習済みモデル
200 撮影装置
202 画像撮影部
204 入力画像決定部
206 鮮明化処理部
208 正面視画像合成部
210 画像出力部
2 Narrow area 100 Imaging unit 110 Camera 120 Image processing unit 122 Learned model 200 Imaging device 202 Image imaging unit 204 Input image determination unit 206 Clarification processing unit 208 Front view image composition unit 210 Image output unit

Claims (6)

狭隘部の側方の正面視画像を生成する撮影装置であって、
前記狭隘部を奥行き方向に移動しながら撮影するカメラと、
注視部分と前記カメラが相対的に遠いときの前記カメラの画像における前記注視部分の像と、前記注視部分と前記カメラが相対的に近いときの前記カメラの画像における前記注視部分の像との相関から導かれた学習済みモデルを有しており、実動作中に、前記カメラから順次出力されるカメラ画像にもとづいて、前記正面視画像を生成する画像処理部と、
を備えることを特徴とする撮影装置。
It is a photographing device that generates a front view image of the side of a narrow part.
A camera that shoots while moving the narrow part in the depth direction,
Correlation between the image of the gaze portion in the image of the camera when the gaze portion and the camera are relatively far from each other and the image of the gaze portion in the image of the camera when the gaze portion and the camera are relatively close to each other. An image processing unit that has a trained model derived from, and generates the front view image based on the camera images sequentially output from the camera during actual operation.
A photographing device characterized by being provided with.
前記画像処理部は、前記カメラ画像から所定領域をクロップし、クロップした画像を前記学習済みモデルに入力して高解像度画像を生成し、前記カメラの移動にともない順次生成される前記高解像度画像を合成し、前記正面視画像を生成することを特徴とする請求項1に記載の撮影装置。 The image processing unit crops a predetermined area from the camera image, inputs the cropped image to the trained model to generate a high-resolution image, and sequentially generates the high-resolution image as the camera moves. The photographing apparatus according to claim 1, wherein the image is combined to generate the front view image. 前記画像処理部は、異なる時刻において撮影された前記カメラ画像のペアの一方に含まれ、他方に含まれない第1領域をクロップし、クロップした画像を前記学習済みモデルに入力して高解像度部分画像を生成し、
前記高解像度部分画像を、前記カメラ画像のペアの他方の第2領域の画像と結合して、高解像度画像を生成し、
前記カメラの移動にともない順次生成される前記高解像度画像を合成し、前記正面視画像を生成することを特徴とする請求項1に記載の撮影装置。
The image processing unit crops a first region included in one of the pair of camera images taken at different times and not included in the other, and inputs the cropped image to the trained model to provide a high resolution portion. Generate an image and
The high resolution partial image is combined with the image of the other second region of the pair of camera images to generate a high resolution image.
The photographing apparatus according to claim 1, wherein the high-resolution images sequentially generated with the movement of the camera are combined to generate the front-view image.
前記画像処理部は、異なる時刻において撮影された複数の前記カメラ画像を含む画像セットにもとづいて高解像度画像を生成することを特徴とする請求項1に記載の撮影装置。 The imaging device according to claim 1, wherein the image processing unit generates a high-resolution image based on an image set including a plurality of the camera images captured at different times. 前記画像セットに含まれる複数のカメラ画像それぞれについて、異なる位置に所定領域が定められており、
前記画像処理部は、各カメラ画像から対応する所定領域をクロップし、クロップした画像を前記学習済みモデルに入力して高解像度中間画像を生成し、
前記複数のカメラ画像について得られた複数の高解像度中間画像を合成して、前記高解像度画像を生成することを特徴とする請求項4に記載の撮影装置。
Predetermined areas are defined at different positions for each of the plurality of camera images included in the image set.
The image processing unit crops a corresponding predetermined area from each camera image, inputs the cropped image to the trained model, and generates a high-resolution intermediate image.
The photographing apparatus according to claim 4, wherein a plurality of high-resolution intermediate images obtained from the plurality of camera images are combined to generate the high-resolution image.
前記高解像度画像は、ベクトルデータであることを特徴とする請求項2から5のいずれかに記載の撮影装置。 The photographing apparatus according to any one of claims 2 to 5, wherein the high-resolution image is vector data.
JP2019193712A 2019-10-24 2019-10-24 Photography equipment Active JP7393179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019193712A JP7393179B2 (en) 2019-10-24 2019-10-24 Photography equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019193712A JP7393179B2 (en) 2019-10-24 2019-10-24 Photography equipment

Publications (2)

Publication Number Publication Date
JP2021069032A true JP2021069032A (en) 2021-04-30
JP7393179B2 JP7393179B2 (en) 2023-12-06

Family

ID=75637687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019193712A Active JP7393179B2 (en) 2019-10-24 2019-10-24 Photography equipment

Country Status (1)

Country Link
JP (1) JP7393179B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102717222B1 (en) * 2024-03-20 2024-10-15 (주)디케이엠엔이 Separator control method and system for applying ai visual recognition technology

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167966A1 (en) * 2017-03-17 2018-09-20 マクセル株式会社 Ar display device and ar display method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167966A1 (en) * 2017-03-17 2018-09-20 マクセル株式会社 Ar display device and ar display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102717222B1 (en) * 2024-03-20 2024-10-15 (주)디케이엠엔이 Separator control method and system for applying ai visual recognition technology

Also Published As

Publication number Publication date
JP7393179B2 (en) 2023-12-06

Similar Documents

Publication Publication Date Title
JP6112824B2 (en) Image processing method and apparatus, and program.
JP6436783B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
TWI387935B (en) Image generation method, program therefor, and storage medium for storing the program
JP2005210217A (en) Stereoscopic camera
JP2016024489A (en) Image processing apparatus, imaging device, image processing method, and program
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
WO2018129692A1 (en) Image refocusing
JP2020150448A (en) Imaging device and its control method, program, storage medium
JP6513941B2 (en) Image processing method, image processing apparatus and program
JP2016213578A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP7214368B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP7393179B2 (en) Photography equipment
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP6545229B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP7409604B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
RU2647645C1 (en) Method of eliminating seams when creating panoramic images from video stream of frames in real-time
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
WO2014077024A1 (en) Image processing device, image processing method and image processing program
JP2022006644A (en) Information processing equipment, information processing method
JP6566765B2 (en) Imaging device
JP6953594B2 (en) Image processing equipment, imaging equipment, image processing methods, programs and recording media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231124

R150 Certificate of patent or registration of utility model

Ref document number: 7393179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150