[go: up one dir, main page]

JP2024080208A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2024080208A
JP2024080208A JP2022193209A JP2022193209A JP2024080208A JP 2024080208 A JP2024080208 A JP 2024080208A JP 2022193209 A JP2022193209 A JP 2022193209A JP 2022193209 A JP2022193209 A JP 2022193209A JP 2024080208 A JP2024080208 A JP 2024080208A
Authority
JP
Japan
Prior art keywords
image data
image
calibration
feature information
reference points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022193209A
Other languages
Japanese (ja)
Inventor
辰吾 川▲崎▼
Shingo Kawasaki
大輝 松本
Daiki Matsumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IVIS Inc
Original Assignee
IVIS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IVIS Inc filed Critical IVIS Inc
Priority to JP2022193209A priority Critical patent/JP2024080208A/en
Publication of JP2024080208A publication Critical patent/JP2024080208A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To make it easy to determine data for use in calibration of an imaging apparatus regardless of the type of the imaging device.SOLUTION: An image processing apparatus 1 includes: an image data acquisition unit 131 which acquires first image data generated by a first imaging apparatus 2 imaging a calibration image, and second image data different from the first image data; a feature information group extraction unit 132 which extracts a first feature information group indicating gradient of brightness of the calibration image included in the first image data and a second feature information group indicating gradient of brightness of the calibration image included in the second image data; a reference point specifying unit 133 which specifies a plurality of reference points of the calibration image included in the second image data; a coordinate transformation unit 134 which specifies coordinates of multiple correction reference points by performing coordinate transformation on the coordinates of the reference points on the basis of a result of collating the first feature information group with the second feature information group; and a data generation unit 135 which generates calibration data of the first imaging apparatus 2 on the basis of the coordinates of the correction reference points.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、カメラ校正用ボードを複数の種類のカメラで撮影することにより生成された撮像画像内の特徴点を比較することにより、カメラの校正に用いられるパラメータを計測する方法が知られている(例えば、特許文献1を参照)。 Conventionally, a method is known in which parameters used for calibrating a camera are measured by comparing feature points in captured images generated by photographing a camera calibration board with multiple types of cameras (see, for example, Patent Document 1).

国際公開2017/056473号公報International Publication No. 2017/056473

従来の方法においては、ハリスのコーナー検出手法を用いて、カメラ校正用ボードにおける特徴点を検出することが想定されている。しかしながら、カメラの種類によっては、カメラ校正用ボードに含まれている模様のエッジ位置において画素値が大きく変化しないという場合がある。このような場合、カメラ校正用ボードにおける特徴点を検出することができないので、カメラの校正に用いられるパラメータを決定することが困難であるという問題が生じていた。 Conventional methods are expected to use Harris' corner detection method to detect feature points on a camera calibration board. However, depending on the type of camera, there are cases where pixel values do not change significantly at the edge positions of the pattern contained in the camera calibration board. In such cases, it is not possible to detect feature points on the camera calibration board, which creates the problem of difficulty in determining the parameters used to calibrate the camera.

そこで、本発明はこれらの点に鑑みてなされたものであり、撮像装置の種類によらず撮像装置の校正に用いられるデータを生成しやすくすることを目的とする。 The present invention has been made in consideration of these points, and aims to make it easier to generate data to be used for calibrating an imaging device, regardless of the type of imaging device.

本発明の第1の態様の画像処理装置は、第1撮像装置で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、前記校正用画像と同じ特徴を有する画像に対応し前記第1画像データと異なる第2画像データと、を取得する画像データ取得部と、前記第1画像データに含まれる前記校正用画像の明度の勾配を示す第1特徴情報群と、前記第2画像データに含まれる前記校正用画像の明度の勾配を示す第2特徴情報群とを抽出する特徴情報群抽出部と、前記第2画像データに含まれる前記校正用画像の模様の複数の参照点を特定する参照点特定部と、前記複数の参照点の座標を前記第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより複数の補正参照点の座標を特定する座標変換部と、前記座標変換部が特定した前記複数の補正参照点の座標に基づいて、前記第1撮像装置の校正用データを生成するデータ生成部と、を有する。 The image processing device of the first aspect of the present invention has an image data acquisition unit that acquires first image data generated by capturing a calibration image of a predetermined pattern with a first imaging device, and second image data corresponding to an image having the same characteristics as the calibration image and different from the first image data, a feature information group extraction unit that extracts a first feature information group indicating the brightness gradient of the calibration image contained in the first image data and a second feature information group indicating the brightness gradient of the calibration image contained in the second image data, a reference point identification unit that identifies multiple reference points of the pattern of the calibration image contained in the second image data, a coordinate conversion unit that identifies the coordinates of multiple correction reference points by coordinate conversion based on the result of comparing the coordinates of the multiple reference points with the first feature information group and the second feature information group, and a data generation unit that generates calibration data for the first imaging device based on the coordinates of the multiple correction reference points identified by the coordinate conversion unit.

前記第1特徴情報群と前記第2特徴情報群は、明度の勾配の方向情報を含む情報であり、前記座標変換部は、前記第1特徴情報群に対応する第1方向情報と前記第2特徴情報群に対応する第2方向情報とを照合してもよい。 The first feature information group and the second feature information group may be information including directional information of a brightness gradient, and the coordinate conversion unit may compare first directional information corresponding to the first feature information group with second directional information corresponding to the second feature information group.

前記座標変換部は、前記第1画像データと前記第2画像データとを照合し易いように、前記第1画像データ又は前記第2画像データの少なくともいずれかを変形させてから前記第1画像データと前記第2画像データとを照合してもよい。 The coordinate conversion unit may transform at least one of the first image data and the second image data to facilitate matching of the first image data and the second image data, and then match the first image data and the second image data.

前記座標変換部は、前記照合した結果が所定の条件を満たすように、1つ以上のパラメータにより座標変換の内容が変化する変換関数の前記パラメータを決定し、当該パラメータを利用した前記変換関数に基づいて前記複数の参照点の座標を変換してもよい。 The coordinate conversion unit may determine parameters of a conversion function in which the content of the coordinate conversion varies depending on one or more parameters so that the result of the comparison satisfies a predetermined condition, and convert the coordinates of the multiple reference points based on the conversion function that uses the parameters.

前記第1画像データ中の第1特定領域を計測するために、前記参照点特定部は、前記第2画像データに含まれる、前記第1特定領域に対応する第2特定領域を構成する複数の前記参照点を特定し、前記データ生成部は、前記座標変換部が前記第2特定領域を構成する複数の参照点を座標変換することにより決定した前記複数の補正参照点の座標に基づいて、前記第1画像データ中の前記第1特定領域の計測データを出力してもよい。 In order to measure a first specific area in the first image data, the reference point identification unit may identify a plurality of reference points constituting a second specific area corresponding to the first specific area, which is included in the second image data, and the data generation unit may output measurement data of the first specific area in the first image data based on the coordinates of the plurality of corrected reference points determined by the coordinate conversion unit by converting the plurality of reference points constituting the second specific area.

前記第1画像データは、前記校正用画像を含む板状物体が撮像されることにより生成された画像データであり、前記校正用画像の模様には、前記板状物体に形成された開口も含まれてもよい。 The first image data is image data generated by capturing an image of a plate-like object including the calibration image, and the pattern of the calibration image may also include an opening formed in the plate-like object.

前記第1撮像装置は、赤外線を用いて前記校正用画像を撮像する赤外線カメラであり、前記第2画像データは、可視光を用いて撮像する可視光カメラである第2撮像装置によって前記校正用画像が撮影されることにより生成された画像データ、又はコンピュータの演算により生成された画像データであってもよい。 The first imaging device may be an infrared camera that captures the calibration image using infrared light, and the second image data may be image data generated by capturing the calibration image using a second imaging device that is a visible light camera that captures images using visible light, or image data generated by computer calculations.

本発明の第2の態様の画像処理方法は、コンピュータが実行する、第1撮像装置で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、前記校正用画像と同じ特徴を有する画像に対応し前記第1画像データと異なる第2画像データと、を取得するステップと、前記第1画像データに含まれる前記校正用画像の明度の勾配を示す第1特徴情報群と、前記第2画像データに含まれる前記校正用画像の明度の勾配を示す第2特徴情報群とを抽出するステップと、前記第2画像データに含まれる前記校正用画像の模様の複数の参照点を特定するステップと、前記複数の参照点の座標を前記第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより複数の補正参照点の座標を特定するステップと、特定した前記複数の補正参照点の座標に基づいて、前記第1撮像装置の校正用データを生成するステップと、を有する。 The image processing method of the second aspect of the present invention includes the steps of acquiring first image data generated by capturing a calibration image of a predetermined pattern with a first imaging device and second image data corresponding to an image having the same characteristics as the calibration image and different from the first image data, extracting a first group of feature information indicating the brightness gradient of the calibration image contained in the first image data and a second group of feature information indicating the brightness gradient of the calibration image contained in the second image data, identifying a plurality of reference points of the pattern of the calibration image contained in the second image data, identifying the coordinates of a plurality of correction reference points by coordinate conversion based on the result of comparing the coordinates of the plurality of reference points with the first group of feature information and the second group of feature information, and generating calibration data for the first imaging device based on the identified coordinates of the plurality of correction reference points.

本発明の第3の態様のプログラムは、コンピュータに、第1撮像装置で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、前記校正用画像と同じ特徴を有する画像に対応し前記第1画像データと異なる第2画像データと、を取得するステップと、前記第1画像データに含まれる前記校正用画像の明度の勾配を示す第1特徴情報群と、前記第2画像データに含まれる前記校正用画像の明度の勾配を示す第2特徴情報群とを抽出するステップと、前記第2画像データに含まれる前記校正用画像の模様の複数の参照点を特定するステップと、前記複数の参照点の座標を前記第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより複数の補正参照点の座標を特定するステップと、特定した前記複数の補正参照点の座標に基づいて、前記第1撮像装置の校正用データを生成するステップと、を実行させる。 The program of the third aspect of the present invention causes a computer to execute the steps of acquiring first image data generated by capturing a calibration image of a predetermined pattern with a first imaging device, and second image data corresponding to an image having the same characteristics as the calibration image and different from the first image data, extracting a first group of feature information indicating the brightness gradient of the calibration image contained in the first image data and a second group of feature information indicating the brightness gradient of the calibration image contained in the second image data, identifying a plurality of reference points of the pattern of the calibration image contained in the second image data, identifying the coordinates of a plurality of correction reference points by coordinate conversion based on the result of comparing the coordinates of the plurality of reference points with the first group of feature information and the second group of feature information, and generating calibration data for the first imaging device based on the identified coordinates of the plurality of correction reference points.

本発明によれば、撮像装置の種類によらず撮像装置の校正に用いられるデータを生成しやすくすることができるという効果を奏する。 The present invention has the advantage of making it easier to generate data used to calibrate an imaging device, regardless of the type of imaging device.

画像処理装置1の概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of an image processing device 1. 画像処理装置1の構成を示す図である。1 is a diagram showing a configuration of an image processing device 1. 特徴情報群の概要を説明するための図である。FIG. 13 is a diagram for explaining an overview of a feature information group. ワープ関数により変形した後の第1画像データの一部と第2画像データの一部とを切り出してタイル状に並べた画像を示す図である。FIG. 13 is a diagram showing an image in which a part of the first image data and a part of the second image data are cut out and arranged in a tiled pattern after being transformed by a warp function. 座標変換部134が算出した補正参照点の位置を示すマーカーを第1画像データに重ねた状態を示す図である。13 is a diagram showing a state in which a marker indicating the position of a correction reference point calculated by a coordinate conversion unit 134 is superimposed on the first image data. FIG. 画像処理装置1における処理の流れを示す図である。FIG. 2 is a diagram showing a processing flow in the image processing device 1. 校正用画像の他の例を示す図である。FIG. 13 is a diagram showing another example of the calibration image. 校正用ボードの他の例を示す図である。FIG. 13 is a diagram showing another example of the calibration board.

[画像処理装置1の概要]
図1は、画像処理装置1の概要を説明するための図である。画像処理装置1は、撮像装置の校正に用いられる校正用データを作成するための装置であり、例えばコンピュータである。図1においては、画像処理装置1が、第1撮像装置2が校正用画像を含む校正用ボードを撮影することにより生成した第1画像データと、第2撮像装置3が校正用画像を含む校正用ボードを撮影することにより生成した第2画像データとを用いて、第1撮像装置2の校正用データを作成する流れが示されている。
[Overview of image processing device 1]
Fig. 1 is a diagram for explaining an overview of an image processing device 1. The image processing device 1 is a device for creating calibration data used for calibrating an imaging device, and is, for example, a computer. Fig. 1 shows a flow in which the image processing device 1 creates calibration data for the first imaging device 2 using first image data generated by the first imaging device 2 photographing a calibration board including a calibration image and second image data generated by the second imaging device 3 photographing a calibration board including a calibration image.

第1撮像装置2は第2撮像装置3と異なる性能を有している。第1撮像装置2は、校正用画像の模様を明瞭に撮像することができない撮像装置であり、例えば赤外線カメラ又は画像フィルタが装着されたカメラである。第2撮像装置3は、校正用画像の模様を第1撮像装置2よりも明瞭に撮像することができる撮像装置であり、例えば可視光カメラである。第1撮像装置2が生成した第1画像データにおける校正用画像の模様の輪郭が不明瞭だと、第1画像データにおける校正用画像の特徴点の位置を正確に特定することが困難であり、第1撮像装置2の校正用データを生成することも困難である。 The first imaging device 2 has different performance from the second imaging device 3. The first imaging device 2 is an imaging device that cannot clearly capture the pattern of the calibration image, such as an infrared camera or a camera equipped with an image filter. The second imaging device 3 is an imaging device that can capture the pattern of the calibration image more clearly than the first imaging device 2, such as a visible light camera. If the contour of the pattern of the calibration image in the first image data generated by the first imaging device 2 is unclear, it is difficult to accurately identify the position of the feature points of the calibration image in the first image data, and it is also difficult to generate calibration data for the first imaging device 2.

このような課題を解決するために、本実施形態に係る画像処理装置1は、第1画像データに含まれる校正用画像の明度の勾配を示す第1特徴情報群と、第2画像データに含まれる校正用画像の明度の勾配を示す第2特徴情報群とを照合することにより、第1画像データにおける複数の位置と第2画像データにおける複数の位置との関係を特定することを特徴としている。 To solve this problem, the image processing device 1 according to this embodiment is characterized in that it identifies the relationship between multiple positions in the first image data and multiple positions in the second image data by comparing a first group of feature information indicating the brightness gradient of the calibration image contained in the first image data with a second group of feature information indicating the brightness gradient of the calibration image contained in the second image data.

明度の勾配は、対象となる画素の明度と、当該画素から所定の距離内の所定の方向の複数の画素の明度との差により表される。複数の画素の明度は、例えば複数の画素の明度の平均値又は中央値等の統計値により表される。所定の距離は、例えばユーザにより設定された連続する画素数に対応する距離であり、一例として5画素分の距離である。詳細については後述するが、第1特徴情報群と第2特徴情報群は、それぞれ第1画像データ及び第2画像データの各画素における明度の勾配の方向情報を含む情報である。 The brightness gradient is represented by the difference between the brightness of a pixel of interest and the brightness of multiple pixels in a specified direction within a specified distance from the pixel. The brightness of multiple pixels is represented by a statistical value such as the average or median brightness of the multiple pixels. The specified distance is, for example, a distance corresponding to a number of consecutive pixels set by the user, and is, for example, a distance of five pixels. Details will be described later, but the first feature information group and the second feature information group are information that include directional information of the brightness gradient at each pixel of the first image data and the second image data, respectively.

画像処理装置1は、第1画像データにおける複数の位置と第2画像データにおける複数の位置との関係を特定した結果に基づいて、第2画像データに含まれている校正用画像の参照点(例えば格子点)の位置が、第1画像データにおけるどの位置に対応するかを特定する。すなわち、画像処理装置1は、第2画像データにおける複数の参照点の座標を、第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより、第1画像データにおいて複数の参照点に対応する複数の補正参照点の座標を決定する。画像処理装置1は、このようにして決定した複数の補正参照点の座標に基づいて校正用データを生成することができる。このように、画像処理装置1は、撮像カメラが赤外線カメラのように校正用画像の模様の輪郭線を明瞭に撮影することができない撮像装置であっても校正用データを生成することができる。 Based on the result of identifying the relationship between the multiple positions in the first image data and the multiple positions in the second image data, the image processing device 1 identifies which positions in the first image data correspond to the positions of the reference points (e.g., lattice points) of the calibration image included in the second image data. That is, the image processing device 1 determines the coordinates of multiple correction reference points corresponding to the multiple reference points in the first image data by performing coordinate conversion of the coordinates of the multiple reference points in the second image data based on the result of comparing the first feature information group with the second feature information group. The image processing device 1 can generate calibration data based on the coordinates of the multiple correction reference points determined in this manner. In this way, the image processing device 1 can generate calibration data even if the imaging camera is an imaging device that cannot clearly capture the contour lines of the pattern in the calibration image, such as an infrared camera.

なお、上記の説明においては、第2画像データが第2撮像装置3により生成された画像データであるとしたが、第2画像データの生成方法は、校正用画像の模様が第1画像データよりも明瞭に表れている限りにおいて任意である。一例として、第2画像データは、コンピュータの演算により生成された、第1撮像装置2が撮影する校正用画像を示す画像データであってもよい。 In the above description, the second image data is image data generated by the second imaging device 3, but the method of generating the second image data is arbitrary as long as the pattern of the calibration image is more clearly expressed than the first image data. As an example, the second image data may be image data that is generated by computer calculation and indicates the calibration image captured by the first imaging device 2.

[画像処理装置1の構成]
以下、画像処理装置1の構成及び動作を詳細に説明する。
図2は、画像処理装置1の構成を示す図である。画像処理装置1は、通信部11と、記憶部12と、制御部13と、を有する。制御部13は、画像データ取得部131と、特徴情報群抽出部132と、参照点特定部133と、座標変換部134と、データ生成部135と、を有する。
[Configuration of image processing device 1]
The configuration and operation of the image processing device 1 will now be described in detail.
2 is a diagram showing the configuration of the image processing device 1. The image processing device 1 has a communication unit 11, a storage unit 12, and a control unit 13. The control unit 13 has an image data acquisition unit 131, a feature information group extraction unit 132, a reference point identification unit 133, a coordinate conversion unit 134, and a data generation unit 135.

通信部11は、他の装置との間でデータを送受信するための通信インターフェースである。通信部11は、例えば、第1撮像装置2から第1画像データを受信し、第2撮像装置3から第2画像データを受信する。通信部11は、第1撮像装置2又は第2撮像装置3と異なる装置(例えばコンピュータ)から第1画像データ又は第2画像データの少なくともいずれかを受信してもよい。通信部11は、受信した第1画像データ及び第2画像データを画像データ取得部131に入力する。通信部11は、受信した第1画像データ及び第2画像データを記憶部12に記憶させることにより、第1画像データ及び第2画像データを画像データ取得部131に入力してもよい。 The communication unit 11 is a communication interface for transmitting and receiving data to and from other devices. For example, the communication unit 11 receives first image data from the first imaging device 2 and receives second image data from the second imaging device 3. The communication unit 11 may receive at least one of the first image data and the second image data from a device (e.g., a computer) different from the first imaging device 2 or the second imaging device 3. The communication unit 11 inputs the received first image data and second image data to the image data acquisition unit 131. The communication unit 11 may input the first image data and second image data to the image data acquisition unit 131 by storing the received first image data and second image data in the storage unit 12.

通信部11は、データ生成部135が生成した校正用データを外部の装置に送信してもよい。通信部11は、例えば、校正用データを生成するための操作を行ったユーザが使用するコンピュータに校正用データを送信する。通信部11は、画像処理装置1に接続されたディスプレイに校正用データを送信してもよい。 The communication unit 11 may transmit the calibration data generated by the data generation unit 135 to an external device. For example, the communication unit 11 transmits the calibration data to a computer used by a user who performed an operation to generate the calibration data. The communication unit 11 may transmit the calibration data to a display connected to the image processing device 1.

記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶する。また、記憶部12は、制御部13が校正用データを生成するために使用する各種のデータを記憶する。記憶部12は、例えば、特徴情報群抽出部132が第1画像データ及び第2画像データにおいて特定した校正用画像の明度の勾配を示す特徴情報群を記憶する。 The storage unit 12 has storage media such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an SSD (Solid State Drive). The storage unit 12 stores programs executed by the control unit 13. The storage unit 12 also stores various data used by the control unit 13 to generate calibration data. The storage unit 12 stores, for example, a group of feature information indicating the brightness gradient of the calibration image identified in the first image data and the second image data by the feature information group extraction unit 132.

図3は、特徴情報群の概要を説明するための図である。特徴情報群は、画像データに含まれる複数の画素それぞれに対して決定された複数の方向符号により構成されている。方向符号は、対象となる画素における明度の勾配の方向を示すデータである。方向符号は、例えば、対象となる画素を中心とする複数の方向における明度の勾配を示すデータである。 Figure 3 is a diagram for explaining an overview of the feature information group. The feature information group is composed of multiple directional codes determined for each of multiple pixels included in the image data. The directional code is data that indicates the direction of the brightness gradient at the target pixel. The directional code is data that indicates, for example, the brightness gradient in multiple directions centered on the target pixel.

図3(a)は、方向符号に明度の勾配が含まれる複数の方向を示す図である。図3(a)においては、中央の黒丸で示されている1つの画素に対して(1)から(16)までの方向が示されているが、方向符号に含まれる方向の数は任意である。方向符号には、例えば1度ずつ異なる方向ごとに明度の勾配が含まれていてもよい。 Figure 3(a) is a diagram showing multiple directions in which the directional code includes a brightness gradient. In Figure 3(a), directions (1) to (16) are shown for one pixel indicated by a black circle in the center, but the number of directions included in the directional code is arbitrary. The directional code may include a brightness gradient for each direction that differs by, for example, one degree.

図3(b)は、方向符号に含まれているデータの一例を示す図である。方向符号においては、方向を示すデータと、明度の勾配の大きさを示すデータとが関連付けられている。図3(b)における明度の勾配の大きさは1から8までの8段階で示されているが、明度の勾配は、さらに多くの段階で示されてもよい。記憶部12は、複数の画素それぞれの座標にこのような方向符号が関連付けられた特徴情報群を記憶する。 Figure 3(b) is a diagram showing an example of data included in a direction code. In a direction code, data indicating a direction is associated with data indicating the magnitude of the brightness gradient. In Figure 3(b), the magnitude of the brightness gradient is shown in eight stages from 1 to 8, but the brightness gradient may be shown in more stages. The memory unit 12 stores a group of feature information in which such a direction code is associated with the coordinates of each of a plurality of pixels.

方向符号は図3に示した例に限られず、対象となる画素における明度の勾配が最大になる方向又は向きを示す値を量子化した符号であってもよい。この場合、全方向の勾配が同一である画素の符号には、例えば、勾配がないということを示す値が付与される。 The directional code is not limited to the example shown in FIG. 3, but may be a code obtained by quantizing a value indicating the direction or orientation in which the gradient of brightness in the target pixel is at its maximum. In this case, the code of a pixel that has the same gradient in all directions is assigned a value indicating, for example, that there is no gradient.

制御部13は、例えばCPU(Central Processing Unit)を有する。制御部13は、記憶部12に記憶されたプログラムを実行することにより、画像データ取得部131、特徴情報群抽出部132、参照点特定部133、座標変換部134及びデータ生成部135として機能する。 The control unit 13 has, for example, a CPU (Central Processing Unit). The control unit 13 executes the programs stored in the storage unit 12 to function as an image data acquisition unit 131, a feature information group extraction unit 132, a reference point identification unit 133, a coordinate conversion unit 134, and a data generation unit 135.

画像データ取得部131は、通信部11を介して、第1撮像装置2で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、第1撮像装置2が撮影した校正用画像と同じ特徴を有する画像に対応し第1画像データと異なる第2画像データと、を取得する。画像データ取得部131は、取得した第1画像データ及び第2画像データを特徴情報群抽出部132及び参照点特定部133に入力する。 The image data acquisition unit 131 acquires, via the communication unit 11, first image data generated by capturing an image for calibration of a predetermined pattern with the first imaging device 2, and second image data that corresponds to an image having the same characteristics as the image for calibration captured by the first imaging device 2 and differs from the first image data. The image data acquisition unit 131 inputs the acquired first image data and second image data to the feature information group extraction unit 132 and the reference point identification unit 133.

上述のとおり、第2画像データは、第1撮像装置2が撮影する校正用画像を第2撮像装置3が撮影することにより生成された画像データであってもよく、コンピュータにより生成された、第1撮像装置2が撮影する校正用画像と同じ特徴を有する画像に対応する画像データであってもよい。校正用画像と同じ特徴を有する画像は、校正用画像と同一であってもよく、特徴点の位置が同じであり色が異なる画像であってもよい。校正用画像が、図1に示したように白と黒の複数の四角形により構成されている場合、校正用画像は、図1に示した校正用画像における白と黒が逆になった画像であってもよい。 As described above, the second image data may be image data generated by the second imaging device 3 capturing a calibration image captured by the first imaging device 2, or may be image data generated by a computer and corresponding to an image having the same characteristics as the calibration image captured by the first imaging device 2. An image having the same characteristics as the calibration image may be identical to the calibration image, or may be an image having the same positions of feature points but different colors. When the calibration image is composed of multiple black and white squares as shown in FIG. 1, the calibration image may be an image in which the black and white of the calibration image shown in FIG. 1 are reversed.

特徴情報群抽出部132は、第1画像データに含まれる校正用画像の明度の勾配を示す第1特徴情報群と、第2画像データに含まれる校正用画像の明度の勾配を示す第2特徴情報群とを抽出する。特徴情報群抽出部132は、第1特徴情報群と第2特徴情報群とを抽出するために、まず、第1画像データ及び第2画像データそれぞれに含まれる複数の画素の明度を特定する。続いて、特徴情報群抽出部132は、1つの画素を選択し、選択した画素から、所定の複数の方向それぞれにおける所定の距離内の画素の平均的な明度(例えば平均値又は中央値)を算出する。 The feature information group extraction unit 132 extracts a first feature information group indicating the brightness gradient of the calibration image included in the first image data, and a second feature information group indicating the brightness gradient of the calibration image included in the second image data. To extract the first feature information group and the second feature information group, the feature information group extraction unit 132 first identifies the brightness of multiple pixels included in each of the first image data and the second image data. Next, the feature information group extraction unit 132 selects one pixel, and calculates the average brightness (e.g., the average value or the median value) of pixels within a predetermined distance from the selected pixel in each of a predetermined number of directions.

特徴情報群抽出部132は、選択した画素の明度と算出した平均的な明度との差を所定の距離で除算することにより、選択した画素に対応する明度の勾配を特定する。特徴情報群抽出部132は、特定した勾配の値を量子化することにより、例えば8段階の勾配の値のうち、特定した勾配に対応する値を特定する。特徴情報群抽出部132は、全ての画素に対してこの処理を実行することにより、図3(b)に示したような方向符号を生成する。特徴情報群抽出部132は、複数の画素それぞれに対応する方向符号を含む特徴情報群を記憶部12に記憶させることにより、特徴情報群を参照点特定部133及び座標変換部134に通知する。 The feature information group extraction unit 132 identifies the gradient of brightness corresponding to the selected pixel by dividing the difference between the brightness of the selected pixel and the calculated average brightness by a predetermined distance. The feature information group extraction unit 132 quantizes the identified gradient value to identify a value corresponding to the identified gradient, for example, from among eight gradient values. The feature information group extraction unit 132 performs this process on all pixels to generate a direction code as shown in FIG. 3(b). The feature information group extraction unit 132 stores a feature information group including direction codes corresponding to each of the multiple pixels in the memory unit 12, and notifies the feature information group to the reference point identification unit 133 and the coordinate conversion unit 134.

参照点特定部133は、第2画像データに含まれる校正用画像の模様の複数の参照点を特定する。参照点特定部133は、例えば、特徴情報群抽出部132が生成した第2特徴群情報群において、閾値以上の勾配を有する画素の位置を特定することにより、校正用画像の模様に含まれている特徴的な点である参照点を特定する。参照点は、例えば、校正用画像に含まれている多角形の頂点又は円の中心である。校正用画像が図1に示したような格子模様の画像である場合、参照点は格子点である。参照点特定部133は、特定した複数の参照点の座標を座標変換部134に通知する。 The reference point identification unit 133 identifies multiple reference points of the pattern of the calibration image included in the second image data. The reference point identification unit 133 identifies reference points, which are characteristic points included in the pattern of the calibration image, for example, by identifying the positions of pixels having a gradient equal to or greater than a threshold in the second feature group information group generated by the feature information group extraction unit 132. The reference points are, for example, the vertices of polygons or the centers of circles included in the calibration image. When the calibration image is an image of a lattice pattern as shown in FIG. 1, the reference points are lattice points. The reference point identification unit 133 notifies the coordinate conversion unit 134 of the coordinates of the identified multiple reference points.

座標変換部134は、第2特徴情報群に含まれる複数の参照点の座標を、第1特徴情報群と第2特徴情報群とを照合した結果に基づいて座標変換することにより、複数の補正参照点の座標を決定する。座標変換部134は、複数の補正参照点の座標を決定するために、まず、第1特徴情報群に対応する第1方向情報と第2特徴情報群に対応する第2方向情報とを照合する。座標変換部134は、照合した結果が所定の条件を満たすように、1つ以上のパラメータにより座標変換の内容が変化する変換関数のパラメータを決定する。この変換関数は、第1画像データと第2画像データとの大局的な幾何学的対応関係を示す関数であり、例えばパラメトリックな2次のワープ関数である。座標変換部134は、当該パラメータを利用した変換関数に基づいて複数の参照点の座標を変換することにより、複数の補正参照点の座標を決定する。 The coordinate conversion unit 134 determines the coordinates of the multiple correction reference points by converting the coordinates of the multiple reference points included in the second feature information group based on the result of comparing the first feature information group with the second feature information group. In order to determine the coordinates of the multiple correction reference points, the coordinate conversion unit 134 first compares the first direction information corresponding to the first feature information group with the second direction information corresponding to the second feature information group. The coordinate conversion unit 134 determines the parameters of a conversion function whose contents of the coordinate conversion change depending on one or more parameters so that the result of the comparison satisfies a predetermined condition. This conversion function is a function that indicates a global geometric correspondence between the first image data and the second image data, and is, for example, a parametric quadratic warp function. The coordinate conversion unit 134 determines the coordinates of the multiple correction reference points by converting the coordinates of the multiple reference points based on the conversion function that uses the parameters.

具体的には、座標変換部134は、まず、第1特徴情報群に含まれる方向符号が示す複数の画素の第1方向情報と第2特徴情報群に含まれる方向符号が示す複数の画素の第2方向情報との差が最小になるように、第1方向情報の値又は第2方向情報の値の少なくともいずれかを変換するための変換関数のパラメータを算出する。すなわち、座標変換部134は、画像処理装置1のレンズ歪みに起因して第1画像データに生じる明度の勾配の変化に対応するワープ関数のパラメータを算出する。 Specifically, the coordinate transformation unit 134 first calculates parameters of a transformation function for transforming at least one of the values of the first direction information or the second direction information so that the difference between the first direction information of the multiple pixels indicated by the direction code included in the first feature information group and the second direction information of the multiple pixels indicated by the direction code included in the second feature information group is minimized. That is, the coordinate transformation unit 134 calculates parameters of a warp function corresponding to the change in the brightness gradient that occurs in the first image data due to the lens distortion of the image processing device 1.

座標変換部134は、ワープ関数のパラメータを制御変数として目的関数の最小化問題を解くことによりパラメータを決定する。具体的には、座標変換部134は、暫定的に決定したパラメータを用いて第1方向情報の値又は第2方向情報の値の少なくともいずれかを変換した後に、変換後の第1方向情報の値と第2方向情報の値とを照合し、先に照合した結果よりも差が小さくなっている場合に、暫定的に決定したパラメータを最新のパラメータに更新する。座標変換部134は、この処理を所定の回数繰り返すことにより、変換後の第1方向情報の値と第2方向情報の値との差が十分に小さくなるパラメータを決定する。 The coordinate transformation unit 134 determines the parameters by solving the minimization problem of the objective function with the parameters of the warp function as control variables. Specifically, the coordinate transformation unit 134 transforms at least one of the values of the first direction information or the second direction information using the provisionally determined parameters, and then compares the transformed values of the first direction information and the second direction information, and if the difference is smaller than the previous comparison result, updates the provisionally determined parameters to the latest parameters. The coordinate transformation unit 134 repeats this process a predetermined number of times to determine parameters that will sufficiently reduce the difference between the transformed values of the first direction information and the second direction information.

一例として、座標変換部134は、画像座標をX=(x,y)、パラメータをP=(p1,p2,p3,p4,p5,p6,p7,p8)として、2次のワープ関数W(X;P)を以下の式(1)のように定義する。
As an example, the coordinate conversion unit 134 defines a quadratic warp function W(X;P) as shown in the following equation (1) with image coordinates X=(x, y) T and parameters P=(p1, p2, p3, p4, p5, p6, p7, p8) T .

図4は、ワープ関数を用いた座標変換により変形した後の第1画像データの一部と第2画像データの一部とを切り出してタイル状に並べた画像を示す図である。図4において、変形後の第1画像データにおける校正用画像内の格子点の位置が、第2画像データにおける校正用画像内の格子点の位置と一致していることを確認できる。なお、見やすくするために図4の第1画像データには色調補正が施されている。 Figure 4 shows an image in which a portion of the first image data and a portion of the second image data are cut out and arranged in a tiled pattern after transformation using a warp function. In Figure 4, it can be seen that the positions of the grid points in the calibration image in the transformed first image data match the positions of the grid points in the calibration image in the second image data. Note that color correction has been applied to the first image data in Figure 4 to make it easier to see.

続いて、座標変換部134は、参照点特定部133が特定した第2画像データに含まれる校正用画像の模様の複数の参照点の位置を、算出したワープ関数により変換することにより、複数の補正参照点の位置を特定する。具体的には、座標変換部134は、例えば式(1)に示したワープ関数に、参照点特定部133が特定した複数の参照点の座標におけるx及びyを入力して出力されるx座標及びy座標を、補正参照点の座標とする。 Next, the coordinate transformation unit 134 transforms the positions of the multiple reference points of the pattern of the calibration image included in the second image data identified by the reference point identification unit 133 using the calculated warp function to identify the positions of the multiple correction reference points. Specifically, the coordinate transformation unit 134 inputs x and y in the coordinates of the multiple reference points identified by the reference point identification unit 133 into the warp function shown in, for example, equation (1), and sets the output x and y coordinates as the coordinates of the correction reference points.

図5は、座標変換部134が算出した補正参照点の位置を示すマーカーを第1画像データに重ねた状態を示す図である。図5においては、補正参照点の位置が「+」のマーカーにより示されている。第1画像データにおいては格子点の位置が明確ではないが、暗い領域と明るい領域の周囲に補正参照点が示されており、第1画像データにおける格子点の位置が適切に特定されていることがわかる。 Figure 5 is a diagram showing a state in which markers indicating the positions of correction reference points calculated by the coordinate conversion unit 134 are superimposed on the first image data. In Figure 5, the positions of the correction reference points are indicated by "+" markers. Although the positions of the lattice points are not clear in the first image data, it can be seen that the correction reference points are indicated around the dark and light areas, and the positions of the lattice points in the first image data are appropriately identified.

ところで、第1画像データの形状と第2画像データの形状とが異なっていると、座標変換部134が適切なワープ関数を算出することができない。そこで、座標変換部134は、第1画像データと第2画像データとを照合し易いように、第1画像データに対応する画像又は第2画像データに対応する画像の少なくともいずれかを変形させてから第1画像データと第2画像データとを照合してもよい。 However, if the shape of the first image data and the shape of the second image data are different, the coordinate transformation unit 134 cannot calculate an appropriate warp function. Therefore, in order to make it easier to compare the first image data and the second image data, the coordinate transformation unit 134 may deform at least one of the image corresponding to the first image data or the image corresponding to the second image data before comparing the first image data and the second image data.

座標変換部134は、例えば、所定のアフィン変換等の画像変換処理を第1画像データ又は第2画像データの少なくともいずれかに施すことにより、第1画像データの形状と第2画像データの形状とがほぼ同等になるように変形させる。変形には、形状の変更、大きさの変更又は回転の少なくともいずれかが含まれる。アフィン変換のパラメータは、予め第1撮像装置2が生成する画像データの形状又は大きさの少なくともいずれかと、第2撮像装置3が生成する画像データの形状又は大きさの少なくともいずれかとの既知の関係に基づいて定められている。 The coordinate transformation unit 134 performs image transformation processing, such as a predetermined affine transformation, on at least one of the first image data or the second image data, to deform the first image data and the second image data so that their shapes are approximately equal. The transformation includes at least one of changing the shape, changing the size, or rotating. The parameters of the affine transformation are determined in advance based on a known relationship between at least one of the shape or size of the image data generated by the first imaging device 2 and at least one of the shape or size of the image data generated by the second imaging device 3.

座標変換部134は、第1画像データ及び第2画像データの輪郭線(例えば校正用ボードの輪郭線)の形状を比較することにより、第1画像データの輪郭線と第2画像データの輪郭線とが同じ形状になるように第1画像データ又は第2画像データの少なくともいずれかを変形してもよい。座標変換部134がこのように動作することで、同等の形状の第1画像データと第2画像データとを照合してワープ関数を算出することができるので、ワープ関数の精度が向上する。 The coordinate conversion unit 134 may compare the shapes of the contour lines of the first image data and the second image data (e.g., the contour lines of a calibration board) and deform at least one of the first image data or the second image data so that the contour lines of the first image data and the second image data have the same shape. By operating in this manner, the coordinate conversion unit 134 can compare the first image data and the second image data of similar shapes to calculate a warp function, thereby improving the accuracy of the warp function.

データ生成部135は、座標変換部134が特定した複数の補正参照点の座標に基づいて、第1撮像装置2の校正用データを生成する。データ生成部135は、例えば、複数の補正参照点の座標に基づいて、複数の参照点の間の位置の座標に対しても補正した座標を生成し、第1撮像装置が生成した第1画像データにおける複数の座標に対する複数の補正座標を示す校正用データを生成する。データ生成部135は、通信部11を介して、第1画像データを校正する処理を行うコンピュータ等の外部装置に校正用データを出力する。 The data generation unit 135 generates calibration data for the first imaging device 2 based on the coordinates of the multiple correction reference points identified by the coordinate conversion unit 134. For example, the data generation unit 135 generates corrected coordinates for the coordinates of positions between the multiple reference points based on the coordinates of the multiple correction reference points, and generates calibration data indicating multiple corrected coordinates for the multiple coordinates in the first image data generated by the first imaging device. The data generation unit 135 outputs the calibration data via the communication unit 11 to an external device such as a computer that performs a process of calibrating the first image data.

[画像データに基づく計測]
第1画像データに含まれている物体の長さ又は大きさ等の形状の計測が要求される場合がある。ところが第1画像データにおいて物体の輪郭線が明瞭でない場合、当該物体の形状の計測は困難である。
[Measurement based on image data]
There are cases where it is required to measure the shape, such as the length or size, of an object included in the first image data. However, if the contour line of the object is not clear in the first image data, it is difficult to measure the shape of the object.

そこで、画像処理装置1は、第2画像データを用いて第1画像データに含まれている特定の領域の形状を計測してもよい。具体的には、第1画像データ中の第1特定領域を画像処理装置1が計測するために、参照点特定部133は、第2画像データに含まれる、第1特定領域に対応する第2特定領域を構成する複数の参照点を特定する。データ生成部135は、第2特定領域を構成する複数の参照点を座標変換することにより決定した複数の補正参照点の座標に基づいて、第1画像データ中の第1特定領域の計測データを生成する。 The image processing device 1 may therefore use the second image data to measure the shape of a specific area included in the first image data. Specifically, in order for the image processing device 1 to measure the first specific area in the first image data, the reference point identification unit 133 identifies a plurality of reference points constituting a second specific area included in the second image data and corresponding to the first specific area. The data generation unit 135 generates measurement data of the first specific area in the first image data based on the coordinates of a plurality of corrected reference points determined by coordinate conversion of a plurality of reference points constituting the second specific area.

一例として、第1画像データ内の第1特定領域に含まれている図1に示した校正用画像の格子点間の距離を画像処理装置1が計測する場合、参照点特定部133は、第2画像データ内の第2特定領域である校正用画像が含まれている領域内の複数の格子点を複数の参照点として特定する。データ生成部135は、ワープ関数を用いて複数の格子点の位置を補正した複数の補正参照点の座標を算出し、算出した複数の補正参照点の間の距離を計測することで、第1画像データ内の校正用画像の格子点間の距離を計測することができる。このように、画像処理装置1は、第1撮像装置2が生成した画像データに含まれている物体等の輪郭線が不明瞭であっても、当該物体の形状等を計測することができる。 As an example, when the image processing device 1 measures the distance between the lattice points of the calibration image shown in FIG. 1 included in the first specific region in the first image data, the reference point identification unit 133 identifies multiple lattice points in the region including the calibration image, which is the second specific region in the second image data, as multiple reference points. The data generation unit 135 calculates the coordinates of multiple corrected reference points obtained by correcting the positions of the multiple lattice points using a warp function, and measures the distance between the calculated multiple corrected reference points, thereby measuring the distance between the lattice points of the calibration image in the first image data. In this way, the image processing device 1 can measure the shape, etc. of an object included in the image data generated by the first imaging device 2 even if the contour line of the object, etc. is unclear.

[画像処理装置1における処理の流れ]
図6は、画像処理装置1における処理の流れを示す図である。画像データ取得部131は、例えば第1撮像装置2から第1画像データを取得し(S1)、第2撮像装置3から第2画像データを取得する(S2)。画像データ取得部131は、所定の時間間隔で第1画像データ及び第2画像データを取得してもよく、校正用データを作成するための指示を受けた時点で第1画像データ及び第2画像データを取得してもよい。
[Processing flow in image processing device 1]
6 is a diagram showing a flow of processing in the image processing device 1. The image data acquisition unit 131 acquires, for example, first image data from the first imaging device 2 (S1) and acquires second image data from the second imaging device 3 (S2). The image data acquisition unit 131 may acquire the first image data and the second image data at a predetermined time interval, or may acquire the first image data and the second image data at the time when an instruction to create calibration data is received.

続いて、座標変換部134は、第1画像データに対応する画像と第2画像データに対応する画像とが同等の形状でない場合(S3においてYES)、第1画像データに対応する画像又は第2画像データに対応する画像の少なくともいずれかを変形させる(S4)。座標変換部134は、第1画像データに対応する画像と第2画像データに対応する画像とが同等の形状である場合(S3においてNO)、第1画像データに対応する画像及び第2画像データに対応する画像を変形させない。座標変換部134は、第1特徴情報群に対応する第1方向情報と第2特徴情報群に対応する第2方向情報とを照合した結果が所定の条件(例えば最小になるという条件)に基づいて、座標変換パラメータ、すなわち変換関数のパラメータを特定する(S5)。 Next, if the image corresponding to the first image data and the image corresponding to the second image data are not of the same shape (YES in S3), the coordinate transformation unit 134 deforms at least one of the image corresponding to the first image data or the image corresponding to the second image data (S4). If the image corresponding to the first image data and the image corresponding to the second image data are of the same shape (NO in S3), the coordinate transformation unit 134 does not deform the image corresponding to the first image data and the image corresponding to the second image data. The coordinate transformation unit 134 identifies coordinate transformation parameters, i.e., parameters of the transformation function, based on a predetermined condition (e.g., a condition that the result of comparing the first directional information corresponding to the first feature information group and the second directional information corresponding to the second feature information group is minimized) (S5).

S3からS5の処理の前、S3からS5の処理の後、又はS3からS5の処理と並行して、参照点特定部133は、第2画像データに含まれる校正用画像の模様の複数の参照点を特定する(S6)。 Before processing S3 to S5, after processing S3 to S5, or in parallel with processing S3 to S5, the reference point identification unit 133 identifies multiple reference points of the pattern of the calibration image included in the second image data (S6).

続いて、座標変換部134は、S5で特定したパラメータの変換関数を用いて、参照点特定部133が特定した複数の参照点の座標を変換することにより、第1画像データにおける複数の補正参照点の座標を特定する(S7)。データ生成部135は、座標変換部134が特定した複数の補正参照点の座標に基づいて、第1撮像装置2の校正用データを生成する(S8)。 Next, the coordinate conversion unit 134 converts the coordinates of the multiple reference points identified by the reference point identification unit 133 using a conversion function of the parameters identified in S5, thereby identifying the coordinates of multiple correction reference points in the first image data (S7). The data generation unit 135 generates calibration data for the first imaging device 2 based on the coordinates of the multiple correction reference points identified by the coordinate conversion unit 134 (S8).

[変形例]
以上説明した例の他に各種の変形例が想定される。図1においては、黒色と白色の四角形が交互に配置された校正用画像が示されていたが、校正用画像及び校正用ボードの形態は任意である。
[Modification]
In addition to the examples described above, various modified examples are conceivable. Although the calibration image in which black and white squares are arranged alternately is shown in Fig. 1, the calibration image and the calibration board may have any shape.

図7は、校正用画像の他の例を示す図である。図7(a)の校正用画像においては、黒い円が等間隔で上下左右方向に配置されている。図7(b)の校正用画像においては、それぞれ模様が異なる四角形が等間隔で上下左右方向に配置されている。このように、参照点を抽出できる模様が含まれている限りにおいて、校正用画像の形態は任意である。 Figure 7 shows another example of a calibration image. In the calibration image of Figure 7(a), black circles are arranged at equal intervals in the up, down, left and right directions. In the calibration image of Figure 7(b), squares, each with a different pattern, are arranged at equal intervals in the up, down, left and right directions. In this way, the form of the calibration image is arbitrary, as long as it contains a pattern from which reference points can be extracted.

図8は、校正用ボードの他の例を示す図である。図8に示す校正用ボードは開口を有することを特徴としている。すなわち、第1画像データは、校正用画像を含む板状物体が撮像されることにより生成された画像データであり、校正用画像の模様には、板状物体に形成された開口も含まれる。図8に示す校正用ボードには、2つの円形の開口、四角形の開口及び星形の開口が形成されており、開口を通して背景が見えている。校正用ボードの色と背景の色とが異なることで、校正用ボードに校正用画像が描かれている場合と同等の作用が生じる。 Figure 8 is a diagram showing another example of a calibration board. The calibration board shown in Figure 8 is characterized by having an opening. That is, the first image data is image data generated by capturing an image of a plate-like object including a calibration image, and the pattern of the calibration image also includes an opening formed in the plate-like object. The calibration board shown in Figure 8 has two circular openings, a square opening, and a star-shaped opening, and the background is visible through the openings. The difference between the color of the calibration board and the color of the background produces the same effect as when a calibration image is drawn on the calibration board.

[画像処理装置1による効果]
以上説明したように、特徴情報群抽出部132は、第1画像データに含まれる校正用画像の明度の勾配を示す第1特徴情報群と、第2画像データに含まれる校正用画像の明度の勾配を示す第2特徴情報群とを抽出する。そして、座標変換部134は、参照点特定部133が特定した第2画像データに含まれている複数の参照点の座標を、第1特徴情報群と第2特徴情報群とを照合した結果に基づいて座標変換することにより、複数の補正参照点の座標を特定する。そして、データ生成部135は、複数の補正参照点の座標に基づいて、第1撮像装置2の校正用データを生成する。
[Effects of image processing device 1]
As described above, the feature information group extraction unit 132 extracts a first feature information group indicating the brightness gradient of the calibration image included in the first image data and a second feature information group indicating the brightness gradient of the calibration image included in the second image data. The coordinate conversion unit 134 then performs coordinate conversion on the coordinates of the multiple reference points included in the second image data identified by the reference point identification unit 133 based on the result of comparing the first feature information group with the second feature information group, thereby identifying the coordinates of multiple correction reference points. The data generation unit 135 then generates calibration data for the first imaging device 2 based on the coordinates of the multiple correction reference points.

画像処理装置1がこのように構成されていることで、第1画像データが例えば赤外線画像データである場合のように、校正用画像の参照点の位置が不明瞭な場合であっても、第1画像データにおける参照点の位置を特定することができる。その結果、画像処理装置1は、赤外線カメラのように校正用画像の模様の輪郭線を明瞭に撮影できない撮像装置の校正用データを生成することができる。すなわち、画像処理装置1により、撮像装置の種類によらず撮像装置の校正に用いられるデータを生成しやすくなる。 By configuring the image processing device 1 in this manner, even if the position of the reference point in the calibration image is unclear, such as when the first image data is infrared image data, the image processing device 1 can identify the position of the reference point in the first image data. As a result, the image processing device 1 can generate calibration data for an imaging device that cannot clearly capture the contour lines of the pattern in the calibration image, such as an infrared camera. In other words, the image processing device 1 makes it easier to generate data to be used for calibrating an imaging device, regardless of the type of imaging device.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist of the invention. For example, all or part of the device can be configured by distributing or integrating functionally or physically in any unit. In addition, new embodiments resulting from any combination of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment resulting from the combination also has the effect of the original embodiment.

1 画像処理装置
2 第1撮像装置
3 第2撮像装置
11 通信部
12 記憶部
13 制御部
131 画像データ取得部
132 特徴情報群抽出部
133 参照点特定部
134 座標変換部
135 データ生成部
REFERENCE SIGNS LIST 1 Image processing device 2 First imaging device 3 Second imaging device 11 Communication unit 12 Storage unit 13 Control unit 131 Image data acquisition unit 132 Feature information group extraction unit 133 Reference point identification unit 134 Coordinate conversion unit 135 Data generation unit

Claims (9)

第1撮像装置で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、前記校正用画像と同じ特徴を有する画像に対応し前記第1画像データと異なる第2画像データと、を取得する画像データ取得部と、
前記第1画像データに含まれる前記校正用画像の明度の勾配を示す第1特徴情報群と、前記第2画像データに含まれる前記校正用画像の明度の勾配を示す第2特徴情報群とを抽出する特徴情報群抽出部と、
前記第2画像データに含まれる前記校正用画像の模様の複数の参照点を特定する参照点特定部と、
前記複数の参照点の座標を前記第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより複数の補正参照点の座標を特定する座標変換部と、
前記座標変換部が特定した前記複数の補正参照点の座標に基づいて、前記第1撮像装置の校正用データを生成するデータ生成部と、
を有する画像処理装置。
an image data acquisition unit that acquires first image data generated by capturing an image for calibration of a predetermined pattern with a first imaging device, and second image data corresponding to an image having the same characteristics as the image for calibration and different from the first image data;
a feature information group extraction unit that extracts a first feature information group indicating a brightness gradient of the calibration image included in the first image data and a second feature information group indicating a brightness gradient of the calibration image included in the second image data;
a reference point specifying unit that specifies a plurality of reference points of a pattern of the calibration image included in the second image data;
a coordinate conversion unit that converts coordinates of the plurality of reference points based on a result of comparing the first feature information group with the second feature information group to identify coordinates of a plurality of correction reference points;
a data generating unit that generates calibration data for the first imaging device based on the coordinates of the plurality of correction reference points identified by the coordinate conversion unit;
An image processing device comprising:
前記第1特徴情報群と前記第2特徴情報群は、明度の勾配の方向情報を含む情報であり、前記座標変換部は、前記第1特徴情報群に対応する第1方向情報と前記第2特徴情報群に対応する第2方向情報とを照合する、
請求項1に記載の画像処理装置。
the first feature information group and the second feature information group are information including directional information of a brightness gradient, and the coordinate conversion unit compares first directional information corresponding to the first feature information group with second directional information corresponding to the second feature information group.
The image processing device according to claim 1 .
前記座標変換部は、前記第1画像データと前記第2画像データとを照合し易いように、前記第1画像データ又は前記第2画像データの少なくともいずれかを変形させてから前記第1画像データと前記第2画像データとを照合する、
請求項1に記載の画像処理装置。
the coordinate transformation unit transforms at least one of the first image data and the second image data so as to facilitate matching of the first image data and the second image data, and then matches the first image data and the second image data.
The image processing device according to claim 1 .
前記座標変換部は、前記照合した結果が所定の条件を満たすように、1つ以上のパラメータにより座標変換の内容が変化する変換関数の前記パラメータを決定し、当該パラメータを利用した前記変換関数に基づいて前記複数の参照点の座標を変換する、
請求項1に記載の画像処理装置。
the coordinate conversion unit determines one or more parameters of a conversion function in which the content of the coordinate conversion changes depending on the one or more parameters so that the result of the comparison satisfies a predetermined condition, and converts the coordinates of the plurality of reference points based on the conversion function using the determined parameters.
The image processing device according to claim 1 .
前記第1画像データ中の第1特定領域を計測するために、前記参照点特定部は、前記第2画像データに含まれる、前記第1特定領域に対応する第2特定領域を構成する複数の前記参照点を特定し、
前記データ生成部は、前記座標変換部が前記第2特定領域を構成する複数の参照点を座標変換することにより決定した前記複数の補正参照点の座標に基づいて、前記第1画像データ中の前記第1特定領域の計測データを出力する、
請求項1に記載の画像処理装置。
In order to measure a first specific area in the first image data, the reference point identification unit identifies a plurality of the reference points constituting a second specific area included in the second image data and corresponding to the first specific area;
The data generation unit outputs the measurement data of the first specific area in the first image data based on the coordinates of the plurality of corrected reference points determined by the coordinate conversion unit through coordinate conversion of the plurality of reference points constituting the second specific area.
The image processing device according to claim 1 .
前記第1画像データは、前記校正用画像を含む板状物体が撮像されることにより生成された画像データであり、前記校正用画像の模様には、前記板状物体に形成された開口も含まれる、
請求項1から5のいずれか一項に記載の画像処理装置。
The first image data is image data generated by capturing an image of a plate-like object including the calibration image, and a pattern of the calibration image also includes an opening formed in the plate-like object.
The image processing device according to claim 1 .
前記第1撮像装置は、赤外線を用いて前記校正用画像を撮像する赤外線カメラであり、
前記第2画像データは、可視光を用いて撮像する可視光カメラである第2撮像装置によって前記校正用画像が撮影されることにより生成された画像データ、又はコンピュータの演算により生成された画像データである、
請求項1から5のいずれか一項に記載の画像処理装置。
the first imaging device is an infrared camera that captures the calibration image using infrared rays,
The second image data is image data generated by capturing the calibration image by a second imaging device that is a visible light camera that captures an image using visible light, or image data generated by a computer.
The image processing device according to claim 1 .
コンピュータが実行する、
第1撮像装置で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、前記校正用画像と同じ特徴を有する画像に対応し前記第1画像データと異なる第2画像データと、を取得するステップと、
前記第1画像データに含まれる前記校正用画像の明度の勾配を示す第1特徴情報群と、前記第2画像データに含まれる前記校正用画像の明度の勾配を示す第2特徴情報群とを抽出するステップと、
前記第2画像データに含まれる前記校正用画像の模様の複数の参照点を特定するステップと、
前記複数の参照点の座標を前記第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより複数の補正参照点の座標を特定するステップと、
特定した前記複数の補正参照点の座標に基づいて、前記第1撮像装置の校正用データを生成するステップと、
を有する画像処理方法。
The computer executes
acquiring first image data generated by capturing an image of a calibration pattern by a first imaging device, and second image data corresponding to an image having the same characteristics as the calibration image and different from the first image data;
extracting a first set of feature information indicating a gradient of brightness of the calibration image included in the first image data, and a second set of feature information indicating a gradient of brightness of the calibration image included in the second image data;
identifying a plurality of reference points of a pattern of the calibration image included in the second image data;
determining coordinates of a plurality of correction reference points by performing coordinate transformation on the plurality of reference points based on a result of matching the first feature information group with the second feature information group;
generating calibration data for the first imaging device based on the coordinates of the identified correction reference points;
An image processing method comprising the steps of:
コンピュータに、
第1撮像装置で所定の模様の校正用画像が撮像されることにより生成された第1画像データと、前記校正用画像と同じ特徴を有する画像に対応し前記第1画像データと異なる第2画像データと、を取得するステップと、
前記第1画像データに含まれる前記校正用画像の明度の勾配を示す第1特徴情報群と、前記第2画像データに含まれる前記校正用画像の明度の勾配を示す第2特徴情報群とを抽出するステップと、
前記第2画像データに含まれる前記校正用画像の模様の複数の参照点を特定するステップと、
前記複数の参照点の座標を前記第1特徴情報群と前記第2特徴情報群とを照合した結果に基づいて座標変換することにより複数の補正参照点の座標を特定するステップと、
特定した前記複数の補正参照点の座標に基づいて、前記第1撮像装置の校正用データを生成するステップと、
を実行させるためのプログラム。
On the computer,
acquiring first image data generated by capturing an image of a calibration pattern by a first imaging device, and second image data corresponding to an image having the same characteristics as the calibration image and different from the first image data;
extracting a first set of feature information indicating a gradient of brightness of the calibration image included in the first image data, and a second set of feature information indicating a gradient of brightness of the calibration image included in the second image data;
identifying a plurality of reference points of a pattern of the calibration image included in the second image data;
determining coordinates of a plurality of correction reference points by performing coordinate transformation on the plurality of reference points based on a result of matching the first feature information group with the second feature information group;
generating calibration data for the first imaging device based on the coordinates of the identified correction reference points;
A program for executing the above.
JP2022193209A 2022-12-02 2022-12-02 Image processing apparatus, image processing method, and program Pending JP2024080208A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022193209A JP2024080208A (en) 2022-12-02 2022-12-02 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022193209A JP2024080208A (en) 2022-12-02 2022-12-02 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2024080208A true JP2024080208A (en) 2024-06-13

Family

ID=91431967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022193209A Pending JP2024080208A (en) 2022-12-02 2022-12-02 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2024080208A (en)

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
CN108230397B (en) Multi-view camera calibration and correction method and apparatus, device, program and medium
WO2021000702A1 (en) Image detection method, device, and system
JP6566768B2 (en) Information processing apparatus, information processing method, and program
JP5074322B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
KR20140109439A (en) Image registration method and system robust to noise
JP2019012426A5 (en)
CN110163025A (en) Two dimensional code localization method and device
CN107316047A (en) Image processing apparatus, image processing method and storage medium
US12094227B2 (en) Object recognition device and object recognition method
CN105844277A (en) Label identification method and device
JP2019165658A (en) Plant growth indicator measuring apparatus, method and program
CN102473312A (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method and program therefor
Parr et al. Grape yield estimation with a smartphone’s colour and depth cameras using machine learning and computer vision techniques
JP6452361B2 (en) Information processing apparatus, information processing method, and program
JP2017092756A (en) Image processing apparatus, image processing method, image projection system, and program
KR20160001868A (en) Method for calibrating distortion of image in camera
JP5352435B2 (en) Classification image creation device
JP2019021100A (en) Image search device, product recognition device, and image search program
KR20230144351A (en) Method and apparatus for measuring weight or length of animal object based on image
JP2024080208A (en) Image processing apparatus, image processing method, and program
JP2016156702A (en) Imaging device and imaging method
US20190019059A1 (en) Method and apparatus for identifying target
CN117392161B (en) Calibration plate corner point for long-distance large perspective distortion and corner point number determination method
JP6542407B1 (en) Reading system, reading method, program, and storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231024