[go: up one dir, main page]

JP2019061502A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2019061502A
JP2019061502A JP2017185667A JP2017185667A JP2019061502A JP 2019061502 A JP2019061502 A JP 2019061502A JP 2017185667 A JP2017185667 A JP 2017185667A JP 2017185667 A JP2017185667 A JP 2017185667A JP 2019061502 A JP2019061502 A JP 2019061502A
Authority
JP
Japan
Prior art keywords
coordinates
captured image
map
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185667A
Other languages
Japanese (ja)
Other versions
JP7047306B2 (en
Inventor
渡辺 孝弘
Takahiro Watanabe
孝弘 渡辺
塚本 明利
Akitoshi Tsukamoto
明利 塚本
孝宏 前
Takahiro Mae
孝宏 前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017185667A priority Critical patent/JP7047306B2/en
Publication of JP2019061502A publication Critical patent/JP2019061502A/en
Application granted granted Critical
Publication of JP7047306B2 publication Critical patent/JP7047306B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To restrain cost relating to the calibration of a camera.SOLUTION: An information processing device 1 comprises: a calibration section 13 for, on the basis of the correspondence between a photographed image coordinate representing a positional coordinate in a photographed image and a looking-down map coordinate representing a positional coordinate in a looking-down map corresponding to a real space, identifying a conversion parameter for converting the photographed image coordinate to the looking-down map coordinate; and a coordinate conversion section 15 for converting the photographed image coordinate to the looking-down map coordinate. The coordinate conversion section converts the photographed image coordinate of a target object in a first photographed image captured at a first camera positional angle, to the looking-down map coordinate of the target object in the looking-down map. The calibration section identifies, on the basis of the correspondence between the photographed image coordinate of the target object in a second photographed image captured at a second camera positional angle and the looking-down map coordinate of the target object in the looking-down map, a second conversion parameter corresponding to the second camera positional angle.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

斜め上方から見下ろすように配置されたカメラにより撮像された撮像画像に含まれる物体の位置を、真上から俯瞰した画像(本明細書では俯瞰マップと呼ぶ)上へマッピングするためには、射影変換行列等の変換パラメータが用いられる。例えば複数の物体が俯瞰マップに対応する実空間上に設置された場合、変換パラメータは、当該複数の物体の撮像画像における位置座標と、当該複数の物体の俯瞰マップにおける位置座標との対応から特定することが可能である。このように変換パラメータを求めることはキャリブレーションと呼ばれている。   In order to map the position of an object included in a captured image captured by a camera arranged so as to look down obliquely from above onto an image viewed from directly above (herein referred to as an overhead map), projective transformation Transformation parameters such as a matrix are used. For example, when a plurality of objects are installed in the real space corresponding to the eyelid map, the conversion parameter is specified from the correspondence between the position coordinates of the plurality of objects in the captured image and the position coordinates of the plurality of objects in the eyelid map It is possible. Determining conversion parameters in this manner is called calibration.

上記のようなキャリブレーションは、カメラの配置が変更されない前提であれば、1回行えば十分である。また、下記特許文献1には、カメラの配置が変更された場合に、その前後に撮像された画像を用いてカメラパラメータをキャリブレーションする技術が開示されている。   The calibration as described above may be performed only once, provided that the arrangement of the cameras is not changed. Further, Patent Document 1 below discloses a technique for calibrating camera parameters using images captured before and after the camera arrangement is changed.

特開2017−78923号公報JP, 2017-78923, A

しかし、上記特許文献1に記載の技術は、カメラの姿勢(角度)変化をキャリブレーションの対象としており、カメラ位置の変化に対応することはできなかった。そのため、俯瞰マップ化する範囲を変更、または拡大する目的でカメラの配置変更やカメラの追加を行う場合、上述したように、複数の物体の撮像画像における位置座標と、当該複数の物体の俯瞰マップにおける位置座標との対応から再度キャリブレーションを行う必要がある。この際、当該複数の物体の俯瞰マップにおける位置座標を得るためには、実空間における計測、あるいは実空間の既定の位置への物体の設置等が必要となり、コストが大きかった。   However, the technique described in the above-mentioned Patent Document 1 targets the change in the posture (angle) of the camera as the calibration target, and can not cope with the change in the camera position. Therefore, in the case of changing the arrangement of the camera or adding the camera for the purpose of changing or enlarging the range to be map-ized, as described above, the position coordinates of the plurality of objects in the captured image and the map of the plurality of objects It is necessary to recalibrate from the correspondence with the position coordinates in. Under the present circumstances, in order to obtain the position coordinate in the eyelid map of the said several object, the measurement in real space or installation of the object in the predetermined position of real space etc. were needed, and the cost was large.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、キャリブレーションに係るコストを抑制することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved information processing apparatus capable of suppressing the cost involved in calibration, and information processing A method and a program are provided.

上記課題を解決するために、本発明のある観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、情報処理装置が提供される。   In order to solve the above problems, according to one aspect of the present invention, captured image coordinates that are position coordinates in a captured image captured by a camera, and eyelid map coordinates that are position coordinates in an eyelid map corresponding to real space And a calibration unit that specifies a conversion parameter for converting the captured image coordinates into the overhead map coordinates based on the correspondence between the cameras, and the converted image coordinates using the conversion parameter. A coordinate conversion unit configured to convert the eyelid map coordinates, wherein the coordinate conversion unit is a first image captured by the first camera arrangement using a first conversion parameter corresponding to a first camera arrangement; Converting the captured image coordinates of the target object in the captured image into the overhead map coordinates of the target object in the overhead map; The unit further comprises: the captured image coordinates of the target object in a second captured image captured in a second camera configuration different from the first camera configuration; and the overhead map coordinates of the target object in the overhead map An information processing apparatus is provided which specifies a second conversion parameter corresponding to the second camera arrangement based on the correspondence.

前記情報処理装置は、前記目標物体の前記撮像画像座標を特定する目標物体特定部をさらに備えてもよい。   The information processing apparatus may further include a target object specifying unit that specifies the captured image coordinates of the target object.

前記目標物体特定部は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定してもよい。   The target object identification unit detects the captured image coordinates of a target object candidate from the captured image, and captures the captured image coordinates of the detected target object candidate based on the determination of the operator. It may be specified as image coordinates.

前記情報処理装置は、前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション部により特定された前記変換パラメータの補正を行う補正部をさらに備えてもよい。   The information processing apparatus may further include a correction unit that corrects the conversion parameter specified by the calibration unit using a reference object with the eyelid map coordinates known.

前記補正部は、前記基準物体の既知の前記俯瞰マップ座標である既知基準座標と、前記座標変換部が前記基準物体の前記撮像画像座標を変換することにより得られる前記基準物体の前記俯瞰マップ座標である変換基準座標と、の距離を特定する距離特定部を有し、前記距離に基づいて前記変換パラメータの補正を行ってもよい。   The correction unit is a known reference coordinate that is the known eyelid map coordinates of the reference object, and the eyelid map coordinates of the reference object obtained by the coordinate conversion unit converting the captured image coordinates of the reference object The conversion parameter may be corrected based on the distance.

前記補正部は、前記距離が所定の範囲内であるか否かの判定を行う判定部をさらに有し、前記判定部による前記判定の結果に応じて前記変換パラメータの補正を行ってもよい。   The correction unit may further include a determination unit that determines whether the distance is within a predetermined range, and may correct the conversion parameter according to a result of the determination by the determination unit.

前記補正部は、前記判定部により前記距離が前記所定の範囲内ではないと判定された場合に、前記既知基準座標と前記変換基準座標との差に基づいて前記目標物体の前記俯瞰マップ座標を補正する座標補正部をさらに有し、前記座標補正部により補正された前記目標物体の前記俯瞰マップ座標に基づいて前記変換パラメータの補正を行ってもよい。   The correction unit determines the eyelid map coordinates of the target object based on a difference between the known reference coordinates and the conversion reference coordinates when the determination unit determines that the distance is not within the predetermined range. The image processing apparatus may further include a coordinate correction unit that corrects the conversion parameter based on the eyelid map coordinates of the target object corrected by the coordinate correction unit.

前記補正部が前記変換パラメータの補正を行うために要する前記基準物体の数は、前記キャリブレーション部が前記第2の変換パラメータを特定するために要する前記目標物体の数よりも少なくてもよい。   The number of reference objects required for the correction unit to correct the conversion parameter may be smaller than the number of target objects required for the calibration unit to specify the second conversion parameter.

前記情報処理装置は、前記第1の撮像画像と、前記第2の撮像画像との両方に含まれる前記目標物体の数が所定の閾値より少ない場合に、前記第1の撮像画像における第1の目標物体の前記撮像画像座標を変換することで得られた前記俯瞰マップにおける前記第1の目標物体の前記俯瞰マップ座標、位置センサのセンシングに基づいて得られる前記位置センサに対応したセンサ座標系における前記第1の目標物体の位置座標、及び、前記位置センサのセンシングに基づいて得られる前記センサ座標系における第2の目標物体の位置座標、に基づいて前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標を取得するセンサ情報管理部をさらに備え、前記キャリブレーション部は、前記第2の撮像画像における前記第2の目標物体の前記撮像画像座標と前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定してもよい。   The information processing apparatus may be configured to determine whether the number of target objects included in both the first captured image and the second captured image is smaller than a predetermined threshold value. In the sensor coordinate system corresponding to the position sensor, the eyelid map coordinates of the first target object in the eyelid map obtained by converting the captured image coordinates of the target object, the sensing of the position sensor The second target object in the eyelid map based on the position coordinates of the first target object and the position coordinates of a second target object in the sensor coordinate system obtained based on the sensing of the position sensor The information processing apparatus further includes a sensor information management unit that acquires the eyelid map coordinates, and the calibration unit is configured to receive the second target object in the second captured image. Based on the correspondence between the bird's-eye map coordinates of the second target object in serial captured image coordinates and the bird's eye map may identify a second conversion parameters.

前記変換パラメータは、射影変換行列または透視投影変換行列を含んでもよい。   The transformation parameters may include a projection transformation matrix or a perspective projection transformation matrix.

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備える情報処理装置により実行される情報処理方法であって、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換することと、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定することと、を含む、情報処理方法が提供される。   In order to solve the above problems, according to another aspect of the present invention, the correspondence between the captured image coordinates that are position coordinates in a captured image captured by a camera and the eyelid map coordinates that is position coordinates in an eyelid map And a calibration unit that specifies a conversion parameter for converting the captured image coordinates to the overhead map coordinates based on the arrangement of the cameras, and using the conversion parameter to convert the captured image coordinates to the overhead map An information processing method executed by an information processing apparatus including a coordinate conversion unit configured to convert coordinates into coordinates, which is imaged by the first camera arrangement using a first conversion parameter corresponding to a first camera arrangement. Converting the captured image coordinates of the target object in the first captured image into the overhead map coordinates of the target object in the overhead map And the captured image coordinates of the target object in a second captured image captured in a second camera configuration different from the first camera configuration and the overhead map coordinates of the target object in the overhead map Providing a second conversion parameter corresponding to the second camera arrangement based on the correspondence.

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能を、をコンピュータに実現させるためのプログラムであって、前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、プログラムが提供される。   In order to solve the above problems, according to another aspect of the present invention, the correspondence between the captured image coordinates that are position coordinates in a captured image captured by a camera and the eyelid map coordinates that is position coordinates in an eyelid map And a calibration function for specifying a conversion parameter for converting the captured image coordinates to the overhead map coordinates based on the arrangement of the cameras, and using the conversion parameter to convert the captured image coordinates to the overhead map A program for causing a computer to realize a coordinate conversion function of converting into coordinates, wherein the coordinate conversion function uses the first conversion parameter corresponding to a first camera arrangement to execute the first camera arrangement. And the captured image coordinates of the target object in the first captured image captured by The calibration function converts the captured image coordinates of the target object in a second captured image captured in a second camera arrangement different from the first camera arrangement and the eyelid map A program is provided for identifying a second transformation parameter corresponding to the second camera arrangement based on the correspondence with the eyelid map coordinates of the target object.

以上説明したように本発明によれば、キャリブレーションに係るコストを抑制することが可能である。   As described above, according to the present invention, it is possible to suppress the cost involved in calibration.

本発明の実施形態の比較例に係る情報処理装置8の構成例を示すブロック図である。It is a block diagram showing an example of composition of information processor 8 concerning a comparative example of an embodiment of the present invention. 撮像画像座標と、俯瞰マップ座標との対応を得るための方法を説明するための説明図である。It is an explanatory view for explaining a method for acquiring correspondence with an image pick-up picture coordinate and a map map coordinate. 本発明の第1の実施形態に係る情報処理装置1の構成例を示すブロック図である。It is a block diagram showing an example of composition of information processor 1 concerning a 1st embodiment of the present invention. 同実施形態に係る動作概要を示すフローチャート図である。It is a flowchart figure which shows the operation | movement outline which concerns on the embodiment. 初期キャリブレーションの詳細な動作を示すフローチャート図である。It is a flowchart figure which shows the detailed operation | movement of initial stage calibration. 初期キャリブレーションについて説明するための説明図である。It is an explanatory view for explaining initial calibration. 初期キャリブレーションについて説明するための説明図である。It is an explanatory view for explaining initial calibration. 同実施形態に係る再キャリブレーションの詳細な動作を示すフローチャート図である。It is a flowchart figure which shows the detailed operation | movement of recalibration which concerns on the embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is an explanatory view for explaining re-calibration concerning the embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is an explanatory view for explaining re-calibration concerning the embodiment. 本発明の第2の実施形態に係る情報処理装置2の構成例を示すブロック図である。It is a block diagram showing an example of composition of information processor 2 concerning a 2nd embodiment of the present invention. 同実施形態に係る動作概要を示すフローチャート図である。It is a flowchart figure which shows the operation | movement outline which concerns on the embodiment. 変換パラメータの補正の詳細な動作を示すフローチャート図である。It is a flowchart figure which shows the detailed operation | movement of correction | amendment of conversion parameter. 変換パラメータの補正について説明するための説明図である。It is an explanatory view for explaining correction of a conversion parameter. 変換パラメータの補正について説明するための説明図である。It is an explanatory view for explaining correction of a conversion parameter. 本発明の第3の実施形態に係る情報処理装置3の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus 3 which concerns on the 3rd Embodiment of this invention. 同実施形態に係る再キャリブレーションに係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the recalibration which concerns on the embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is an explanatory view for explaining re-calibration concerning the embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is an explanatory view for explaining re-calibration concerning the embodiment. 本発明の実施形態に係る情報処理装置1000のハードウェア構成を示す説明図である。It is an explanatory view showing hardware constitutions of an information processor 1000 concerning an embodiment of the present invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   The present invention will now be described more fully with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. In the present specification and the drawings, components having substantially the same functional configuration will be assigned the same reference numerals and redundant description will be omitted.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different alphabets to the same reference numerals. However, when it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration, only the same reference numerals will be given.

<<1.背景>>
本発明の実施形態についての説明に当たり、まず本発明の実施形態の創作に至った背景を説明する。
<< 1. Background >>
In describing the embodiments of the present invention, first, the background that led to the creation of the embodiments of the present invention will be described.

工事現場や商業施設等において、カメラで撮像された撮像画像から、人物等の物体の位置を検出したり、位置を追跡したりすることが行われている。人間が見て把握したり、各種解析等に用いたりするためには、実空間に対応し、真上から俯瞰した俯瞰マップにおける位置座標を得ることが望ましい。しかし、真上から俯瞰するようにカメラを配置することは困難であるため、斜め上方から見下ろすように配置されたカメラが用いられることも多い。   2. Description of the Related Art In construction sites, commercial facilities, etc., the position of an object such as a person is detected or the position is tracked from a captured image captured by a camera. In order to be viewed and grasped by humans and used for various analyzes, etc., it is desirable to obtain position coordinates in an eyelid map corresponding to real space and viewed from directly above. However, since it is difficult to arrange the camera so as to look down from directly above, a camera arranged so as to look down obliquely from the upper side is often used.

そこで、このような斜め上方から見下ろすように配置されたカメラで撮像された撮像画像から得られた物体の位置座標を、俯瞰マップへマッピングする(俯瞰マップにおける位置座標に変換する)ことが行われている。このようなマッピングには射影変換行列や透視投影変換行列等の変換パラメータが用いられている。   Therefore, mapping of the position coordinates of an object obtained from a captured image taken by a camera arranged to look down from such a diagonal upper side onto a map of the eyelid is performed (transformed to position coordinates in the map of eyelid) ing. For such mapping, transformation parameters such as a projection transformation matrix or a perspective projection transformation matrix are used.

例えば、撮像画像から俯瞰マップへの射影変換行列をH、撮像画像における位置座標をG(x,y)とすると、俯瞰マップにおける位置座標F(x,y)は次の式(1)により得ることが可能である。   For example, assuming that a projection transformation matrix from a captured image to an eyelid map is H and position coordinates in the captured image are G (x, y), position coordinates F (x, y) in the eyelid map are obtained by the following equation (1) It is possible.

Figure 2019061502
Figure 2019061502

撮像画像から俯瞰マップへの変換パラメータ(例えば射影変換行列)は、撮像画像における位置座標(以下、撮像画像座標と呼称する場合がある)と、俯瞰マップにおける位置座標(以下、俯瞰マップ座標と呼称する場合がある)との対応を複数用いることで求めることが可能である。このように撮像画像から俯瞰マップへの変換パラメータを求めることを以下では俯瞰マップキャリブレーション、あるいは単にキャリブレーションと呼ぶ。   The conversion parameter (for example, the projective transformation matrix) from the captured image to the overhead map is a position coordinate in the captured image (hereinafter sometimes referred to as the captured image coordinate) and a position coordinate in the overhead map (hereinafter referred to as the overhead map coordinate) It is possible to obtain | require by using two or more correspondence with (it may). The determination of the conversion parameter from the captured image to the overhead map in this way is hereinafter referred to as overhead map calibration, or simply calibration.

上述したように、キャリブレーションを行うためには、撮像画像座標と、俯瞰マップ座標との対応を複数用意する必要がある。そのため、例えば、俯瞰マップに対応する実空間に設置された複数の物体を用いて撮像画像座標と、俯瞰マップ座標との対応を複数用意して、キャリブレーションすることが行われている   As described above, in order to perform the calibration, it is necessary to prepare a plurality of correspondences between the captured image coordinates and the eyelid map coordinates. Therefore, for example, calibration is performed by preparing a plurality of correspondences between captured image coordinates and eyelid map coordinates using a plurality of objects installed in a real space corresponding to the eyelid map.

以下、このようにキャリブレーションのために用いられる物体を目標物体と呼称する。なお、目標物体は、キャリブレーションのために新たに設置される物体に限定されず、例えば実空間に既に存在している物体を目標物体として用いることも可能である。   Hereinafter, an object used for calibration in this manner is referred to as a target object. The target object is not limited to an object newly installed for calibration, and, for example, an object already existing in real space may be used as the target object.

ここで、図1、図2を参照して、このように複数の目標物体を用いたキャリブレーションを行う情報処理装置の一例について、本発明の実施形態の比較例として説明する。   Here, with reference to FIG. 1 and FIG. 2, an example of the information processing apparatus that performs calibration using a plurality of target objects in this way will be described as a comparative example of the embodiment of the present invention.

図1は、本比較例に係る情報処理装置8の構成例を示すブロック図である。本比較例に係る情報処理装置8は、図1に示すように、制御部810、画像取得部860、操作部870、出力部880、及び記憶部890を備える。本比較例に係る情報処理装置8は、撮像画像から俯瞰マップへの変換パラメータを求めるキャリブレーションを行い、当該射影変換行列を用いて、撮像画像に映る物体の俯瞰マップ座標を得る情報処理装置である。以下、情報処理装置8の概略構成を説明する。   FIG. 1 is a block diagram showing an example of the configuration of an information processing apparatus 8 according to the present comparative example. As shown in FIG. 1, the information processing apparatus 8 according to this comparative example includes a control unit 810, an image acquisition unit 860, an operation unit 870, an output unit 880, and a storage unit 890. The information processing apparatus 8 according to the present comparative example is a information processing apparatus that performs calibration for obtaining a conversion parameter from an imaged image to an eyelid map, and obtains an eyelid map coordinate of an object shown in the imaged image using the projective transformation matrix. is there. Hereinafter, a schematic configuration of the information processing device 8 will be described.

制御部810は、情報処理装置8の各構成を制御する。また、本比較例に係る制御部810は、図1に示すように、物体位置特定部811、キャリブレーション部813、及び座標変換部815としても機能する。   The control unit 810 controls each component of the information processing device 8. Further, as illustrated in FIG. 1, the control unit 810 according to the present comparative example also functions as an object position specifying unit 811, a calibration unit 813, and a coordinate conversion unit 815.

物体位置特定部811は、撮像画像を取得する画像取得部860から提供された撮像画像に映る物体の、撮像画像における位置座標(撮像画像座標)を特定する。物体位置特定部811による撮像画像座標の特定方法は特に限定されないが、例えば操作部870を用いたユーザ操作に基づいて撮像画像座標が特定されてもよいし、画像処理技術により撮像画像座標が特定されてもよい。   The object position specifying unit 811 specifies position coordinates (captured image coordinates) in the captured image of an object shown in the captured image provided from the image acquisition unit 860 that acquires the captured image. Although a method of specifying captured image coordinates by the object position specifying unit 811 is not particularly limited, for example, captured image coordinates may be specified based on a user operation using the operation unit 870, or captured image coordinates may be specified using image processing technology. It may be done.

物体位置特定部811は、撮像画像座標をキャリブレーション部813、または座標変換部815へ提供する。例えば、キャリブレーションに係る作業を行っている場合には、物体位置特定部811は、目標物体の撮像画像座標をキャリブレーション部813へ提供する。また、キャリブレーションが完了した後、撮像画像に映る物体の俯瞰マップ位置を得たい場合には、物体位置特定部811は、当該物体の撮像画像座標を座標変換部815へ提供する。   The object position specifying unit 811 provides the captured image coordinates to the calibration unit 813 or the coordinate conversion unit 815. For example, when performing an operation relating to calibration, the object position specifying unit 811 provides the captured image coordinates of the target object to the calibration unit 813. In addition, after calibration is completed, when it is desired to obtain an eyelid map position of an object shown in a captured image, the object position specifying unit 811 provides the captured image coordinates of the object to the coordinate conversion unit 815.

キャリブレーション部813は、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。例えば変換パラメータが射影変換行列である場合、4組以上の撮像画像座標と、俯瞰マップ座標との対応が得られれば、上記の式(1)を利用して射影変換行列を特定することが可能である。例えば、キャリブレーション部813は、4組以上の撮像画像座標と、俯瞰マップ座標との対応から得られる連立方程式を解くことにより、3×3の射影変換行列(変換パラメータの一例)を特定(算出)してもよい。   The calibration unit 813 specifies a conversion parameter for converting the captured image coordinates to the map coordinates based on the correspondence between the captured image coordinates and the map coordinates of the map. For example, if the transformation parameter is a projective transformation matrix, the projective transformation matrix can be specified using the above equation (1) if the correspondence between four or more sets of captured image coordinates and eyelid map coordinates is obtained. It is. For example, the calibration unit 813 specifies (calculates a 3 × 3 projective transformation matrix (an example of transformation parameters) by solving simultaneous equations obtained from the correspondences between four or more sets of captured image coordinates and map coordinates of an eyelid. May).

ここで撮像画像座標と、俯瞰マップ座標との対応を得るための方法について図2を参照して説明を行う。図2は、撮像画像座標と、俯瞰マップ座標との対応を得るための方法を説明するための説明図である。   Here, a method for obtaining the correspondence between the captured image coordinates and the eyelid map coordinates will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining a method for obtaining correspondence between captured image coordinates and eyelid map coordinates.

図2には、真上から見た実空間R100が示されており、実空間にはカメラ9と目標物体T101〜T104が設置されている。また、図2に示す通り、実空間R100には点Oを原点とした実空間座標系が設定されている。 FIG. 2 shows a real space R100 viewed from directly above, in which the camera 9 and target objects T101 to T104 are installed. Further, as shown in FIG. 2, the real space coordinate system with the origin point O R in the real space R100 is set.

カメラ9により撮像される画像は例えば図2に示す撮像画像G100のようになる。撮像画像G100における目標物体T101〜T104の位置座標(撮像画像座標)P101〜P104は、上述したように、物体位置特定部811により特定される。   An image captured by the camera 9 is, for example, like a captured image G100 shown in FIG. Position coordinates (captured image coordinates) P101 to P104 of target objects T101 to T104 in the captured image G100 are specified by the object position specifying unit 811 as described above.

また、実空間R100に対応する俯瞰マップは図2に示す俯瞰マップM100のようになる。俯瞰マップM100は、実空間R100の原点Oと対応した原点Oを有し、所定の縮尺により実空間R100における各位置と俯瞰マップM100における各位置が対応している。そのため、目標物体T101〜T104の俯瞰マップM100における位置座標(俯瞰マップ座標)を得るためには、例えば目標物体T101〜T104の実空間位置がわかればよい。 Moreover, the overhead map corresponding to real space R100 becomes like the overhead map M100 shown in FIG. Bird's-eye map M100 has an origin O M corresponding origin O R in the real space R100, each position in the overhead map M100 with each location in the real space R100 is compatible with a predetermined scale. Therefore, in order to obtain the position coordinates (eyelid map coordinates) in the eyelid map M100 of the target objects T101 to T104, for example, it is sufficient to know the real space positions of the target objects T101 to T104.

目標物体T101〜T104は、例えば実空間位置が既知である既定の位置に設置されてもよい。あるいは、実空間位置が不明な位置に目標物体T101〜T104が設置された場合、周知の測位方法により、目標物体T101〜T104の実空間位置が測定されてもよい。係る測位方法は、例えば手動で行われる方法でもよいし、GPS受信機等の測位用の機器を用いた自動的な方法であってもよい。目標物体の実空間位置の情報は、不図示の通信部を介して入力されてもよいし、ユーザ(操作者)による操作部870の操作により入力されてもよい。   The target objects T101 to T104 may be placed, for example, at predetermined positions where the real space position is known. Alternatively, when the target objects T101 to T104 are installed at positions where the real space position is unknown, the real space positions of the target objects T101 to T104 may be measured by a known positioning method. The positioning method may be, for example, a method performed manually or an automatic method using a positioning device such as a GPS receiver. Information on the real space position of the target object may be input through a communication unit (not shown) or may be input by the operation of the operation unit 870 by the user (operator).

このようにして得られた目標物体の実空間位置の情報がキャリブレーション部813へ提供され、キャリブレーション部813は、当該実空間位置に基づいて、目標物体T101〜T104の俯瞰マップ座標F101〜F104を得ることが可能である。なお、ユーザが実空間位置から俯瞰マップ座標を特定してもよく、係る場合、ユーザは操作部870を操作して俯瞰マップ座標を直接的に入力してもよい。   Information on the real space position of the target object obtained in this manner is provided to the calibration unit 813, and the calibration unit 813 sets the eye map coordinates F101 to F104 of the target object T101 to T104 based on the real space position. It is possible to get Note that the user may specify overhead map coordinates from the real space position, and in such a case, the user may operate the operation unit 870 to directly input overhead map coordinates.

上記のようにして、キャリブレーション部813は、撮像画像座標P101〜P104と、俯瞰マップ座標F101〜F104の対応を、キャリブレーションに利用することが可能となる。キャリブレーション部813により特定された変換パラメータは、記憶部890に記憶される変換パラメータDB891に格納される。   As described above, the calibration unit 813 can use the correspondence between the captured image coordinates P101 to P104 and the eyelid map coordinates F101 to F104 for calibration. The conversion parameter specified by the calibration unit 813 is stored in the conversion parameter DB 891 stored in the storage unit 890.

図1に戻って説明を続ける。座標変換部815は、変換パラメータを用いて、物体位置特定部811から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う。座標変換部815は、記憶部890に記憶された変換パラメータDB891に格納された変換パラメータ、すなわち、上述したキャリブレーション部813のキャリブレーションにより得られた変換パラメータを用いて、係る座標変換を行ってもよい。座標変換部815の座標変換により得られた物体の俯瞰マップ座標は、例えば出力部880から出力される。   Returning to FIG. 1, the description will be continued. The coordinate conversion unit 815 performs coordinate conversion to convert captured image coordinates provided from the object position specifying unit 811 into eyelid map coordinates using the conversion parameter. The coordinate conversion unit 815 performs such coordinate conversion using the conversion parameter stored in the conversion parameter DB 891 stored in the storage unit 890, that is, the conversion parameter obtained by the calibration of the calibration unit 813 described above. It is also good. The eyelid map coordinates of the object obtained by the coordinate conversion of the coordinate conversion unit 815 are output from, for example, the output unit 880.

以上、本比較例に係る情報処理装置8の概略構成を説明した。上述したように、情報処理装置8によりキャリブレーションを行うためには、撮像画像座標と、俯瞰マップ座標の対応を得る必要があり、俯瞰マップ座標を得るためには、目標物体の実空間位置を得る必要がある。   The schematic configuration of the information processing apparatus 8 according to the present comparative example has been described above. As described above, in order to perform calibration by the information processing device 8, it is necessary to obtain correspondence between captured image coordinates and eyelid map coordinates, and to obtain eyelid map coordinates, the real space position of the target object is obtained. You need to get it.

目標物体の実空間位置を得るためには、上述したように既定の位置に設置する、手動で測位する、あるいはGPS受信機等の測位用の機器を用いる等の必要がある。測位用の機器を用いた場合、目標物体の製造コストが増加する。また、屋内や地下等では測位用の機器を用いることが不可能な場合もあった。   In order to obtain the real space position of the target object, it is necessary to set the position at the predetermined position as described above, to perform positioning manually, or to use a positioning device such as a GPS receiver. When a positioning device is used, the manufacturing cost of the target object is increased. In some cases, it is impossible to use a positioning device indoors or underground.

一方、目標物体を既定の位置に設置したり、手動で測位したりすることは、キャリブレーションに係る作業コストの増加につながる。カメラの配置が変更されない前提であれば、1回キャリブレーションを行えば十分であるが、カメラの配置が変更されたり、新たなカメラが追加されたりすることも考えられる。例えば、工事現場では、工事範囲が移動する場合にカメラの配置変更を行ったり、工事範囲が広くなる場合にカメラの追加を行うことが考えられる。また、商業施設においても、フロアの状況等に応じて、カメラの配置変更やカメラの追加を行うことが考えられる。   On the other hand, placing the target object at a predetermined position or manually positioning leads to an increase in the working cost for calibration. If it is premised that the arrangement of the camera is not changed, one calibration is sufficient, but the arrangement of the camera may be changed or a new camera may be added. For example, at the construction site, it is conceivable to change the arrangement of the camera when the construction range moves, or to add the camera when the construction range becomes wide. In addition, also in a commercial facility, it is conceivable to change the arrangement of cameras or add cameras according to the condition of the floor and the like.

このようにカメラの配置変更やカメラの追加が行われる場合、カメラの配置変更、またはカメラの追加の度にキャリブレーションを行う必要がある。そのため、カメラの配置変更、またはカメラの追加の度に目標物体を既定の位置に設置したり、手動で測位したりすることは、作業コストを大きく増大させてしまう。   In the case where the camera arrangement is changed or the camera is added in this way, it is necessary to perform calibration each time the camera arrangement is changed or the camera is added. Therefore, placing the target object at a predetermined position or manually positioning it every time the camera is changed or added to the camera greatly increases the operation cost.

そこで、本件発明者は、上記事情を一着眼点にして本発明の実施形態を創作するに至った。以下に説明する本発明の各実施形態による情報処理装置は、キャリブレーション済みのカメラ配置において得られた目標物体の俯瞰マップ座標を記憶しておき、新たなカメラ配置におけるキャリブレーションに用いることでコストを抑制することが可能である。以下では、係る効果を実現する本発明の各実施形態について、順次詳細に説明する。   Therefore, the inventor of the present invention has made the embodiment of the present invention, focusing on the above circumstances. The information processing apparatus according to each embodiment of the present invention described below stores the eyelid map coordinates of the target object obtained in the calibrated camera arrangement, and uses it for calibration in the new camera arrangement. It is possible to suppress Below, each embodiment of the present invention which realizes the effect concerned is described in detail one by one.

<<2.各実施形態の詳細な説明>>
<2−1.第1の実施形態>
(概要)
まず、本発明の第1の実施形態の概要を説明する。本実施形態に係る情報処理装置は、変換パラメータが特定された、つまりキャリブレーションが既に行われたカメラ配置(以下、第1のカメラ配置と呼ぶ場合がある)で撮像された撮像画像における目標物体の撮像画像座標を、俯瞰マップ座標に変換する。本実施形態に係る情報処理装置は、このようにして得られた俯瞰マップ座標を一旦記憶し、例えばカメラ配置の変更、またはカメラの追加を行う。そして、本実施形態に係る情報処理装置は、カメラ配置変更後、あるいはカメラ追加後のカメラ配置(以下、第2のカメラ配置と呼ぶ場合がある)で撮像された撮像画像における目標物体の撮像画像座標と、記憶された俯瞰マップ座標との対応に基づいて、キャリブレーションを行う。
<< 2. Detailed Description of Each Embodiment >>
<2-1. First embodiment>
(Overview)
First, an outline of the first embodiment of the present invention will be described. The information processing apparatus according to the present embodiment is a target object in a captured image captured by a camera arrangement in which a conversion parameter has been specified, that is, a camera arrangement in which calibration has already been performed (hereinafter may be referred to as a first camera arrangement). The captured image coordinates of are converted into overhead map coordinates. The information processing apparatus according to the present embodiment temporarily stores the eyelid map coordinates obtained in this manner, and performs, for example, a change in camera arrangement or an addition of a camera. Then, in the information processing apparatus according to the present embodiment, the captured image of the target object in the captured image captured by the camera layout after changing the camera layout or after adding the camera (hereinafter may be referred to as a second camera layout) Calibration is performed based on the correspondence between the coordinates and the stored map coordinates of the eye.

このようにキャリブレーションを行うことで、第2のカメラ配置におけるキャリブレーションに係るコストを抑制することが可能である。以下、このような本実施形態に係る情報処理装置の構成例について、図3を参照して説明を行う。   By performing the calibration in this manner, it is possible to suppress the cost involved in the calibration in the second camera arrangement. Hereinafter, a configuration example of the information processing apparatus according to the present embodiment will be described with reference to FIG.

(構成例)
図3は、本発明の第1の実施形態に係る情報処理装置1の構成例を示すブロック図である。本実施形態に係る情報処理装置1は、図3に示すように、制御部10、画像取得部60、操作部70、出力部80、及び記憶部90を備える。
(Example of configuration)
FIG. 3 is a block diagram showing an exemplary configuration of the information processing apparatus 1 according to the first embodiment of the present invention. As shown in FIG. 3, the information processing apparatus 1 according to the present embodiment includes a control unit 10, an image acquisition unit 60, an operation unit 70, an output unit 80, and a storage unit 90.

制御部10は、情報処理装置1の各構成を制御する。また、本実施形態に係る制御部10は、図3に示すように、物体位置特定部11、キャリブレーション部13、及び座標変換部15としても機能する。制御部10が有する物体位置特定部11、キャリブレーション部13、及び座標変換部15の機能については後述する。   The control unit 10 controls each component of the information processing apparatus 1. Further, as shown in FIG. 3, the control unit 10 according to the present embodiment also functions as an object position specifying unit 11, a calibration unit 13, and a coordinate conversion unit 15. The functions of the object position specifying unit 11, the calibration unit 13, and the coordinate conversion unit 15 that the control unit 10 has will be described later.

画像取得部60は、不図示のカメラと接続され、当該カメラにより撮像された撮像画像を取得するインタフェースである。なお、画像取得部60は、複数のカメラと接続されて、複数のカメラから撮像画像を取得してもよい。画像取得部60は、取得した撮像画像を制御部10へ提供する。   The image acquisition unit 60 is an interface that is connected to a camera (not shown) and acquires a captured image captured by the camera. The image acquisition unit 60 may be connected to a plurality of cameras to acquire captured images from the plurality of cameras. The image acquisition unit 60 provides the acquired captured image to the control unit 10.

なお、情報処理装置1自体がカメラを含んでもよい。係る場合には画像取得部60に代えて、または加えてCCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)等を含む撮像部を情報処理装置1が備えてもよい。   Note that the information processing apparatus 1 itself may include a camera. In such a case, the information processing apparatus 1 may include an imaging unit including a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), instead of or in addition to the image acquisition unit 60.

操作部70は、情報処理装置1のユーザ(操作者)による入力を受け付ける。例えば、操作部70は、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー、またはダイヤル等により実現されてもよい。   The operation unit 70 receives an input by a user (operator) of the information processing apparatus 1. For example, the operation unit 70 may be realized by a mouse, a keyboard, a touch panel, a button, a switch, a lever, a dial, or the like.

出力部80は、例えばディスプレイであり、俯瞰マップにおける物体の位置等を目的に応じて表示出力する。例えば当該物体が静止していれば当該物体の位置を俯瞰マップ上に表示出力すればよいし、当該物体が移動していれば、その軌跡を各フレームの俯瞰マップ座標に基づいて表示出力すればよい。   The output unit 80 is, for example, a display, and displays and outputs the position and the like of the object in the eyelid map according to the purpose. For example, if the object is stationary, the position of the object may be displayed and output on the map, and if the object is moving, the locus may be displayed and output based on the map coordinates of each frame. Good.

記憶部90は、情報処理装置1の動作に用いられるプログラム及びデータを記憶する。また、記憶部90は図3に示すように変換パラメータDB91、及び位置座標DB93を記憶する。   The storage unit 90 stores programs and data used for the operation of the information processing apparatus 1. In addition, the storage unit 90 stores a conversion parameter DB 91 and a position coordinate DB 93 as shown in FIG.

変換パラメータDB91には、後述するキャリブレーション部13から提供される、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータが格納される。また、位置座標DB93には、後述する座標変換部15から提供される、目標物体の俯瞰マップ座標が格納される。なお、本実施形態に係る記憶部90は、係る位置座標DB93を記憶する点で図1に示した記憶部890と異なる。   The conversion parameter DB 91 stores conversion parameters for converting captured image coordinates into overhead map coordinates, which are provided from a calibration unit 13 described later. The position coordinate DB 93 stores the eyelid map coordinates of the target object provided by the coordinate conversion unit 15 described later. The storage unit 90 according to the present embodiment is different from the storage unit 890 shown in FIG. 1 in that the position coordinate DB 93 is stored.

以上、本実施形態に係る情報処理装置1の全体構成を説明した。続いて、情報処理装置1が備える制御部10が有する物体位置特定部11、キャリブレーション部13、及び座標変換部15の機能について説明する。   The overall configuration of the information processing apparatus 1 according to the present embodiment has been described above. Subsequently, functions of the object position specifying unit 11, the calibration unit 13, and the coordinate conversion unit 15 included in the control unit 10 included in the information processing device 1 will be described.

物体位置特定部11は、画像取得部60から提供された撮像画像に映る物体(目標物体を含む)の撮像画像座標を特定する。物体位置特定部11は、操作部870を用いたユーザ操作に基づいて物体の撮像画像座標を特定してもよいし、画像処理技術により撮像画像座標を特定してもよい。例えば、画像処理技術により撮像画像座標を特定する場合、物体位置特定部11は、テンプレートマッチング等の手法を用いて撮像画像から物体を検出し、撮像画像において当該物体の領域内で最も下の位置座標を当該物体の撮像画像座標として特定してもよい。   The object position specifying unit 11 specifies captured image coordinates of an object (including a target object) shown in the captured image provided from the image acquisition unit 60. The object position specifying unit 11 may specify the captured image coordinates of the object based on the user operation using the operation unit 870, or may specify the captured image coordinates by image processing technology. For example, when the captured image coordinates are specified by image processing technology, the object position specifying unit 11 detects an object from the captured image using a method such as template matching, and the lowermost position in the region of the object in the captured image. The coordinates may be specified as captured image coordinates of the object.

また、物体位置特定部11は、撮像画像から目標物体候補の撮像画像座標を検出し、検出された目標物体候補の撮像画像座標を、出力部80に出力(例えば表示)させてもよい。出力部80の出力を確認したユーザ(操作者)は、操作部70を介して目標物体候補の中から目標物体の決定を行ってもよい。そして、物体位置特定部11は、操作部70を介した操作者の決定に基づいて、決定された目標物体候補の撮像画像座標を目標物体の撮像画像座標として特定してもよい。   Further, the object position specifying unit 11 may detect the captured image coordinates of the target object candidate from the captured image, and output (for example, display) the captured image coordinates of the detected target object candidate to the output unit 80. The user (operator) who has confirmed the output of the output unit 80 may determine the target object from among the target object candidates via the operation unit 70. Then, based on the determination of the operator via the operation unit 70, the object position specifying unit 11 may specify the determined captured image coordinates of the target object candidate as the captured image coordinates of the target object.

係る構成により、目標物体の撮像画像座標がより高精度に特定され得る。目標物体の撮像画像座標の特定に誤りがあると、キャリブレーション精度に大きな影響を及ぼす恐れがあるため、目標物体の撮像画像座標が高精度に特定されることで、キャリブレーション精度も向上し得る。   With such a configuration, captured image coordinates of the target object can be identified with higher accuracy. If there is an error in specifying the captured image coordinates of the target object, there is a possibility that the calibration accuracy may be greatly affected. Therefore, the calibration accuracy can be improved by specifying the captured image coordinates of the target object with high accuracy. .

キャリブレーション部13は、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。キャリブレーション部13が特定する変換パラメータは、例えば射影変換行列であってもよい。キャリブレーション部13は、例えば図1に示した比較例に係るキャリブレーション部813と同様に射影変換行列を特定し得る。   The calibration unit 13 specifies a conversion parameter for converting the captured image coordinates to the map coordinates based on the correspondence between the captured image coordinates and the map coordinates of the map. The transformation parameters specified by the calibration unit 13 may be, for example, a projection transformation matrix. The calibration unit 13 can specify, for example, a projection transformation matrix in the same manner as the calibration unit 813 according to the comparative example illustrated in FIG.

最初にカメラが設置された際のカメラ配置において本実施形態に係るキャリブレーション部13がキャリブレーションを行う場合、例えば操作部70を介したユーザ操作により目標物体の実空間位置、または俯瞰マップ座標が入力されてもよい。   When the calibration unit 13 according to the present embodiment performs calibration in the camera arrangement when the camera is first installed, for example, the real space position of the target object or the eyelid map coordinates by the user operation via the operation unit 70 It may be input.

ただし、記憶部90の位置座標DB93に目標物体の俯瞰マップ座標が格納されている場合、本実施形態に係るキャリブレーション部13は、位置座標DB93に格納された(記憶された)目標物体の俯瞰マップ座標を用いてキャリブレーションを行う。位置座標DB93に格納された目標物体の俯瞰マップ座標は、後述する座標変換部15が行う座標変換により得られる俯瞰マップ座標である。   However, when the eyelid map coordinates of the target object are stored in the position coordinate DB 93 of the storage unit 90, the calibration unit 13 according to the present embodiment is the eyelid of the target object stored (stored) in the position coordinate DB 93. Perform calibration using map coordinates. The eyelid map coordinates of the target object stored in the position coordinate DB 93 are eyelid map coordinates obtained by coordinate conversion performed by the coordinate conversion unit 15 described later.

座標変換部15は、変換パラメータを用いて、物体位置特定部11から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う。座標変換部15は、記憶部90に記憶された変換パラメータDB91に格納された変換パラメータ、すなわち、上述したキャリブレーション部13のキャリブレーションにより得られた変換パラメータを用いて、係る座標変換を行ってもよい。座標変換部15の座標変換により得られた物体の俯瞰マップ座標は、例えば出力部80から出力される。   The coordinate conversion unit 15 performs coordinate conversion to convert captured image coordinates provided from the object position specifying unit 11 into eyelid map coordinates using conversion parameters. The coordinate conversion unit 15 performs such coordinate conversion using the conversion parameter stored in the conversion parameter DB 91 stored in the storage unit 90, that is, the conversion parameter obtained by the calibration of the calibration unit 13 described above. It is also good. The eyelid map coordinates of the object obtained by the coordinate conversion of the coordinate conversion unit 15 are output from the output unit 80, for example.

また、本実施形態に係る座標変換部15は、第1のカメラ配置に対応する第1の変換パラメータを用いて、当該第1のカメラ配置で撮像された第1の撮像画像における目標物体の撮像画像座標を、俯瞰マップにおける当該目標物体の俯瞰マップ座標に変換する。さらに、座標変換部15は、このようにして得た俯瞰マップ座標を記憶部90へ提供し、位置座標DB93に格納させる。   In addition, the coordinate conversion unit 15 according to the present embodiment uses the first conversion parameter corresponding to the first camera arrangement to pick up an image of the target object in the first pickup image picked up by the first camera arrangement. The image coordinates are transformed into the eye map coordinates of the target object in the eye map. Further, the coordinate conversion unit 15 provides the eyelid map coordinates obtained in this manner to the storage unit 90, and stores the same in the position coordinate DB 93.

係る構成により、キャリブレーション部13は、第1のカメラ配置とは異なる第2のカメラ配置においてキャリブレーションを行う際に、上述したように位置座標DB93に格納された目標物体の俯瞰マップ座標を用いることが可能となる。つまりキャリブレーション部13は、第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における目標物体の撮像画像座標と、俯瞰マップにおける当該目標物体の俯瞰マップ座標との対応に基づいて、当該第2のカメラ配置に対応した第2の変換パラメータを特定することができる。   With such a configuration, the calibration unit 13 uses the eyelid map coordinates of the target object stored in the position coordinate DB 93 as described above when performing calibration in the second camera arrangement different from the first camera arrangement. It becomes possible. That is, the calibration unit 13 determines between the captured image coordinates of the target object in the second captured image captured by the second camera layout different from the first camera layout and the overhead map coordinates of the target object in the overhead map. Based on the correspondence, it is possible to specify a second conversion parameter corresponding to the second camera arrangement.

係る構成によれば、第2のカメラ配置においてキャリブレーションを行う際に、実空間において目標物体の測位を行わなくてもよいため、作業コストが抑制される。   According to the configuration, when performing calibration in the second camera arrangement, it is not necessary to perform positioning of the target object in the real space, so the operation cost is suppressed.

(動作例)
以上、本実施形態に係る情報処理装置1の構成例について説明した。続いて、本実施形態の動作例について図4〜図10を参照して説明する。
(Operation example)
The configuration example of the information processing apparatus 1 according to the present embodiment has been described above. Subsequently, an operation example of the present embodiment will be described with reference to FIGS.

図4は、本実施形態に係る動作概要を示すフローチャート図である。図4に示すように、まず、最初にカメラが設置された際のカメラ配置における変換パラメータを求めるためのキャリブレーション(以下、初期キャリブレーションと呼ぶ)が行われる(S10)。ステップS10の初期キャリブレーションの詳細については、図5〜図7を参照して後述する。   FIG. 4 is a flowchart showing an outline of operation according to the present embodiment. As shown in FIG. 4, first, calibration (hereinafter referred to as initial calibration) for determining conversion parameters in the camera arrangement when the camera is first installed is performed (S10). Details of the initial calibration in step S10 will be described later with reference to FIGS.

続いて、カメラの配置変更、または追加を行う場合(S12においてYES)、カメラ配置変更後、あるいはカメラ追加後のカメラ配置における変換パラメータを求めるための
キャリブレーション(以下、再キャリブレーションと呼ぶ)が行われる(S14)。ステップS14の再キャリブレーションの詳細な動作については、図8〜図10を参照して後述する。
Subsequently, when the camera layout is changed or added (YES in S12), calibration for obtaining conversion parameters in the camera layout after the camera layout change or after the camera addition (hereinafter referred to as recalibration) is It is performed (S14). The detailed operation of the recalibration in step S14 will be described later with reference to FIGS.

一方、カメラの配置変更、追加のいずれも行われない場合(S12においてNO)、動作は終了する。なお、図示されていないが、ステップS10とステップS12の間には、上述したように、撮像画像に映る人物等の物体の位置を俯瞰マップ上に表示出力する処理等が含まれていてもよい。   On the other hand, when neither the arrangement change of the camera nor the addition is performed (NO in S12), the operation ends. Although not shown, as described above, the process of displaying and displaying the position of an object such as a person appearing in the captured image may be included between the step S10 and the step S12. .

以上、本実施形態に係る動作概要について説明した。続いて、図5〜図7を参照して、図4に示したステップS10の初期キャリブレーションについてより詳細に説明する。図5は、初期キャリブレーションの詳細な動作を示すフローチャート図である。また、図6、図7は、初期キャリブレーションについて説明するための説明図である。   The outline of the operation according to the present embodiment has been described above. Subsequently, the initial calibration of step S10 shown in FIG. 4 will be described in more detail with reference to FIGS. FIG. 5 is a flowchart showing the detailed operation of the initial calibration. 6 and 7 are explanatory diagrams for explaining the initial calibration.

図6には、実空間R1と、実空間R1に設置されたカメラ5Aにより撮像された撮像画像G1が示されている。また、図7には、実空間R1と、実空間R1に対応する俯瞰マップM1が示されている。なお、俯瞰マップM1のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示している。また、図6に示される実空間R1は真上から見た平面図であり、図7に示される実空間R1は横から見た側面図である。   FIG. 6 shows a real space R1 and a captured image G1 captured by a camera 5A installed in the real space R1. Further, FIG. 7 shows a real space R1 and an overhead map M1 corresponding to the real space R1. In addition, the area | region MA has shown the area | region corresponding to the imaging range of the camera 5A among the eyelid map M1. Further, the real space R1 shown in FIG. 6 is a plan view seen from directly above, and the real space R1 shown in FIG. 7 is a side view seen from the side.

図5に示すように、まず、目標物体T1〜T4が実空間R1に設置される(S100)。続いて、目標物体T1〜T4の実空間位置が測定され、目標物体T1〜T4の実空間位置にそれぞれ対応する俯瞰マップ座標F1〜F4が、例えば操作部70を介したユーザ操作により入力される(S102)。   As shown in FIG. 5, first, target objects T1 to T4 are placed in the real space R1 (S100). Subsequently, the real space positions of the target objects T1 to T4 are measured, and the eyelid map coordinates F1 to F4 respectively corresponding to the real space positions of the target objects T1 to T4 are input by a user operation via the operation unit 70, for example. (S102).

続いて、画像取得部60により、カメラ5Aにより撮像された撮像画像G1が取得される(S104)。なお、撮像画像G1が取得された後、目標物体T1〜T4は撤去されてもよい。続いて、物体位置特定部11が、目標物体T1〜T4の撮像画像座標P1〜P4をそれぞれ特定する(S106)。   Subsequently, the image acquisition unit 60 acquires a captured image G1 captured by the camera 5A (S104). In addition, after the captured image G1 is acquired, the target objects T1 to T4 may be removed. Subsequently, the object position specifying unit 11 specifies captured image coordinates P1 to P4 of the target objects T1 to T4 (S106).

続いて、キャリブレーション部13が、撮像画像座標P1〜P4と俯瞰マップ座標F1〜F4との対応に基づいて、変換パラメータを特定する(S108)。ステップS108で特定された変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S110)。   Subsequently, the calibration unit 13 specifies conversion parameters based on the correspondence between the captured image coordinates P1 to P4 and the eyelid map coordinates F1 to F4 (S108). The conversion parameter identified in step S108 is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S110).

以上、ステップS10の初期キャリブレーションについて説明した。続いて、図8〜図10を参照して、図4に示したステップS14の再キャリブレーションについてより詳細に説明する。図8は、本実施形態に係る再キャリブレーションの詳細な動作を示すフローチャート図である。また、図9、図10は、本実施形態に係る再キャリブレーションについて説明するための説明図である。   The initial calibration of step S10 has been described above. Subsequently, the recalibration in step S14 shown in FIG. 4 will be described in more detail with reference to FIGS. FIG. 8 is a flowchart showing the detailed operation of the recalibration according to the present embodiment. 9 and 10 are explanatory diagrams for explaining the recalibration according to the present embodiment.

なお、図9、及び図10は、初期キャリブレーションが行われた後、最初に再キャリブレーションが行われる場合の例、つまり、カメラの配置変更、または追加が最初に行われる場合の例を示している。カメラの配置変更が行われる場合、図9、及び図10に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、カメラの追加が行われる場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。   9 and 10 show an example in which recalibration is performed first after the initial calibration is performed, that is, an example in which the camera layout change or addition is performed first. ing. When the arrangement change of the camera is performed, the camera 5A and the camera 5B shown in FIGS. 9 and 10 may be the same camera 5, and the camera 5A indicates the camera 5 before the arrangement change, and the camera 5B It may be understood that the camera 5 is shown after the arrangement change. Further, when the camera is added, the camera 5A and the camera 5B are different cameras, and the camera 5B is added.

カメラ5Aのカメラ配置におけるキャリブレーションは既にステップS10において完了しているため、カメラ5Aのカメラ配置を上述した第1のカメラ配置、カメラ5Bのカメラ配置を上述した第2のカメラ配置とそれぞれ呼称する。   Since calibration in the camera arrangement of the camera 5A has already been completed in step S10, the camera arrangement of the camera 5A will be referred to as the first camera arrangement described above, and the camera arrangement of the camera 5B as the second camera arrangement described above. .

図9には、実空間R10と、実空間R10に設置されたカメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G11、及び実空間R10に設置されたカメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G12が示されている。また、図10には、実空間R10と、実空間R10に対応する俯瞰マップM11及び俯瞰マップM12が示されている。なお、俯瞰マップM11のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM12のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図9に示される実空間R10は真上から見た平面図であり、図10に示される実空間R10は横から見た側面図である。また、図10に示す俯瞰マップM11、及び俯瞰マップM12は、図7に示した俯瞰マップM1と同一の座標系を有している。   In FIG. 9, a first captured image G11 captured in the first camera arrangement by the real space R10 and the camera 5A installed in the real space R10, and a second captured image by the camera 5B installed in the real space R10. The second captured image G12 captured in the camera arrangement is shown. Further, FIG. 10 shows a real space R10, and a weir map M11 and a weir map M12 corresponding to the real space R10. In the overhead map M11, the area MA indicates the area corresponding to the imaging range of the camera 5A, and the area MB on the overhead map M12 indicates the area corresponding to the imaging range of the camera 5B. Further, the real space R10 shown in FIG. 9 is a plan view seen from directly above, and the real space R10 shown in FIG. 10 is a side view seen from the side. The eyelid map M11 and the eyelid map M12 shown in FIG. 10 have the same coordinate system as the eyelid map M1 shown in FIG.

図8に示すように、まず、目標物体T11〜T14が実空間R10に設置される(S140)。続いて、画像取得部60により、カメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G11が取得される(S142)。続いて、物体位置特定部11が、第1の撮像画像G11における目標物体T11〜T14の撮像画像座標P111〜P114をそれぞれ特定する(S144)。   As shown in FIG. 8, first, target objects T11 to T14 are placed in the real space R10 (S140). Subsequently, the image acquisition unit 60 acquires a first captured image G11 captured by the camera 5A in the first camera arrangement (S142). Subsequently, the object position specifying unit 11 specifies captured image coordinates P111 to P114 of the target objects T11 to T14 in the first captured image G11, respectively (S144).

続いて、座標変換部15が、記憶部90の変換パラメータDB91に格納された(記憶された)第1の変換パラメータを用いて、撮像画像座標P111〜P114を俯瞰マップ座標F11〜F14にそれぞれ変換する(S146)。なお、ステップS146で用いられる第1の変換パラメータは、カメラ5Aのカメラ配置(第1のカメラ配置)に対応した変換パラメータであり、例えば図5に示したステップS110において記憶された変換パラメータであってもよい。   Subsequently, using the first conversion parameter stored (stored) in the conversion parameter DB 91 of the storage unit 90, the coordinate conversion unit 15 converts the captured image coordinates P111 to P114 into the eyelid map coordinates F11 to F14, respectively. (S146). The first conversion parameter used in step S146 is a conversion parameter corresponding to the camera arrangement (first camera arrangement) of the camera 5A, and is, for example, the conversion parameter stored in step S110 shown in FIG. May be

ステップS146で得られた俯瞰マップ座標F11〜F14は、記憶部90の位置座標DB93に格納(記憶)される(S147)。   The eyelid map coordinates F11 to F14 obtained in step S146 are stored (stored) in the position coordinate DB 93 of the storage unit 90 (S147).

続いて、カメラの配置変更、またはカメラの追加が行われる(S148)。続いて、画像取得部60により、カメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G12が取得される(S150)。続いて、物体位置特定部11が、第2の撮像画像G12における目標物体T11〜T14の撮像画像座標P121〜P124をそれぞれ特定する(S152)。   Subsequently, the arrangement of the camera or the addition of a camera is performed (S148). Subsequently, the second captured image G12 captured by the camera 5B in the second camera arrangement is acquired by the image acquisition unit 60 (S150). Subsequently, the object position specifying unit 11 specifies captured image coordinates P121 to P124 of the target objects T11 to T14 in the second captured image G12, respectively (S152).

続いて、キャリブレーション部13が、ステップS152で特定された撮像画像座標P121〜P124と、ステップS147で位置座標DB93に格納された俯瞰マップ座標F11〜F14との対応に基づいて、第2の変換パラメータを特定する(S154)。ステップS154で特定された第2の変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S156)。   Subsequently, the calibration unit 13 performs a second conversion based on the correspondence between the captured image coordinates P121 to P124 specified in step S152 and the eyelid map coordinates F11 to F14 stored in the position coordinate DB 93 in step S147. The parameters are identified (S154). The second conversion parameter specified in step S154 is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S156).

以上、ステップS14の再キャリブレーションについて説明した。なお、図4を参照して説明したように、ステップS14の再キャリブレーションは、カメラの再配置、またはカメラの追加が行われなくなるまで繰り返される。したがって、図8〜図10を参照して説明したカメラ5Bのカメラ配置(第2のカメラ配置)、及び特定された第2の変換パラメータは、次回、再キャリブレーションが行われる際には第1のカメラ配置、及び第1の変換パラメータとして扱われる。   The recalibration in step S14 has been described above. Note that, as described with reference to FIG. 4, the recalibration in step S14 is repeated until camera repositioning or camera addition is not performed. Therefore, the camera arrangement (second camera arrangement) of the camera 5B described with reference to FIGS. 8 to 10 and the specified second conversion parameter are the first when the recalibration is performed next time. And the first conversion parameter.

また、図10に示すように、上述した目標物体T11〜T14は、カメラ5A、及びカメラ5Bの両方の撮像範囲に含まれるように配置される。図8に示したように目標物体T11〜T14が配置された後にカメラの配置変更、あるはカメラの追加が行われる場合、カメラ5Bの撮像範囲に目標物体T11〜T14が含まれるようにカメラ5Bの設置が行われればよい。   Further, as shown in FIG. 10, the target objects T11 to T14 described above are arranged so as to be included in the imaging ranges of both the camera 5A and the camera 5B. As shown in FIG. 8, when the arrangement of the cameras is changed or the camera is added after the target objects T11 to T14 are arranged, the camera 5B is set so that the target objects T11 to T14 are included in the imaging range of the camera 5B. The installation of should be done.

(補足)
以上、本発明の第1の実施形態について説明した。本実施形態によれば、キャリブレーション済みの第1のカメラ配置において得られた目標物体の俯瞰マップ座標を、第2のメラ配置におけるキャリブレーションに用いることで、第2のカメラ配置におけるキャリブレーションに係るコストを抑制することが可能である。なお、上記では目標物体の数が4である例を説明したが、目標物体の数は変換パラメータ、及び座標変換の手法に必要な数応じて異なってもよい。また、目標物体の数は、目標物体の数は変換パラメータ、及び座標変換の手法に必要な数よりも多くてもよく、係る構成により、より高精度なキャリブレーションが可能となり得る。
(Supplement)
The first embodiment of the present invention has been described above. According to the present embodiment, by using the eyelid map coordinates of the target object obtained in the first calibrated camera arrangement for calibration in the second camera arrangement, calibration for the second camera arrangement is performed. It is possible to suppress such costs. Although the example in which the number of target objects is four has been described above, the number of target objects may be different depending on the conversion parameter and the number necessary for the method of coordinate conversion. In addition, the number of target objects may be larger than the number required for conversion parameters and coordinate conversion methods, and such a configuration may enable more accurate calibration.

<2−2.第2の実施形態>
(概要)
上記第1の実施形態では、カメラの再配置、またはカメラの追加が行われる度に再キャリブレーションを繰り返し行う例を説明した。しかし、再キャリブレーションの繰り返し回数が増大すると、座標変換により得られる目標物体の俯瞰マップ座標と、目標物体の実空間位置に対応する俯瞰マップ座標との誤差が蓄積され、大きくなってしまう場合がある。
2-2. Second embodiment>
(Overview)
In the first embodiment, an example has been described in which recalibration is repeatedly performed each time camera relocation or camera addition is performed. However, when the number of repetitions of recalibration increases, an error may be accumulated between the eyelid map coordinates of the target object obtained by coordinate conversion and the eyelid map coordinates corresponding to the real space position of the target object, which may increase. is there.

そこで、実空間における位置が既知である、すなわち、俯瞰マップ座標が既知である物体(以下、基準物体と呼ぶ)を用いて補正を行う例を第2の実施形態として説明する。   Thus, an example in which correction is performed using an object whose position in the real space is known, that is, the eyelid map coordinates are known (hereinafter, referred to as a reference object) will be described as a second embodiment.

(構成例)
図11は、本発明の第2の実施形態に係る情報処理装置2の構成例を示すブロック図である。本実施形態に係る情報処理装置2は、図11に示すように、制御部20、画像取得部60、操作部70、出力部80、及び記憶部90を備える。なお、図11に示す構成要素のうち、図3に示した構成要素と実質的に同一の機能構成を有する構成要素については、同一の符号を付してあるため、説明を省略する。
(Example of configuration)
FIG. 11 is a block diagram showing a configuration example of the information processing device 2 according to the second embodiment of the present invention. The information processing apparatus 2 according to the present embodiment includes a control unit 20, an image acquisition unit 60, an operation unit 70, an output unit 80, and a storage unit 90, as shown in FIG. Note that among the components shown in FIG. 11, components having substantially the same functional configuration as the components shown in FIG. 3 are given the same reference numerals, and thus the description thereof is omitted.

制御部20は、情報処理装置2の各構成を制御する。また、本実施形態に係る制御部20は、図11に示すように、物体位置特定部21、キャリブレーション部23、座標変換部25、及び補正部27としても機能する。   The control unit 20 controls each component of the information processing device 2. Further, as shown in FIG. 11, the control unit 20 according to the present embodiment also functions as an object position specifying unit 21, a calibration unit 23, a coordinate conversion unit 25, and a correction unit 27.

物体位置特定部21は、図3を参照して説明した物体位置特定部11と同様に、画像取得部60から提供された撮像画像に映る物体の撮像画像座標を特定する。ただし、物体位置特定部21が特定する撮像画像座標は、基準物体の撮像画像座標を含む点で物体位置特定部21は物体位置特定部11と異なる。なお、物体位置特定部21は、目標物体の撮像画像座標の特定方法と同様の方法で基準物体の撮像画像座標を特定してもよい。   The object position specifying unit 21 specifies, as in the case of the object position specifying unit 11 described with reference to FIG. 3, captured image coordinates of an object shown in a captured image provided from the image acquisition unit 60. However, the captured image coordinates identified by the object position identifying unit 21 differ from the object position identifying unit 11 in that the captured image coordinates identified by the object position identifying unit 21 include captured image coordinates of the reference object. The object position specifying unit 21 may specify the captured image coordinates of the reference object by the same method as the method of identifying the captured image coordinates of the target object.

キャリブレーション部23は、図3を参照して説明したキャリブレーション部13と同様に、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。ただし、キャリブレーション部23は、キャリブレーション部13の機能に加え、後述する補正部27により提供される、目標物体の補正された俯瞰マップ座標を用いて、補正候補となる変換パラメータを特定する機能を有する。   Similar to the calibration unit 13 described with reference to FIG. 3, the calibration unit 23 converts the captured image coordinates into map coordinates based on the correspondence between the captured image coordinates and map map coordinates. Identify the parameters However, in addition to the function of the calibration unit 13, the calibration unit 23 is a function of specifying conversion parameters as correction candidates using the corrected eyelid map coordinates of the target object provided by the correction unit 27 described later. Have.

座標変換部25は、図3を参照して説明した座標変換部15と同様に、変換パラメータを用いて、物体位置特定部21から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う機能を有する。ただし、座標変換部25は、座標変換部15の機能に加え、後述する補正部27の制御に従い、物体の撮像画像座標を、俯瞰マップ座標に変換する機能を有する。本実施形態に係る座標変換部25は後述する補正部27の制御に従い、変換パラメータDB91に格納された変換パラメータを用いて、基準物体の撮像画像座標を、俯瞰マップ座標に変換する。また、本実施形態に係る座標変換部25は後述する補正部27の制御に従い、補正候補となる変換パラメータを用いて、基準物体の撮像画像座標を、俯瞰マップ座標に変換する。   Similar to the coordinate conversion unit 15 described with reference to FIG. 3, the coordinate conversion unit 25 uses coordinate conversion to convert the captured image coordinates provided from the object position specifying unit 21 into eyelid map coordinates. Have a function to However, in addition to the function of the coordinate conversion unit 15, the coordinate conversion unit 25 has a function of converting captured image coordinates of an object into eyelid map coordinates under the control of the correction unit 27 described later. The coordinate conversion unit 25 according to the present embodiment converts the captured image coordinates of the reference object into overhead map coordinates using the conversion parameter stored in the conversion parameter DB 91 under the control of the correction unit 27 described later. Further, the coordinate conversion unit 25 according to the present embodiment converts captured image coordinates of the reference object into eyelid map coordinates using conversion parameters as correction candidates under the control of the correction unit 27 described later.

補正部27は、俯瞰マップ座標が既知である基準物体を用いて、キャリブレーション部23により特定された変換パラメータの補正を行う。補正部27は、図11に示すように、距離特定部271、判定部273、座標補正部275、及び補正制御部277を有する。   The correction unit 27 corrects the conversion parameter specified by the calibration unit 23 using a reference object whose eyelid map coordinates are known. As shown in FIG. 11, the correction unit 27 includes a distance specifying unit 271, a determination unit 273, a coordinate correction unit 275, and a correction control unit 277.

距離特定部271は、基準物体の既知の俯瞰マップ座標(以下、既知基準座標と呼ぶ)と、座標変換部25が基準物体の撮像画像座標を変換することにより得られる当該基準物体の俯瞰マップ座標(以下、変換基準座標と呼ぶ)との距離を特定する。距離特定部271が特定する距離は、例えば既知基準座標と変換基準座標との間のユークリッド距離であってもよい。ただし、距離特定部271が特定する距離はユークリッド距離に限定されるものではない。   The distance specifying unit 271 obtains the known eyelid map coordinates of the reference object (hereinafter referred to as known reference coordinates) and the eyelid map coordinates of the reference object obtained by converting the captured image coordinates of the reference object by the coordinate conversion unit 25. The distance to (hereinafter referred to as conversion reference coordinates) is specified. The distance specified by the distance specifying unit 271 may be, for example, a Euclidean distance between the known reference coordinates and the conversion reference coordinates. However, the distance specified by the distance specifying unit 271 is not limited to the Euclidean distance.

判定部273は、距離特定部271により特定された距離が所定の範囲内であるか否かの判定を行う。   The determining unit 273 determines whether the distance specified by the distance specifying unit 271 is within a predetermined range.

座標補正部275は、判定部273により、距離が所定の範囲内ではないと判定された場合に、既知基準座標と変換基準座標との差、つまり変換基準座標から既知基準座標へのベクトルに基づいて、目標物体の俯瞰マップ座標を補正する。例えば、座標補正部275は、目標物体の補正前の俯瞰マップ座標から補正後の俯瞰マップ座標へのベクトルが、変換基準座標から既知基準座標へのベクトルと同一あるいは略同一になるように、目標物体の俯瞰マップ座標の補正を行ってもよい。つまり、座標補正部275は既知基準座標と変換基準座標との差を、目標物体の補正前の俯瞰マップ座標に加えることで、目標物体の補正後の俯瞰マップ座標を得てもよい。   When the determination unit 273 determines that the distance is not within the predetermined range, the coordinate correction unit 275 determines the difference between the known reference coordinates and the conversion reference coordinates, that is, based on the vector from the conversion reference coordinates to the known reference coordinates. And correct the eyelid map coordinates of the target object. For example, the coordinate correction unit 275 sets the target so that the vector from the eyelid map coordinates before correction of the target object to the eyelid map coordinates after correction is the same as or substantially the same as the vector from the conversion reference coordinates to the known reference coordinates. Correction of the eyelid map coordinates of the object may be performed. That is, the coordinate correction unit 275 may obtain the after-correction map coordinates of the target object by adding the difference between the known reference coordinates and the conversion reference coordinates to the before-correction overhead map coordinates of the target object.

補正制御部277は、上述した距離特定部271、判定部273、及び座標補正部275の動作を制御する。また、補正制御部277は、変換パラメータの補正を行うため、キャリブレーション部23、及び座標変換部25の動作の一部を制御する。   The correction control unit 277 controls the operations of the distance specifying unit 271, the determination unit 273, and the coordinate correction unit 275 described above. Further, the correction control unit 277 controls part of the operations of the calibration unit 23 and the coordinate conversion unit 25 in order to correct the conversion parameter.

例えば、補正制御部277は、座標変換部25を制御して、変換パラメータDB91に格納された変換パラメータを用いて基準物体の撮像画像座標を変換基準座標に変換させる。また、補正制御部277は、距離特定部271を制御し、座標変換部25により得られた変換基準座標を用いて、距離を特定させる。   For example, the correction control unit 277 controls the coordinate conversion unit 25 to convert the captured image coordinates of the reference object into conversion reference coordinates using the conversion parameter stored in the conversion parameter DB 91. Further, the correction control unit 277 controls the distance specifying unit 271 to specify the distance using the conversion reference coordinates obtained by the coordinate conversion unit 25.

さらに、補正制御部277は、判定部273を制御し、距離特定部271により特定された距離が所定の範囲内であるか否かの判定を行わせる。そして、補正制御部277は、判定部273の判定結果に応じて、変換パラメータの補正を行う。   Furthermore, the correction control unit 277 controls the determination unit 273 to determine whether the distance specified by the distance specification unit 271 is within a predetermined range. Then, the correction control unit 277 corrects the conversion parameter in accordance with the determination result of the determination unit 273.

例えば、補正制御部277は、判定部273により、距離が所定の範囲内ではないと判定された場合に、座標補正部275を制御して、目標物体の俯瞰マップ座標を補正させる。さらに、座標補正部275により補正された目標物体の俯瞰マップ座標をキャリブレーション部23に提供し、補正候補となる変換パラメータの特定を行わせる。   For example, when the determination unit 273 determines that the distance is not within the predetermined range, the correction control unit 277 controls the coordinate correction unit 275 to correct the eyelid map coordinates of the target object. Further, the eyelid map coordinates of the target object corrected by the coordinate correction unit 275 are provided to the calibration unit 23, and conversion parameters as correction candidates are specified.

なお、補正制御部277は、判定部273により、距離が所定の範囲内であると判定されるまで、上述した一連の処理を繰り返し、最終的に距離が所定の範囲内となるような補正候補となる変換パラメータを、補正された変換パラメータとして記憶部90の位置座標DB93へ格納させてもよい。   Note that the correction control unit 277 repeats the series of processes described above until the determination unit 273 determines that the distance is within the predetermined range, and a correction candidate such that the distance finally falls within the predetermined range The conversion parameter which becomes the above may be stored in the position coordinate DB 93 of the storage unit 90 as a corrected conversion parameter.

なお、係る繰り返しにおいて、2回目以降の処理で座標変換部25が基準物体の撮像画像座標を変換基準座標に変換する場合には、変換パラメータとして、前回の処理でキャリブレーション部23によって特定された補正候補となる変換パラメータが用いられる。   In addition, in the case where the coordinate conversion unit 25 converts the captured image coordinates of the reference object into conversion reference coordinates in the second and subsequent processing in the repetition, the conversion unit is specified by the calibration unit 23 as a conversion parameter. Conversion parameters as correction candidates are used.

また、基準物体の数は複数存在してもよい。基準物体の数が多い程、より高精度な補正を行うことが可能となり得る。ただし、少なくとも1以上の基準物体が存在すれば補正部27は上述した変換パラメータの補正を行うことが可能である。すなわち、補正部27が変換パラメータの補正を行うために要する基準物体の数は、キャリブレーション部23が第2の変換パラメータを特定するために要する目標物体の数(少なくとも4以上)よりも少なくてよい。したがって、全ての目標物体の俯瞰マップ座標を測位するよりも、少ない作業コストで、上述した補正を行うことが可能である。   Also, there may be a plurality of reference objects. As the number of reference objects is larger, it may be possible to perform more accurate correction. However, if there is at least one or more reference objects, the correction unit 27 can perform the correction of the conversion parameters described above. That is, the number of reference objects required for the correction unit 27 to correct the conversion parameters is smaller than the number (at least 4 or more) of target objects required for the calibration unit 23 to specify the second conversion parameters. Good. Therefore, it is possible to perform the above-described correction with less operation cost than positioning the eyelid map coordinates of all target objects.

(動作例)
以上、本実施形態に係る情報処理装置2の構成例について説明した。続いて、本実施形態の動作例について図12〜図15を参照して説明する。
(Operation example)
The configuration example of the information processing apparatus 2 according to the present embodiment has been described above. Subsequently, an operation example of the present embodiment will be described with reference to FIGS. 12 to 15.

図12は、本実施形態に係る動作概要を示すフローチャート図である。図12に示すように、まず、最初にカメラが設置された際のカメラ配置における変換パラメータを求めるため初期キャリブレーションが行われる(S20)。ステップS20の初期キャリブレーションは、図5〜図7を参照して説明した第1の実施形態における初期キャリブレーションと同様であるため、詳細な説明は省略する。   FIG. 12 is a flowchart showing the outline of the operation according to this embodiment. As shown in FIG. 12, first, initial calibration is performed to obtain conversion parameters in the camera arrangement when the camera is first installed (S20). The initial calibration in step S20 is the same as the initial calibration in the first embodiment described with reference to FIGS. 5 to 7, and thus detailed description will be omitted.

続いて、カメラの配置変更、または追加を行う場合(S22においてYES)、カメラ配置変更後、あるいはカメラ追加後のカメラ配置における変換パラメータを求めるための
再キャリブレーションが行われる(S24)。ステップS24の再キャリブレーションは、図8〜図10を参照して説明した第1の実施形態における再キャリブレーションと同様であるため、詳細な説明は省略する。
Subsequently, when the camera layout change or addition is performed (YES in S22), recalibration is performed to obtain conversion parameters in the camera layout after the camera layout change or after the camera addition (S24). The recalibration in step S24 is the same as the recalibration in the first embodiment described with reference to FIGS. 8 to 10, and thus detailed description will be omitted.

続いて、ステップS26において、補正を行うか否かが判定される。補正を行うか否かの判定は、例えば操作部70を介したユーザ操作に基づいて行われてもよいし、所定の条件に基づいて自動的に行われてもよい。例えば、ステップS24の再キャリブレーションを行った際に基準物体が撮像画像に映っていた場合に補正を行ってもよいし、ステップS24の再キャリブレーションの繰り返し回数が所定の回数に達した場合に補正を行ってもよい。   Subsequently, in step S26, it is determined whether or not correction is to be performed. The determination as to whether to perform the correction may be performed based on, for example, a user operation via the operation unit 70, or may be automatically performed based on a predetermined condition. For example, correction may be performed when the reference object appears in the captured image when recalibration in step S24 is performed, or when the number of repetitions of recalibration in step S24 reaches a predetermined number. A correction may be made.

補正を行わないと判定された場合(ステップS26においてNO)、処理はステップS22へ戻る。一方、補正を行うと判定された場合(ステップS26においてYES)、ステップS24の再キャリブレーションで得られた第2の変換パラメータを補正部27が補正する(S28)。ステップS28の詳細な動作については、図13〜図15を参照して後述する。   If it is determined that the correction is not to be performed (NO in step S26), the process returns to step S22. On the other hand, when it is determined that the correction is to be performed (YES in step S26), the correction unit 27 corrects the second conversion parameter obtained in the recalibration in step S24 (S28). The detailed operation of step S28 will be described later with reference to FIGS. 13 to 15.

一方、カメラの配置変更、追加のいずれも行われない場合(S22においてNO)、動作は終了する。なお、図示されていないが、ステップS20とステップS22の間には、撮像画像に映る人物等の物体の位置を俯瞰マップ上に表示出力する処理等が含まれていてもよい。   On the other hand, when neither arrangement change of the camera nor addition is performed (NO in S22), the operation ends. Although not shown, a process of displaying and outputting the position of an object such as a person appearing in a captured image may be included between the step S20 and the step S22 on a map.

以上、本実施形態に係る動作概要について説明した。続いて、図13〜図15を参照して、図12に示したステップS28の補正についてより詳細に説明する。図13は、変換パラメータの補正の詳細な動作を示すフローチャート図である。また、図14、図15は、変換パラメータの補正について説明するための説明図である。   The outline of the operation according to the present embodiment has been described above. Subsequently, the correction of step S28 shown in FIG. 12 will be described in more detail with reference to FIGS. FIG. 13 is a flowchart showing a detailed operation of correction of conversion parameters. 14 and 15 are explanatory diagrams for explaining the correction of the conversion parameter.

なお、図14、及び図15において、カメラ5Aのカメラ配置を上述した第1のカメラ配置とし、カメラ5Bのカメラ配置を上述した第2のカメラ配置とする。また、ステップS20の再キャリブレーションにおいて、カメラの配置変更が行われた場合、図14、及び図15に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、ステップS20の再キャリブレーションにおいて、カメラの追加が行われた場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。   In FIGS. 14 and 15, the camera arrangement of the camera 5A is the first camera arrangement described above, and the camera arrangement of the camera 5B is the second camera arrangement described above. Further, when the arrangement of the cameras is changed in the recalibration in step S20, the cameras 5A and 5B shown in FIGS. 14 and 15 may be the same camera 5, and the cameras 5A are arranged It may be understood that the camera 5 B before the change is shown and the camera 5 B shows the camera 5 after the change of arrangement. In addition, in the case where a camera is added in the recalibration in step S20, the cameras 5A and 5B are different cameras, and the camera 5B is a camera to which the camera 5B is added.

図14には、実空間R20と、実空間R20に設置されたカメラ5Aにより第1のカメラ配置で撮像された撮像画像G21、及び実空間R20に設置されたカメラ5Bにより第2のカメラ配置で撮像された撮像画像G22が示されている。また、図15には、実空間R20と、実空間R20に対応する俯瞰マップM21及び俯瞰マップM22が示されている。なお、俯瞰マップM21のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM22のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図14に示される実空間R20は真上から見た平面図であり、図15に示される実空間R20は横から見た側面図である。   In FIG. 14, the real space R20, the captured image G21 captured in the first camera arrangement by the camera 5A installed in the real space R20, and the second camera arrangement by the camera 5B installed in the real space R20 The captured image G22 captured is shown. Further, FIG. 15 shows a real space R20, and a weir map M21 and a weir map M22 corresponding to the real space R20. In the overhead map M21, the area MA indicates an area corresponding to the imaging range of the camera 5A, and in the overhead map M22, the area MB indicates an area corresponding to the imaging range of the camera 5B. The real space R20 shown in FIG. 14 is a plan view seen from directly above, and the real space R20 shown in FIG. 15 is a side view seen from the side.

また、以下に説明するステップS28の動作が行われるより前の時点で、ステップS24の再キャリブレーションにおいて、目標物体T21〜T24が既に配置されている。また、ステップS24の再キャリブレーションにおいて、撮像画像G21における目標物体T21〜T24の撮像画像座標P211〜P214、及び撮像画像G22における目標物体T21〜T24の撮像画像座標P221〜P224が既に特定されている。また、ステップS24の再キャリブレーションにおいて、第1の変換パラメータを用いた変換により、目標物体T21〜T24の俯瞰マップ座標F21〜F24も既に得られている。   In addition, at the time before the operation of step S28 described below is performed, the target objects T21 to T24 have already been arranged in the recalibration at step S24. Further, in the recalibration in step S24, captured image coordinates P211 to P214 of the target objects T21 to T24 in the captured image G21 and captured image coordinates P221 to P224 of the target objects T21 to T24 in the captured image G22 have already been specified. . Further, in the recalibration in step S24, the eyelid map coordinates F21 to F24 of the target objects T21 to T24 are already obtained by the conversion using the first conversion parameter.

図13に示すように、まず、基準物体B20の実空間位置に対応する既知の俯瞰マップ座標C25(既知基準座標)が、例えば操作部70を介したユーザ操作により入力される(S282)。なお、既知基準座標は、予め記憶部90に記憶されていてもよい。   As shown in FIG. 13, first, a known eyelid map coordinate C25 (known reference coordinate) corresponding to the real space position of the reference object B20 is input by a user operation via the operation unit 70, for example (S282). The known reference coordinates may be stored in advance in the storage unit 90.

続いて、物体位置特定部21が、撮像画像G22における基準物体B20の撮像画像座標P220を特定する(S283)。   Subsequently, the object position specifying unit 21 specifies a captured image coordinate P220 of the reference object B20 in the captured image G22 (S283).

続いて、座標変換部25が、変換パラメータを用いて基準物体B20の撮像画像座標P220を俯瞰マップ座標F25(変換基準座標)に変換する(S284)。なお、ステップS284が最初に行われる場合には、座標変換部25は変換パラメータとして、記憶部90の変換パラメータDB91に格納された第2の変換パラメータを用いてもよい。また、ステップS284が2回目以降に行われる場合には、座標変換部25は変換パラメータとして、後述するステップS292で特定された補正候補となる変換パラメータを用いてもよい。   Subsequently, the coordinate conversion unit 25 converts the captured image coordinates P220 of the reference object B20 into overhead map coordinates F25 (conversion reference coordinates) using the conversion parameter (S284). When step S284 is performed first, the coordinate conversion unit 25 may use the second conversion parameter stored in the conversion parameter DB 91 of the storage unit 90 as the conversion parameter. When step S284 is performed for the second time or later, the coordinate conversion unit 25 may use, as a conversion parameter, a conversion parameter serving as a correction candidate identified in step S292 described later.

続いて、補正部27の距離特定部271が、入力された俯瞰マップ座標C25(既知基準座標)と、変換で得られた俯瞰マップ座標F25(変換基準座標)との距離を特定する(S286)。   Subsequently, the distance specifying unit 271 of the correction unit 27 specifies the distance between the input eyelid map coordinates C25 (known reference coordinates) and the eyelid map coordinates F25 (conversion reference coordinates) obtained by the conversion (S286) .

続いて、補正部27の判定部273は、ステップS286で特定された距離が所定の範囲内であるか否かを判定する(S288)。   Subsequently, the determination unit 273 of the correction unit 27 determines whether the distance specified in step S286 is within a predetermined range (S288).

距離が所定の範囲内ではないと判定された場合(S288においてNO)、補正部27の座標補正部275が、目標物体T21〜T24の俯瞰マップ座標F21〜F24を補正する(S290)。例えば、ステップS290において座標補正部275は、補正前の俯瞰マップ座標F21〜F24から補正後の俯瞰マップ座標C21〜C25へのベクトルが、俯瞰マップ座標F25(変換基準座標)から俯瞰マップ座標C25(既知基準座標)へのベクトルと同一あるいは略同一になるように、目標物体の俯瞰マップ座標の補正を行ってもよい。   If it is determined that the distance is not within the predetermined range (NO in S288), the coordinate correction unit 275 of the correction unit 27 corrects the eyelid map coordinates F21 to F24 of the target object T21 to T24 (S290). For example, in step S290, the coordinate correction unit 275 causes the vector from the eyelid map coordinates F21 to F24 before correction to the eyelid map coordinates C21 to C25 after correction to be eyelid map coordinates C25 from the eyelid map coordinates F25 (conversion reference coordinates). Correction of the eyelid map coordinates of the target object may be performed so as to be the same as or substantially the same as the vector to the known reference coordinates.

続いて、キャリブレーション部23が、ステップS24で既に得られていた撮像画像座標P221〜P224と、ステップS290で得られた補正後の俯瞰マップ座標C21〜C25との対応に基づいて、補正候補となる変換パラメータを特定する(S292)。   Subsequently, based on the correspondences between the captured image coordinates P221 to P224 already obtained in step S24 and the post-correction map coordinates C21 to C25 obtained in step S290, the calibration unit 23 sets correction candidates as correction candidates. Conversion parameters are identified (S292).

補正部27の補正制御部277による制御に従い、ステップS288で距離が所定の範囲内であると判定されるまで、上述したステップS284〜S292の処理は繰り返される。そして、距離が所定の範囲内であると判定された場合(S288においてYES)、補正制御部277は、その時点で最後に行われたステップS292で特定された補正候補となる変換パラメータを、補正された第2の変換パラメータとして、記憶部90の変換パラメータDB91に格納(記憶)させる(S294)。   Under the control of the correction control unit 277 of the correction unit 27, the processes of steps S284 to S292 described above are repeated until it is determined in step S288 that the distance is within the predetermined range. Then, when it is determined that the distance is within the predetermined range (YES in S288), the correction control unit 277 corrects the conversion parameter as the correction candidate specified in step S292 last performed at that time. It is stored (stored) in the conversion parameter DB 91 of the storage unit 90 as the acquired second conversion parameter (S294).

以上、ステップS28の変換パラメータの補正について説明した。なお、図14、図15に示した例では、カメラ5Aの撮像範囲に基準物体B20が含まれているが、基準物体B20は、カメラ5Bの撮像範囲に含まれていればよく、必ずしもカメラ5Aの撮像範囲に含まれていなくてもよい。   The correction of the conversion parameter in step S28 has been described above. In the example shown in FIGS. 14 and 15, the reference object B20 is included in the imaging range of the camera 5A, but the reference object B20 only needs to be included in the imaging range of the camera 5B. It does not have to be included in the imaging range of.

(補足)
以上、本発明の第2の実施形態について説明した。本実施形態によれば、再キャリブレーションの繰り返しにより誤差が発生した場合であっても、目標物体の数より少ない数の基準物体を用いて変換パラメータの補正を行うことで、作業コストを抑制しつつ、高精度に変換パラメータを特定することが可能となる。
(Supplement)
The second embodiment of the present invention has been described above. According to the present embodiment, even when an error occurs due to repeated recalibration, the operation cost is suppressed by correcting the conversion parameters using a smaller number of reference objects than the number of target objects. While, it becomes possible to specify conversion parameters with high accuracy.

なお、上述した第2の実施形態において、補正制御部277は、補正を行うことが不可能であると判定した場合に、出力部80を制御して、ユーザに補正不可能であることを通知させてもよい。そして、補正不可能であることが通知された場合、図5〜図7を参照して説明した初期キャリブレーションと同様の方法で、キャリブレーションが行われてもよい。   In the second embodiment described above, when it is determined that the correction can not be performed, the correction control unit 277 controls the output unit 80 to notify the user that the correction is impossible. You may Then, when notified that the correction is impossible, the calibration may be performed by the same method as the initial calibration described with reference to FIGS. 5 to 7.

補正制御部277は、例えば、図13に示したステップS284〜S292の処理を所定回数以上繰り返しても、ステップS288において距離が所定の範囲内であると判定されない場合に、補正を行うことが不可能であると判定してもよい。あるいは、補正制御部277は、距離特定部271により特定された距離が所定の範囲(図13に示したステップS288の判定において用いられる所定の範囲より大きい範囲)よりも大きい場合に補正を行うことが不可能であると判定してもよい。   For example, the correction control unit 277 can not perform correction when it is not determined that the distance is within the predetermined range in step S288 even if the processes of steps S284 to S292 illustrated in FIG. 13 are repeated a predetermined number of times or more. It may be determined that it is possible. Alternatively, the correction control unit 277 performs correction when the distance specified by the distance specifying unit 271 is larger than a predetermined range (a range larger than the predetermined range used in the determination of step S 288 shown in FIG. 13). It may be determined that is impossible.

係る構成により、再キャリブレーションの繰り返しにより補正不可能な誤差が発生した場合であっても、ユーザにその旨通知することで、初期キャリブレーションと同様の方法で、キャリブレーションを行って、高精度な変換パラメータを特定することが可能となる。   With such a configuration, even if an error that can not be corrected occurs due to repeated recalibration, the user is notified as such, and calibration is performed in the same manner as in the initial calibration, and high accuracy is achieved. It is possible to specify various conversion parameters.

<2−3.第3の実施形態>
(概要)
上述した第1の実施形態、及び第2の実施形態では、第1のカメラ配置と第2のカメラ配置とで、共通の目標物体を用いていた。つまり、第1のカメラ配置で撮像された第1の撮像画像と、第2のカメラ配置で撮像された第2の撮像画像との両方に含まれる目標物体の数が、変換パラメータの特定に必要な数より少ない場合には、再キャリブレーションを行うことができなかった。したがって、例えば第1のカメラ配置における撮像範囲と第2のカメラ配置における撮像範囲に重なりが存在しなかったり、重なりが非常に小さい場合には、第1の実施形態、及び第2の実施形態のような再キャリブレーションを行うことはできなかった。
<2-3. Third embodiment>
(Overview)
In the first and second embodiments described above, a common target object is used in the first camera arrangement and the second camera arrangement. That is, the number of target objects included in both the first captured image captured by the first camera arrangement and the second captured image captured by the second camera arrangement is required to specify the conversion parameter. If the number is less than 10%, recalibration can not be performed. Therefore, for example, in the case where there is no overlap in the imaging range in the first camera arrangement and the imaging range in the second camera arrangement, or when the overlap is very small, the first embodiment and the second embodiment will be described. It was not possible to do such a recalibration.

そこで、以下では、第3の実施形態として、LiDAR(Light Detection and Ranging)等の位置センサを用いることで、第1のカメラ配置と第2のカメラ配置とで、共通の目標物体を用いることなく再キャリブレーションを行う例を説明する。   Therefore, in the following, as a third embodiment, by using a position sensor such as light detection and ranging (LiDAR), a common target object is not used for the first camera arrangement and the second camera arrangement. An example of recalibration will be described.

(構成例)
図16は、本発明の第3の実施形態に係る情報処理装置3の構成例を示すブロック図である。本実施形態に係る情報処理装置3は、図16に示すように、制御部30、センサ情報取得部50、画像取得部60、操作部70、出力部80、及び記憶部90を備える。なお、図16に示す構成要素のうち、図3に示した構成要素と実質的に同一の機能構成を有する構成要素については、同一の符号を付してあるため、説明を省略する。
(Example of configuration)
FIG. 16 is a block diagram showing a configuration example of the information processing device 3 according to the third embodiment of the present invention. The information processing device 3 according to the present embodiment includes a control unit 30, a sensor information acquisition unit 50, an image acquisition unit 60, an operation unit 70, an output unit 80, and a storage unit 90, as shown in FIG. Note that among the components shown in FIG. 16, components having substantially the same functional configuration as the components shown in FIG. 3 are given the same reference numerals, and thus the description thereof is omitted.

制御部20は、情報処理装置3の各構成を制御する。また、本実施形態に係る制御部30は、図16に示すように、物体位置特定部31、キャリブレーション部33、座標変換部35、及びセンサ情報管理部39としても機能する。   The control unit 20 controls each component of the information processing device 3. The control unit 30 according to the present embodiment also functions as an object position specifying unit 31, a calibration unit 33, a coordinate conversion unit 35, and a sensor information management unit 39, as shown in FIG.

物体位置特定部31は、図3を参照して説明した物体位置特定部11と同様に、画像取得部60から提供された撮像画像に映る物体の撮像画像座標を特定する。ただし、物体位置特定部31は、物体位置特定部11の機能に加え、第1のカメラ配置で撮像された第1の撮像画像と、第2のカメラ配置で撮像された第2の撮像画像との両方に含まれる目標物体(以下、共通の目標物体と呼ぶ)の数を特定する機能を有する。例えば、共通の目標物体の数は、画像認識手法により特定されてもよいし、操作部70を介したユーザ操作により特定されてもよい。物体位置特定部31は、特定された共通の目標物体の数をセンサ情報管理部39へ通知する。   The object position specifying unit 31 specifies, as in the case of the object position specifying unit 11 described with reference to FIG. However, in addition to the function of the object position specifying unit 11, the object position specifying unit 31 includes a first pickup image obtained by the first camera arrangement and a second pickup image obtained by the second camera arrangement. And the function of specifying the number of target objects (hereinafter referred to as a common target object) included in both. For example, the number of common target objects may be identified by an image recognition method, or may be identified by a user operation via the operation unit 70. The object position specifying unit 31 notifies the sensor information management unit 39 of the number of common target objects specified.

キャリブレーション部33は、図3を参照して説明したキャリブレーション部13と同様に、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。   Similar to the calibration unit 13 described with reference to FIG. 3, the calibration unit 33 performs conversion for converting the captured image coordinates into the map coordinates based on the correspondence between the captured image coordinates and the map coordinates with the map Identify the parameters

ただし、キャリブレーション部33は、キャリブレーション部13の機能に加え、後述するセンサ情報管理部39の制御に従って変換パラメータを特定する機能を有する。   However, in addition to the function of the calibration unit 13, the calibration unit 33 has a function of specifying conversion parameters according to the control of a sensor information management unit 39 described later.

例えば、キャリブレーション部33は、センサ情報管理部39の制御に従って位置センサに対応したセンサ座標系における位置座標(以下、センサ座標と呼ぶ)を俯瞰マップ座標に変換するための変換パラメータを特定する機能を有する。位置センサに対応したセンサ座標系は、例えば俯瞰マップの座標系と縮尺、及び水平方向(Z軸方向)の角度のみが異なる座標系である。そのため、2組以上のセンサ座標と俯瞰マップ座標との対応を用いて、センサ座標を俯瞰マップ座標に変換するための変換パラメータを特定することが可能である。キャリブレーション部33は、例えば第1の撮像画像に含まれる目標物体(以下、第1の目標物体と呼ぶ)の撮像画像座標を変換することで得られた俯瞰マップにおける俯瞰マップ座標と、第1の目標物体のセンサ座標との対応に基づいて係る変換パラメータを特定してもよい。なお、第1の目標物体の数は上述した条件から例えば2以上である。また、キャリブレーション部33は、センサ座標を俯瞰マップ座標に変換するための変換パラメータを記憶部90の変換パラメータDB91に格納(記憶)させてもよい。   For example, the calibration unit 33 has a function of specifying a conversion parameter for converting position coordinates (hereinafter referred to as sensor coordinates) in the sensor coordinate system corresponding to the position sensor into the map coordinate in accordance with the control of the sensor information management unit 39 Have. The sensor coordinate system corresponding to the position sensor is, for example, a coordinate system which differs from the coordinate system of the eyelid map in terms of scale and angle in the horizontal direction (Z-axis direction). Therefore, it is possible to specify a conversion parameter for converting sensor coordinates into map coordinates by using the correspondence between two or more sets of sensor coordinates and map coordinates. The calibration unit 33 may use, for example, an eyelid map coordinate in an eyelid map obtained by converting an imaged image coordinate of a target object (hereinafter, referred to as a first target object) included in a first imaged image. Such conversion parameters may be specified based on the correspondence with the sensor coordinates of the target object of Note that the number of first target objects is, for example, 2 or more from the above-described condition. Further, the calibration unit 33 may store (store) conversion parameters for converting sensor coordinates into overhead map coordinates in the conversion parameter DB 91 of the storage unit 90.

また、キャリブレーション部33は、センサ情報管理部39の制御に従って、第2の撮像画像に含まれる目標物体(以下、第2の目標物体と呼ぶ)の撮像画像座標と、俯瞰マップにおける第2の目標物体の俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する。なお、変換パラメータが射影変換行列である場合、第2の目標物体の数は4以上である。   In addition, under the control of the sensor information management unit 39, the calibration unit 33 controls the captured image coordinates of the target object (hereinafter referred to as a second target object) included in the second captured image, and the second in the eyelid map. A second transformation parameter is identified based on the correspondence with the eyelid map coordinates of the target object. When the transformation parameter is a projective transformation matrix, the number of second target objects is four or more.

座標変換部35は、図3を参照して説明した座標変換部15と同様に、変換パラメータを用いて、物体位置特定部21から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う機能を有する。ただし、座標変換部35は、座標変換部15の機能に加え、後述するセンサ情報管理部39の制御に従い、第2の撮像画像に含まれる第2の目標物体のセンサ座標を俯瞰マップ座標に変換し、センサ情報管理部39に提供する機能を有する。座標変換部35は、第2の目標物体のセンサ座標を俯瞰マップ座標に変換する際、キャリブレーション部33が特定し、変換パラメータDB91に格納された、センサ座標を俯瞰マップ座標に変換するための変換パラメータを用いてもよい。   Similar to the coordinate conversion unit 15 described with reference to FIG. 3, the coordinate conversion unit 35 uses coordinate conversion to convert the captured image coordinates provided from the object position specifying unit 21 into eyelid map coordinates. Have a function to However, in addition to the function of the coordinate conversion unit 15, the coordinate conversion unit 35 converts the sensor coordinates of the second target object included in the second captured image into bar map coordinates under the control of the sensor information management unit 39 described later. , And has a function to be provided to the sensor information management unit 39. When the coordinate conversion unit 35 converts the sensor coordinates of the second target object into eyelid map coordinates, the calibration unit 33 specifies and converts the sensor coordinates stored in the conversion parameter DB 91 into eyelid map coordinates. Conversion parameters may be used.

センサ情報管理部39は、後述するセンサ情報取得部50が位置センサから取得したセンサ情報を管理し、センサ情報に基づいた再キャリブレーションの実行を制御する。センサ情報には、例えば目標物体のセンサ座標が含まれる。目標物体のセンサ座標は、センサ情報取得部50により、位置センサから直接的に取得されてもよいし、位置センサから取得された情報に基づいて特定されてもよい。例えば、センサ情報取得部50が位置センサから取得したセンサ情報によりセンシングされた位置や形状の情報のみが含まれる場合、センサ情報管理部39は、センシング位置や形状の情報から、目標物体のセンサ座標を特定してもよい。なお、センサ情報管理部39は、出力部80にセンサ情報を出力させ、センサ情報を確認したユーザによる操作部70を介したユーザ操作に基づいて目標物体のセンサ座標を特定してもよい。   The sensor information management unit 39 manages sensor information acquired by the sensor information acquisition unit 50 described later from the position sensor, and controls execution of recalibration based on the sensor information. The sensor information includes, for example, sensor coordinates of the target object. The sensor coordinates of the target object may be obtained directly from the position sensor by the sensor information obtaining unit 50, or may be specified based on the information obtained from the position sensor. For example, when only the information on the position and the shape sensed by the sensor information acquired by the sensor information acquisition unit 50 from the position sensor is included, the sensor information management unit 39 determines the sensor coordinates of the target object from the information on the sensing position and the shape. May be identified. The sensor information management unit 39 may cause the output unit 80 to output sensor information, and specify sensor coordinates of a target object based on a user operation by the user who has confirmed the sensor information via the operation unit 70.

センサ情報管理部39は、物体位置特定部31から提供される共通の目標物体の数が閾値より少ない場合に、センサ情報に基づいた再キャリブレーションを実行させてもよい。所定の閾値は、例えばキャリブレーション部33が変換パラメータを特定するために必要な撮像画像座標と、俯瞰マップ座標との対応の組数であってもよい。例えば、キャリブレーション部33が特定する変換パラメータが射影変換行列であれば、所定の閾値は4であってもよい。   The sensor information management unit 39 may execute recalibration based on the sensor information when the number of common target objects provided from the object position specifying unit 31 is smaller than a threshold. The predetermined threshold may be, for example, the number of sets of correspondence between the captured image coordinates required for the calibration unit 33 to specify the conversion parameter and the map coordinates of the ridge. For example, if the transformation parameter specified by the calibration unit 33 is a projection transformation matrix, the predetermined threshold may be 4.

センサ情報管理部39は、共通の目標物体の数が閾値より少ない場合に、キャリブレーション部33を制御し、センサ座標を俯瞰マップ座標に変換するための変換パラメータを特定させてもよい。さらに、センサ情報管理部39は、座標変換部35を制御し、当該変換パラメータを用いて第2の撮像画像に含まれる第2の目標物体のセンサ座標を俯瞰マップ座標に変換させ、当該俯瞰マップ座標を座標変換部35から取得してもよい。そして、センサ情報管理部39は、キャリブレーション部33を制御し、第2の目標物体の撮像画像座標と、第2の目標物体の俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定させてもよい。   When the number of common target objects is smaller than the threshold value, the sensor information management unit 39 may control the calibration unit 33 to specify a conversion parameter for converting sensor coordinates into overhead map coordinates. Furthermore, the sensor information management unit 39 controls the coordinate conversion unit 35 to convert the sensor coordinates of the second target object included in the second captured image into the eye map coordinates using the conversion parameter, and the eye map. The coordinates may be acquired from the coordinate conversion unit 35. Then, the sensor information management unit 39 controls the calibration unit 33, and based on the correspondence between the captured image coordinates of the second target object and the eyelid map coordinates of the second target object, the second conversion parameter is calculated. It may be specified.

係る構成により、共通の目標物体が十分な数存在しない場合であっても、再キャリブレーションに係る作業コストを抑制することが可能となる。   With such a configuration, it is possible to suppress the operation cost for recalibration even when there are not a sufficient number of common target objects.

センサ情報取得部50は、不図示の位置センサと接続され、当該位置センサのセンシングにより得られたセンサ情報を取得するインタフェースである。なお、センサ情報取得部50は、複数の位置センサと接続されて、複数の位置センサからセンサ情報を取得してもよい。センサ情報取得部50は、取得したセンサ情報を制御部30へ提供する。   The sensor information acquisition unit 50 is an interface that is connected to a position sensor (not shown) and acquires sensor information obtained by sensing of the position sensor. The sensor information acquisition unit 50 may be connected to a plurality of position sensors to acquire sensor information from the plurality of position sensors. The sensor information acquisition unit 50 provides the acquired sensor information to the control unit 30.

なお、情報処理装置3自体が位置センサを含んでもよい。係る場合にはセンサ情報取得部50に代えて、または加えてLiDAR等の位置センサを情報処理装置3が備えてもよい。   Note that the information processing device 3 itself may include a position sensor. In such a case, the information processing apparatus 3 may include a position sensor such as LiDAR instead of or in addition to the sensor information acquisition unit 50.

(動作例)
以上、本実施形態に係る情報処理装置3の構成例について説明した。続いて、本実施形態の動作例に説明する。なお、本実施形態の動作概要は、図4を参照して説明した第1の実施形態の動作概要と実質的に同様であるため、本実施形態の動作概要についての説明は省略する。本実施形態の動作と第1の実施形態の動作との違いは、図4に示すステップS14に相当する再キャリブレーションに係る動作の違いである。そこで、以下では、本実施形態に係る再キャリブレーションに係る動作について、図17〜図19を参照して説明する。
(Operation example)
The configuration example of the information processing device 3 according to the present embodiment has been described above. Subsequently, an operation example of the present embodiment will be described. The operation outline of the present embodiment is substantially the same as the operation outline of the first embodiment described with reference to FIG. 4, and thus the description of the operation outline of the present embodiment will be omitted. The difference between the operation of the present embodiment and the operation of the first embodiment is the difference in the operation related to recalibration corresponding to step S14 shown in FIG. Therefore, in the following, the operation related to the recalibration according to the present embodiment will be described with reference to FIGS. 17 to 19.

図17は、本実施形態に係る再キャリブレーションに係る動作の一例を示すフローチャートである。また、図18、図19は、本実施形態に係る再キャリブレーションについて説明するための説明図である。   FIG. 17 is a flowchart showing an example of the operation related to the recalibration according to the present embodiment. FIGS. 18 and 19 are explanatory diagrams for describing recalibration according to the present embodiment.

なお、カメラの配置変更が行われる場合、図18、図19に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、カメラの追加が行われる場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。すなわち、カメラ5Aのカメラ配置が第1のカメラ配置であり、カメラ5Bのカメラ配置が第2のカメラ配置である。   When the arrangement of the camera is changed, the camera 5A and the camera 5B shown in FIGS. 18 and 19 may be the same camera 5, and the camera 5A indicates the camera 5 before the arrangement change, and the camera 5B May be understood to indicate the camera 5 after the change of arrangement. Further, when the camera is added, the camera 5A and the camera 5B are different cameras, and the camera 5B is added. That is, the camera arrangement of the camera 5A is a first camera arrangement, and the camera arrangement of the camera 5B is a second camera arrangement.

図18には、実空間R30と、実空間R30に設置されたカメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G31、及び実空間R30に設置されたカメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G32が示されている。また、図19には、実空間R30と、実空間R30に対応する俯瞰マップM31及び俯瞰マップM32が示されている。なお、俯瞰マップM31のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM32のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図18に示される実空間R30は真上から見た平面図であり、図19に示される実空間R30は横から見た側面図である。   In FIG. 18, the real space R30, a first captured image G31 captured in a first camera arrangement by the camera 5A installed in the real space R30, and a second captured image by the camera 5B installed in the real space R30. The second captured image G32 captured in the camera arrangement is shown. Further, FIG. 19 shows a real space R30, and a weir map M31 and a weir map M32 corresponding to the real space R30. In the overhead map M31, the area MA indicates the area corresponding to the imaging range of the camera 5A, and in the overhead map M32, the area MB indicates the area corresponding to the imaging range of the camera 5B. The real space R30 shown in FIG. 18 is a plan view seen from directly above, and the real space R30 shown in FIG. 19 is a side view seen from the side.

また、図18に示すように、実空間R30には、位置センサ6が設置されている。位置センサ6は、LiDAR等により、実空間R30のうち、範囲D30に存在する物体の情報をセンシングし、情報処理装置3へ提供する。   Moreover, as shown in FIG. 18, the position sensor 6 is installed in the real space R30. The position sensor 6 senses information of an object present in the range D30 in the real space R30 using LiDAR or the like, and provides the information to the information processing device 3.

図17に示すように、まず、目標物体T31〜T36が実空間R30に設置される(S302)。続いて、画像取得部60により、カメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G31が取得される(S304)。続いて、物体位置特定部31が、第1の撮像画像G31における第1の目標物体T31、T32の撮像画像座標P311、P312をそれぞれ特定する(S308)。   As shown in FIG. 17, first, target objects T31 to T36 are placed in the real space R30 (S302). Subsequently, the image acquisition unit 60 acquires a first captured image G31 captured by the camera 5A in the first camera arrangement (S304). Subsequently, the object position specifying unit 31 specifies the captured image coordinates P311 and P312 of the first target objects T31 and T32 in the first captured image G31 (S308).

続いて、座標変換部35が、記憶部90の変換パラメータDB91に格納された(記憶された)第1の変換パラメータを用いて、撮像画像座標P311、P312を俯瞰マップ座標F31、F32にそれぞれ変換する(S312)。ステップS312で得られた俯瞰マップ座標F31、F32は、記憶部90の位置座標DB93に格納(記憶)される(S313)。   Subsequently, using the first conversion parameter stored (stored) in the conversion parameter DB 91 of the storage unit 90, the coordinate conversion unit 35 converts the captured image coordinates P311 and P312 into eyelid map coordinates F31 and F32, respectively. (S312). The eyelid map coordinates F31 and F32 obtained in step S312 are stored (stored) in the position coordinate DB 93 of the storage unit 90 (S313).

続いて、カメラの配置変更、またはカメラの追加が行われる(S314)。続いて、画像取得部60により、カメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G32が取得される(S316)。続いて、物体位置特定部31が、第2の撮像画像G32における第2の目標物体T33〜T36の撮像画像座標P323〜P326をそれぞれ特定する(S318)。   Subsequently, the arrangement of the camera or the addition of the camera is performed (S314). Subsequently, the image acquisition unit 60 acquires a second captured image G32 captured by the camera 5B in the second camera arrangement (S316). Subsequently, the object position specifying unit 31 specifies captured image coordinates P323 to P326 of the second target objects T33 to T36 in the second captured image G32, respectively (S318).

続いて、第1の撮像画像G31と第2の撮像画像G32の両方に含まれている共通の目標物体の数が所定の閾値以上であるか否かが判定される(S320)。図18、図19に示す例では、共通の目標物体の数0であり、所定の閾値(上述した例では4)より少ない(S320においてNO)ため、処理はステップS322へ進む。   Subsequently, it is determined whether the number of common target objects included in both the first captured image G31 and the second captured image G32 is equal to or greater than a predetermined threshold (S320). In the example shown in FIG. 18 and FIG. 19, the number of common target objects is 0, which is smaller than the predetermined threshold (4 in the above example) (NO in S320), so the process proceeds to step S322.

ステップS322において、センサ情報取得部50が位置センサ6からセンサ情報を取得する(S322)。続いて、キャリブレーション部33が、センサ情報管理部39の制御に従い、第1の撮像画像に含まれる第1の目標物体T31、T32のセンサ座標と俯瞰マップ座標F31、F32との対応に基づき、センサ座標を俯瞰マップ座標に変換する変換パラメータを特定する(S324)。さらに、座標変換部35が、センサ情報管理部39の制御に従い、第2の撮像画像G32に含まれる第2の目標物体T33〜T36のセンサ座標を俯瞰マップ座標F33〜F36にそれぞれ変換する。   In step S322, the sensor information acquisition unit 50 acquires sensor information from the position sensor 6 (S322). Subsequently, under the control of the sensor information management unit 39, the calibration unit 33 determines, based on the correspondence between the sensor coordinates of the first target objects T31 and T32 included in the first captured image and the eye map coordinates F31 and F32. A conversion parameter for converting sensor coordinates into overhead map coordinates is specified (S324). Furthermore, the coordinate conversion unit 35 converts the sensor coordinates of the second target object T33 to T36 included in the second captured image G32 into eyelid map coordinates F33 to F36, respectively, according to the control of the sensor information management unit 39.

続いて、キャリブレーション部33が、ステップS318で特定された撮像画像座標P323〜P326と、ステップS326の座標変換により得られた俯瞰マップ座標F33〜F36との対応に基づいて、第2の変換パラメータを特定する(S332)。ステップS332で特定された第2の変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S334)。   Subsequently, based on the correspondence between the captured image coordinates P323 to P326 specified in step S318 and the eyelid map coordinates F33 to F36 obtained by the coordinate conversion in step S326, the calibration unit 33 performs a second conversion parameter. Are identified (S332). The second conversion parameter specified in step S332 is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S334).

なお、上記では、図18、図19に示した例に沿って説明を行ったが、ステップS320において、共通の目標物体の数が閾値より大きいと判定された場合、処理はステップS332へ進む。ステップS320において、共通の目標物体の数が閾値より大きいと判定された場合、図17に示す一連の処理は、ステップS320の判定処理を除いて、図8を参照して説明した第1の実施形態に係る再キャリブレーションの処理と同様である。   Although the above description is given along the example shown in FIG. 18 and FIG. 19, when it is determined in step S320 that the number of common target objects is larger than the threshold, the process proceeds to step S332. If it is determined in step S320 that the number of common target objects is greater than the threshold, the series of processes shown in FIG. 17 are the first embodiment described with reference to FIG. 8 except for the determination process of step S320. It is similar to the process of recalibration according to the embodiment.

(補足)
以上、本発明の第3の実施形態について説明した。本実施形態によれば、位置センサを用いることで、カメラの配置変更前後や既存のカメラと追加されたカメラとの間で、撮像画像に含まれる共通の目標物体が十分な数存在しない場合であっても、再キャリブレーションに係る作業コストを抑制することが可能となる。
(Supplement)
The third embodiment of the present invention has been described above. According to the present embodiment, by using the position sensor, a sufficient number of common target objects included in the captured image do not exist before and after the change in the camera arrangement or between the existing camera and the added camera. Even if it exists, it becomes possible to suppress the operation cost concerning recalibration.

なお、上記では、共通の目標物体の数が閾値より少ない場合に、センサ情報に基づいた再キャリブレーションを行う例を説明したが、本実施形態は係る例に限定されない。例えば、常に上述したセンサ情報に基づいた再キャリブレーションを行ってもよいし、操作部70を介したユーザ操作により、センサ情報に基づいた再キャリブレーションを行うか否かを切替えてもよい。   Note that although an example in which recalibration based on sensor information is performed when the number of common target objects is smaller than the threshold has been described above, the present embodiment is not limited to such an example. For example, re-calibration may always be performed based on the above-described sensor information, or whether or not re-calibration based on the sensor information may be switched by user operation via the operation unit 70.

また、上述した第2の実施形態と、第3の実施形態を組み合わせることも可能である。   Moreover, it is also possible to combine the second embodiment described above with the third embodiment.

<<3.ハードウェア構成>>
以上、本発明の各実施形態を説明した。上述した物体位置特定処理、キャリブレーション処理、座標変換処理等の情報処理は、ソフトウェアと、情報処理装置1、情報処理装置2、情報処理装置3のハードウェアとの協働により実現される。以下では、本発明の実施形態に係る情報処理装置である情報処理装置1、情報処理装置2、情報処理装置3のハードウェア構成例として、情報処理装置1000のハードウェア構成について説明する。
<< 3. Hardware configuration >>
The embodiments of the present invention have been described above. The information processing such as the object position specifying processing, the calibration processing, and the coordinate conversion processing described above is realized by cooperation of software and hardware of the information processing device 1, the information processing device 2, and the information processing device 3. The hardware configuration of the information processing apparatus 1000 will be described below as an example of the hardware configuration of the information processing apparatus 1, the information processing apparatus 2, and the information processing apparatus 3 that are information processing apparatuses according to the embodiment of the present invention.

図20は、本発明の実施形態に係る情報処理装置1000のハードウェア構成を示す説明図である。図20に示したように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、通信装置1007とを備える。   FIG. 20 is an explanatory view showing the hardware configuration of the information processing apparatus 1000 according to the embodiment of the present invention. As shown in FIG. 20, the information processing apparatus 1000 includes a central processing unit (CPU) 1001, a read only memory (ROM) 1002, a random access memory (RAM) 1003, an input device 1004, and an output device 1005. , Storage apparatus 1006, and communication apparatus 1007.

CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータなどを記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、例えば、制御部10、制御部20、制御部30等の機能が実現される。   The CPU 1001 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing apparatus 1000 according to various programs. The CPU 1001 may be a microprocessor. The ROM 1002 stores programs used by the CPU 1001, calculation parameters, and the like. The RAM 1003 temporarily stores programs used in the execution of the CPU 1001, parameters that appropriately change in the execution, and the like. These are mutually connected by a host bus configured of a CPU bus and the like. Mainly, the functions of the control unit 10, the control unit 20, the control unit 30, etc. are realized by the cooperation of the CPU 1001, the ROM 1002 and the RAM 1003 and the software.

入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置1004は、操作部70に対応する。   The input device 1004 generates an input signal based on an input by a user such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and an input control circuit that generates an input signal based on the input by the user. And so on. The user of the information processing apparatus 1000 can input various types of data to the information processing apparatus 1000 and instruct processing operations by operating the input device 1004. The input device 1004 corresponds to the operation unit 70.

出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプなどの表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。なお、出力装置1005は、出力部80に対応する。   The output device 1005 includes, for example, a display device such as a liquid crystal display (LCD) device, an OLED device and a lamp. Furthermore, the output device 1005 includes an audio output device such as a speaker and headphones. For example, the display device displays a captured image, a generated image, and the like. On the other hand, the audio output device converts audio data and the like into audio and outputs the audio. The output device 1005 corresponds to the output unit 80.

ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。なお、ストレージ装置1006は、記憶部90に対応する。   The storage device 1006 is a device for storing data. The storage device 1006 may include a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded in the storage medium. The storage device 1006 stores programs executed by the CPU 1001 and various data. The storage device 1006 corresponds to the storage unit 90.

通信装置1007は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置1007は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。   The communication device 1007 is, for example, a communication interface configured of a communication device or the like for connecting to a communication network. Also, the communication device 1007 may include a wireless local area network (LAN) compatible communication device, a long term evolution (LTE) compatible communication device, a wire communication device performing wired communication, or a Bluetooth (registered trademark) communication device.

<<4.むすび>>
以上説明したように、本発明の実施形態によれば、カメラの配置変更あるいはカメラの追加に伴うキャリブレーションに係るコストを抑制することが可能である。
<< 4. End >>
As described above, according to the embodiment of the present invention, it is possible to suppress the cost involved in the calibration accompanying the change in the arrangement of the cameras or the addition of the cameras.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention belongs can conceive of various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also fall within the technical scope of the present invention.

例えば、上記実施形態では、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータが射影変換行列である例を主に説明したが、本発明はかかる例に限定されない。例えば、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータは透視投影変換行列を含んでもよい。   For example, although the above embodiment mainly describes an example in which the transformation parameter for transforming captured image coordinates into overhead map coordinates is a projective transformation matrix, the present invention is not limited to this example. For example, conversion parameters for converting captured image coordinates to overhead map coordinates may include a perspective projection conversion matrix.

また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   In addition, the steps in the above embodiment do not necessarily have to be processed chronologically in the order described as the flowchart diagram. For example, each step in the process of the above embodiment may be processed in an order different from the order described as the flowchart diagram, or may be processed in parallel.

また、上記実施形態によれば、CPU1001、ROM1002、及びRAM1003などのハードウェアを、上述した情報処理装置1、情報処理装置2、情報処理装置3の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。   Further, according to the above-described embodiment, a computer for causing the hardware such as the CPU 1001, the ROM 1002, and the RAM 1003 to exhibit the same function as each configuration of the information processing device 1, the information processing device 2, and the information processing device 3 described above. A program can also be provided. Also provided is a recording medium having the computer program recorded thereon.

1、2、3 情報処理装置
5 カメラ
6 位置センサ
10、20、30 制御部
11、21、31 物体位置特定部
13、23、33 キャリブレーション部
15、25、35 座標変換部
27 補正部
39 センサ情報管理部
50 センサ情報取得部
60 画像取得部
70 操作部
80 出力部
90 記憶部
271 距離特定部
273 判定部
275 座標補正部
277 補正制御部
1, 2, 3 information processing apparatus 5 camera 6 position sensor 10, 20, 30 control unit 11, 21, 31 object position specifying unit 13, 23, 33 calibration unit 15, 25, 35 coordinate conversion unit 27 correction unit 39 sensor Information management unit 50 Sensor information acquisition unit 60 Image acquisition unit 70 Operation unit 80 Output unit 90 Storage unit 271 Distance identification unit 273 Determination unit 275 Coordinate correction unit 277 Correction control unit

Claims (12)

カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、
前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、情報処理装置。
Corresponding to the arrangement of the camera, based on correspondence between captured image coordinates that are position coordinates in a captured image captured by a camera and eyelid map coordinates that are position coordinates in an eyelid map corresponding to real space A calibration unit that specifies a conversion parameter for converting coordinates into the map coordinates, and a coordinate conversion unit that converts the captured image coordinates into the map coordinates using the conversion parameters.
The coordinate conversion unit uses the first conversion parameter corresponding to a first camera arrangement to select the image coordinates of the target object in the first image captured by the first camera arrangement. Convert to the eyelid map coordinates of the target object in the map;
The calibration unit is configured to adjust the captured image coordinates of the target object in a second captured image captured by a second camera arrangement different from the first camera arrangement and the eyelid map of the target object in the eyelid map An information processing apparatus that specifies a second conversion parameter corresponding to the second camera arrangement based on correspondence with coordinates.
前記情報処理装置は、前記目標物体の前記撮像画像座標を特定する目標物体特定部をさらに備える、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the information processing apparatus further includes a target object specifying unit that specifies the captured image coordinates of the target object. 前記目標物体特定部は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定する、請求項2に記載の情報処理装置。   The target object identification unit detects the captured image coordinates of a target object candidate from the captured image, and captures the captured image coordinates of the detected target object candidate based on the determination of the operator. The information processing apparatus according to claim 2, wherein the information processing apparatus is specified as image coordinates. 前記情報処理装置は、前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション部により特定された前記変換パラメータの補正を行う補正部をさらに備える、請求項1〜3のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 3, further comprising: a correction unit configured to correct the conversion parameter specified by the calibration unit using a reference object whose eyelid map coordinates are known. The information processing apparatus according to any one of the above. 前記補正部は、前記基準物体の既知の前記俯瞰マップ座標である既知基準座標と、前記座標変換部が前記基準物体の前記撮像画像座標を変換することにより得られる前記基準物体の前記俯瞰マップ座標である変換基準座標と、の距離を特定する距離特定部を有し、前記距離に基づいて前記変換パラメータの補正を行う、請求項4に記載の情報処理装置。   The correction unit is a known reference coordinate that is the known eyelid map coordinates of the reference object, and the eyelid map coordinates of the reference object obtained by the coordinate conversion unit converting the captured image coordinates of the reference object The information processing apparatus according to claim 4, further comprising: a distance specifying unit that specifies a distance between the conversion reference coordinate and the correction coordinate, and correcting the conversion parameter based on the distance. 前記補正部は、前記距離が所定の範囲内であるか否かの判定を行う判定部をさらに有し、前記判定部による前記判定の結果に応じて前記変換パラメータの補正を行う、請求項5に記載の情報処理装置。   The correction unit further includes a determination unit that determines whether the distance is within a predetermined range, and the conversion parameter is corrected according to the result of the determination by the determination unit. The information processing apparatus according to claim 1. 前記補正部は、前記判定部により前記距離が前記所定の範囲内ではないと判定された場合に、前記既知基準座標と前記変換基準座標との差に基づいて前記目標物体の前記俯瞰マップ座標を補正する座標補正部をさらに有し、前記座標補正部により補正された前記目標物体の前記俯瞰マップ座標に基づいて前記変換パラメータの補正を行う、請求項6に記載の情報処理装置。   The correction unit determines the eyelid map coordinates of the target object based on a difference between the known reference coordinates and the conversion reference coordinates when the determination unit determines that the distance is not within the predetermined range. The information processing apparatus according to claim 6, further comprising a coordinate correction unit that corrects the correction parameter, based on the eyelid map coordinates of the target object corrected by the coordinate correction unit. 前記補正部が前記変換パラメータの補正を行うために要する前記基準物体の数は、前記キャリブレーション部が前記第2の変換パラメータを特定するために要する前記目標物体の数よりも少ない、請求項5〜7のいずれか一項に記載の情報処理装置。   The number of reference objects required for the correction unit to correct the conversion parameter is smaller than the number of target objects required for the calibration unit to specify the second conversion parameter. The information processing apparatus as described in any one of -7. 前記情報処理装置は、前記第1の撮像画像と、前記第2の撮像画像との両方に含まれる前記目標物体の数が所定の閾値より少ない場合に、前記第1の撮像画像における第1の目標物体の前記撮像画像座標を変換することで得られた前記俯瞰マップにおける前記第1の目標物体の前記俯瞰マップ座標、位置センサのセンシングに基づいて得られる前記位置センサに対応したセンサ座標系における前記第1の目標物体の位置座標、及び、前記位置センサのセンシングに基づいて得られる前記センサ座標系における第2の目標物体の位置座標、に基づいて前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標を取得するセンサ情報管理部をさらに備え、
前記キャリブレーション部は、前記第2の撮像画像における前記第2の目標物体の前記撮像画像座標と前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する、請求項1〜8のいずれか一項に記載の情報処理装置。
The information processing apparatus may be configured to determine whether the number of target objects included in both the first captured image and the second captured image is smaller than a predetermined threshold value. In the sensor coordinate system corresponding to the position sensor, the eyelid map coordinates of the first target object in the eyelid map obtained by converting the captured image coordinates of the target object, the sensing of the position sensor The second target object in the eyelid map based on the position coordinates of the first target object and the position coordinates of a second target object in the sensor coordinate system obtained based on the sensing of the position sensor It further comprises a sensor information management unit for acquiring the eyelid map coordinates,
The calibration unit is configured to perform a second operation based on the correspondence between the captured image coordinates of the second target object in the second captured image and the overhead map coordinates of the second target object in the overhead map. The information processing apparatus according to any one of claims 1 to 8, wherein a conversion parameter is specified.
前記変換パラメータは、射影変換行列または透視投影変換行列を含む、請求項1〜9のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 9, wherein the conversion parameter includes a projection conversion matrix or a perspective projection conversion matrix. カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備える情報処理装置により実行される情報処理方法であって、
第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換することと、
前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定することと、
を含む、情報処理方法。
The captured image coordinates correspond to the location of the camera based on the correspondence between the captured image coordinates that are position coordinates in the captured image captured by the camera and the overhead map coordinates that are position coordinates in the overhead map Information processing method executed by an information processing apparatus, comprising: a calibration unit that specifies a conversion parameter for converting into the image; and a coordinate conversion unit that converts the captured image coordinates into the eyelid map coordinates using the conversion parameter And
The captured image coordinates of a target object in a first captured image captured by the first camera layout using a first conversion parameter corresponding to a first camera layout are compared with the target image in the eyelid map. Converting to the eyelid map coordinates;
Based on the correspondence between the captured image coordinates of the target object in the second captured image captured in a second camera configuration different from the first camera configuration and the overhead map coordinates of the target object in the overhead map Specifying a second conversion parameter corresponding to the second camera arrangement;
Information processing methods, including:
カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、及び
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能を、をコンピュータに実現させるためのプログラムであって、
前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、プログラム。
The captured image coordinates correspond to the location of the camera based on the correspondence between the captured image coordinates that are position coordinates in the captured image captured by the camera and the overhead map coordinates that are position coordinates in the overhead map A program for causing a computer to realize a calibration function of specifying a conversion parameter for converting into a coordinate, and a coordinate conversion function of converting the captured image coordinates into the eyelid map coordinates using the conversion parameters. ,
The coordinate conversion function allows the captured image coordinates of a target object in a first captured image captured by the first camera layout to be captured using the first conversion parameter corresponding to the first camera layout. Convert to the eyelid map coordinates of the target object in the map;
The calibration function is configured to include the captured image coordinates of the target object in a second captured image captured by a second camera arrangement different from the first camera arrangement and the eyelid map of the target object in the eyelid map A program for specifying a second conversion parameter corresponding to the second camera arrangement based on correspondence with coordinates.
JP2017185667A 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs Active JP7047306B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017185667A JP7047306B2 (en) 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185667A JP7047306B2 (en) 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019061502A true JP2019061502A (en) 2019-04-18
JP7047306B2 JP7047306B2 (en) 2022-04-05

Family

ID=66177468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185667A Active JP7047306B2 (en) 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7047306B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186995A1 (en) * 2020-03-16 2021-09-23 株式会社小松製作所 Method and system for calibrating work machine
CN115205382A (en) * 2022-06-08 2022-10-18 阿里巴巴(中国)有限公司 Target positioning method and device
CN115393407A (en) * 2022-08-29 2022-11-25 杜霖 Image external reference calibration method and device, equipment and storage medium
WO2023061110A1 (en) * 2021-10-12 2023-04-20 荣耀终端有限公司 Coordinate system calibration method, and automatic assembly method and apparatus
WO2025032641A1 (en) * 2023-08-04 2025-02-13 株式会社日立国際電気 Position detection system and position detection method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024085287A1 (en) * 2022-10-21 2024-04-25 한국전자기술연구원 Method for constructing context map for autonomous driving and control
WO2024085286A1 (en) * 2022-10-21 2024-04-25 한국전자기술연구원 Method for establishing context map based on collaboration of drone and robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005625A (en) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2004178229A (en) * 2002-11-26 2004-06-24 Matsushita Electric Works Ltd Location detector of personal, detection method and autonomous moving device using the detector
JP2008107087A (en) * 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Light source position estimation device
WO2009110417A1 (en) * 2008-03-03 2009-09-11 ティーオーエー株式会社 Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005625A (en) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2004178229A (en) * 2002-11-26 2004-06-24 Matsushita Electric Works Ltd Location detector of personal, detection method and autonomous moving device using the detector
JP2008107087A (en) * 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Light source position estimation device
WO2009110417A1 (en) * 2008-03-03 2009-09-11 ティーオーエー株式会社 Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
飯尾 太郎 他: "広い視野を観測できる複数台カメラのキャリブレーション", 電子情報通信学会技術研究報告, vol. 103, no. 657, JPN6021025870, 13 February 2004 (2004-02-13), JP, pages 73 - 78, ISSN: 0004545710 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102692426B1 (en) 2020-03-16 2024-08-05 가부시키가이샤 고마쓰 세이사쿠쇼 Method and system for calibration of working machines
JP2021147769A (en) * 2020-03-16 2021-09-27 株式会社小松製作所 Method and system for calibration of work machine
KR20220086664A (en) * 2020-03-16 2022-06-23 가부시키가이샤 고마쓰 세이사쿠쇼 Method and system for calibration of working machines
CN114729520A (en) * 2020-03-16 2022-07-08 株式会社小松制作所 Method and system for calibration of a work machine
CN114729520B (en) * 2020-03-16 2023-07-04 株式会社小松制作所 Method and system for calibration of work machine
JP7388957B2 (en) 2020-03-16 2023-11-29 株式会社小松製作所 Method and system for calibration of work machines
WO2021186995A1 (en) * 2020-03-16 2021-09-23 株式会社小松製作所 Method and system for calibrating work machine
US12116756B2 (en) 2020-03-16 2024-10-15 Komatsu Ltd. Method and system for calibrating work machine
WO2023061110A1 (en) * 2021-10-12 2023-04-20 荣耀终端有限公司 Coordinate system calibration method, and automatic assembly method and apparatus
US12427670B2 (en) 2021-10-12 2025-09-30 Honor Device Co., Ltd. Coordinate system calibration method, automatic assembly method, and apparatus
CN115205382A (en) * 2022-06-08 2022-10-18 阿里巴巴(中国)有限公司 Target positioning method and device
CN115393407A (en) * 2022-08-29 2022-11-25 杜霖 Image external reference calibration method and device, equipment and storage medium
WO2025032641A1 (en) * 2023-08-04 2025-02-13 株式会社日立国際電気 Position detection system and position detection method

Also Published As

Publication number Publication date
JP7047306B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP7047306B2 (en) Information processing equipment, information processing methods, and programs
CN108297096B (en) Calibration device, calibration method, and computer-readable medium
JP5150310B2 (en) Geographic data collection device
KR101624450B1 (en) Image processing device, image processing method, and storage medium
KR101450782B1 (en) Image processing device and program
JP2019060742A (en) Position detector and program
JP2012240174A (en) Calibration device and calibration method
JP5259291B2 (en) White balance correction device and signal processing program
JP5183152B2 (en) Image processing device
JP2940736B2 (en) Image processing apparatus and distortion correction method in the image processing apparatus
JP2008217526A (en) Image processing apparatus, image processing program, and image processing method
JP6544996B2 (en) Control device and control method
JP2016123044A (en) Subject tracking device, control method thereof, and program
JP4250620B2 (en) Information processing method and apparatus
JP4725383B2 (en) Pointing device, external information processing device, pointing position specifying device, and pointing position specifying method
JP4770197B2 (en) Presentation control apparatus and program
JP6579727B1 (en) Moving object detection device, moving object detection method, and moving object detection program
JP2000284363A (en) Image projection apparatus and image projection method
JP6025400B2 (en) Work position detection device and work position detection method
JP2023118479A (en) Information processing device, information processing method, program, and storage medium
US20190313017A1 (en) Imaging adjustment information derivation apparatus, imaging apparatus, imaging adjustment information derivation method, control program, and recording medium
JP2019066327A (en) Vehicle periphery monitoring device, and periphery monitoring method
CN116862992A (en) Method and device for determining visual field of monitoring camera
WO2023149118A1 (en) Program, information processing device, and information processing method
JP2004220371A (en) Image processing method, image processing apparatus, image processing program, and recording medium storing image processing program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150