JP2019061502A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2019061502A JP2019061502A JP2017185667A JP2017185667A JP2019061502A JP 2019061502 A JP2019061502 A JP 2019061502A JP 2017185667 A JP2017185667 A JP 2017185667A JP 2017185667 A JP2017185667 A JP 2017185667A JP 2019061502 A JP2019061502 A JP 2019061502A
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- captured image
- map
- unit
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 85
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000006243 chemical reaction Methods 0.000 claims abstract description 232
- 210000000744 eyelid Anatomy 0.000 claims description 127
- 238000012937 correction Methods 0.000 claims description 96
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000000034 method Methods 0.000 description 30
- 230000009466 transformation Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 26
- 230000008859 change Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000000052 comparative effect Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 241000905137 Veronica schmidtiana Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
斜め上方から見下ろすように配置されたカメラにより撮像された撮像画像に含まれる物体の位置を、真上から俯瞰した画像(本明細書では俯瞰マップと呼ぶ)上へマッピングするためには、射影変換行列等の変換パラメータが用いられる。例えば複数の物体が俯瞰マップに対応する実空間上に設置された場合、変換パラメータは、当該複数の物体の撮像画像における位置座標と、当該複数の物体の俯瞰マップにおける位置座標との対応から特定することが可能である。このように変換パラメータを求めることはキャリブレーションと呼ばれている。 In order to map the position of an object included in a captured image captured by a camera arranged so as to look down obliquely from above onto an image viewed from directly above (herein referred to as an overhead map), projective transformation Transformation parameters such as a matrix are used. For example, when a plurality of objects are installed in the real space corresponding to the eyelid map, the conversion parameter is specified from the correspondence between the position coordinates of the plurality of objects in the captured image and the position coordinates of the plurality of objects in the eyelid map It is possible. Determining conversion parameters in this manner is called calibration.
上記のようなキャリブレーションは、カメラの配置が変更されない前提であれば、1回行えば十分である。また、下記特許文献1には、カメラの配置が変更された場合に、その前後に撮像された画像を用いてカメラパラメータをキャリブレーションする技術が開示されている。
The calibration as described above may be performed only once, provided that the arrangement of the cameras is not changed. Further,
しかし、上記特許文献1に記載の技術は、カメラの姿勢(角度)変化をキャリブレーションの対象としており、カメラ位置の変化に対応することはできなかった。そのため、俯瞰マップ化する範囲を変更、または拡大する目的でカメラの配置変更やカメラの追加を行う場合、上述したように、複数の物体の撮像画像における位置座標と、当該複数の物体の俯瞰マップにおける位置座標との対応から再度キャリブレーションを行う必要がある。この際、当該複数の物体の俯瞰マップにおける位置座標を得るためには、実空間における計測、あるいは実空間の既定の位置への物体の設置等が必要となり、コストが大きかった。
However, the technique described in the above-mentioned
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、キャリブレーションに係るコストを抑制することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。 Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved information processing apparatus capable of suppressing the cost involved in calibration, and information processing A method and a program are provided.
上記課題を解決するために、本発明のある観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、情報処理装置が提供される。 In order to solve the above problems, according to one aspect of the present invention, captured image coordinates that are position coordinates in a captured image captured by a camera, and eyelid map coordinates that are position coordinates in an eyelid map corresponding to real space And a calibration unit that specifies a conversion parameter for converting the captured image coordinates into the overhead map coordinates based on the correspondence between the cameras, and the converted image coordinates using the conversion parameter. A coordinate conversion unit configured to convert the eyelid map coordinates, wherein the coordinate conversion unit is a first image captured by the first camera arrangement using a first conversion parameter corresponding to a first camera arrangement; Converting the captured image coordinates of the target object in the captured image into the overhead map coordinates of the target object in the overhead map; The unit further comprises: the captured image coordinates of the target object in a second captured image captured in a second camera configuration different from the first camera configuration; and the overhead map coordinates of the target object in the overhead map An information processing apparatus is provided which specifies a second conversion parameter corresponding to the second camera arrangement based on the correspondence.
前記情報処理装置は、前記目標物体の前記撮像画像座標を特定する目標物体特定部をさらに備えてもよい。 The information processing apparatus may further include a target object specifying unit that specifies the captured image coordinates of the target object.
前記目標物体特定部は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定してもよい。 The target object identification unit detects the captured image coordinates of a target object candidate from the captured image, and captures the captured image coordinates of the detected target object candidate based on the determination of the operator. It may be specified as image coordinates.
前記情報処理装置は、前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション部により特定された前記変換パラメータの補正を行う補正部をさらに備えてもよい。 The information processing apparatus may further include a correction unit that corrects the conversion parameter specified by the calibration unit using a reference object with the eyelid map coordinates known.
前記補正部は、前記基準物体の既知の前記俯瞰マップ座標である既知基準座標と、前記座標変換部が前記基準物体の前記撮像画像座標を変換することにより得られる前記基準物体の前記俯瞰マップ座標である変換基準座標と、の距離を特定する距離特定部を有し、前記距離に基づいて前記変換パラメータの補正を行ってもよい。 The correction unit is a known reference coordinate that is the known eyelid map coordinates of the reference object, and the eyelid map coordinates of the reference object obtained by the coordinate conversion unit converting the captured image coordinates of the reference object The conversion parameter may be corrected based on the distance.
前記補正部は、前記距離が所定の範囲内であるか否かの判定を行う判定部をさらに有し、前記判定部による前記判定の結果に応じて前記変換パラメータの補正を行ってもよい。 The correction unit may further include a determination unit that determines whether the distance is within a predetermined range, and may correct the conversion parameter according to a result of the determination by the determination unit.
前記補正部は、前記判定部により前記距離が前記所定の範囲内ではないと判定された場合に、前記既知基準座標と前記変換基準座標との差に基づいて前記目標物体の前記俯瞰マップ座標を補正する座標補正部をさらに有し、前記座標補正部により補正された前記目標物体の前記俯瞰マップ座標に基づいて前記変換パラメータの補正を行ってもよい。 The correction unit determines the eyelid map coordinates of the target object based on a difference between the known reference coordinates and the conversion reference coordinates when the determination unit determines that the distance is not within the predetermined range. The image processing apparatus may further include a coordinate correction unit that corrects the conversion parameter based on the eyelid map coordinates of the target object corrected by the coordinate correction unit.
前記補正部が前記変換パラメータの補正を行うために要する前記基準物体の数は、前記キャリブレーション部が前記第2の変換パラメータを特定するために要する前記目標物体の数よりも少なくてもよい。 The number of reference objects required for the correction unit to correct the conversion parameter may be smaller than the number of target objects required for the calibration unit to specify the second conversion parameter.
前記情報処理装置は、前記第1の撮像画像と、前記第2の撮像画像との両方に含まれる前記目標物体の数が所定の閾値より少ない場合に、前記第1の撮像画像における第1の目標物体の前記撮像画像座標を変換することで得られた前記俯瞰マップにおける前記第1の目標物体の前記俯瞰マップ座標、位置センサのセンシングに基づいて得られる前記位置センサに対応したセンサ座標系における前記第1の目標物体の位置座標、及び、前記位置センサのセンシングに基づいて得られる前記センサ座標系における第2の目標物体の位置座標、に基づいて前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標を取得するセンサ情報管理部をさらに備え、前記キャリブレーション部は、前記第2の撮像画像における前記第2の目標物体の前記撮像画像座標と前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定してもよい。 The information processing apparatus may be configured to determine whether the number of target objects included in both the first captured image and the second captured image is smaller than a predetermined threshold value. In the sensor coordinate system corresponding to the position sensor, the eyelid map coordinates of the first target object in the eyelid map obtained by converting the captured image coordinates of the target object, the sensing of the position sensor The second target object in the eyelid map based on the position coordinates of the first target object and the position coordinates of a second target object in the sensor coordinate system obtained based on the sensing of the position sensor The information processing apparatus further includes a sensor information management unit that acquires the eyelid map coordinates, and the calibration unit is configured to receive the second target object in the second captured image. Based on the correspondence between the bird's-eye map coordinates of the second target object in serial captured image coordinates and the bird's eye map may identify a second conversion parameters.
前記変換パラメータは、射影変換行列または透視投影変換行列を含んでもよい。 The transformation parameters may include a projection transformation matrix or a perspective projection transformation matrix.
また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備える情報処理装置により実行される情報処理方法であって、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換することと、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定することと、を含む、情報処理方法が提供される。 In order to solve the above problems, according to another aspect of the present invention, the correspondence between the captured image coordinates that are position coordinates in a captured image captured by a camera and the eyelid map coordinates that is position coordinates in an eyelid map And a calibration unit that specifies a conversion parameter for converting the captured image coordinates to the overhead map coordinates based on the arrangement of the cameras, and using the conversion parameter to convert the captured image coordinates to the overhead map An information processing method executed by an information processing apparatus including a coordinate conversion unit configured to convert coordinates into coordinates, which is imaged by the first camera arrangement using a first conversion parameter corresponding to a first camera arrangement. Converting the captured image coordinates of the target object in the first captured image into the overhead map coordinates of the target object in the overhead map And the captured image coordinates of the target object in a second captured image captured in a second camera configuration different from the first camera configuration and the overhead map coordinates of the target object in the overhead map Providing a second conversion parameter corresponding to the second camera arrangement based on the correspondence.
また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能を、をコンピュータに実現させるためのプログラムであって、前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、プログラムが提供される。 In order to solve the above problems, according to another aspect of the present invention, the correspondence between the captured image coordinates that are position coordinates in a captured image captured by a camera and the eyelid map coordinates that is position coordinates in an eyelid map And a calibration function for specifying a conversion parameter for converting the captured image coordinates to the overhead map coordinates based on the arrangement of the cameras, and using the conversion parameter to convert the captured image coordinates to the overhead map A program for causing a computer to realize a coordinate conversion function of converting into coordinates, wherein the coordinate conversion function uses the first conversion parameter corresponding to a first camera arrangement to execute the first camera arrangement. And the captured image coordinates of the target object in the first captured image captured by The calibration function converts the captured image coordinates of the target object in a second captured image captured in a second camera arrangement different from the first camera arrangement and the eyelid map A program is provided for identifying a second transformation parameter corresponding to the second camera arrangement based on the correspondence with the eyelid map coordinates of the target object.
以上説明したように本発明によれば、キャリブレーションに係るコストを抑制することが可能である。 As described above, according to the present invention, it is possible to suppress the cost involved in calibration.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 The present invention will now be described more fully with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. In the present specification and the drawings, components having substantially the same functional configuration will be assigned the same reference numerals and redundant description will be omitted.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different alphabets to the same reference numerals. However, when it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration, only the same reference numerals will be given.
<<1.背景>>
本発明の実施形態についての説明に当たり、まず本発明の実施形態の創作に至った背景を説明する。
<< 1. Background >>
In describing the embodiments of the present invention, first, the background that led to the creation of the embodiments of the present invention will be described.
工事現場や商業施設等において、カメラで撮像された撮像画像から、人物等の物体の位置を検出したり、位置を追跡したりすることが行われている。人間が見て把握したり、各種解析等に用いたりするためには、実空間に対応し、真上から俯瞰した俯瞰マップにおける位置座標を得ることが望ましい。しかし、真上から俯瞰するようにカメラを配置することは困難であるため、斜め上方から見下ろすように配置されたカメラが用いられることも多い。 2. Description of the Related Art In construction sites, commercial facilities, etc., the position of an object such as a person is detected or the position is tracked from a captured image captured by a camera. In order to be viewed and grasped by humans and used for various analyzes, etc., it is desirable to obtain position coordinates in an eyelid map corresponding to real space and viewed from directly above. However, since it is difficult to arrange the camera so as to look down from directly above, a camera arranged so as to look down obliquely from the upper side is often used.
そこで、このような斜め上方から見下ろすように配置されたカメラで撮像された撮像画像から得られた物体の位置座標を、俯瞰マップへマッピングする(俯瞰マップにおける位置座標に変換する)ことが行われている。このようなマッピングには射影変換行列や透視投影変換行列等の変換パラメータが用いられている。 Therefore, mapping of the position coordinates of an object obtained from a captured image taken by a camera arranged to look down from such a diagonal upper side onto a map of the eyelid is performed (transformed to position coordinates in the map of eyelid) ing. For such mapping, transformation parameters such as a projection transformation matrix or a perspective projection transformation matrix are used.
例えば、撮像画像から俯瞰マップへの射影変換行列をH、撮像画像における位置座標をG(x,y)とすると、俯瞰マップにおける位置座標F(x,y)は次の式(1)により得ることが可能である。 For example, assuming that a projection transformation matrix from a captured image to an eyelid map is H and position coordinates in the captured image are G (x, y), position coordinates F (x, y) in the eyelid map are obtained by the following equation (1) It is possible.
撮像画像から俯瞰マップへの変換パラメータ(例えば射影変換行列)は、撮像画像における位置座標(以下、撮像画像座標と呼称する場合がある)と、俯瞰マップにおける位置座標(以下、俯瞰マップ座標と呼称する場合がある)との対応を複数用いることで求めることが可能である。このように撮像画像から俯瞰マップへの変換パラメータを求めることを以下では俯瞰マップキャリブレーション、あるいは単にキャリブレーションと呼ぶ。 The conversion parameter (for example, the projective transformation matrix) from the captured image to the overhead map is a position coordinate in the captured image (hereinafter sometimes referred to as the captured image coordinate) and a position coordinate in the overhead map (hereinafter referred to as the overhead map coordinate) It is possible to obtain | require by using two or more correspondence with (it may). The determination of the conversion parameter from the captured image to the overhead map in this way is hereinafter referred to as overhead map calibration, or simply calibration.
上述したように、キャリブレーションを行うためには、撮像画像座標と、俯瞰マップ座標との対応を複数用意する必要がある。そのため、例えば、俯瞰マップに対応する実空間に設置された複数の物体を用いて撮像画像座標と、俯瞰マップ座標との対応を複数用意して、キャリブレーションすることが行われている As described above, in order to perform the calibration, it is necessary to prepare a plurality of correspondences between the captured image coordinates and the eyelid map coordinates. Therefore, for example, calibration is performed by preparing a plurality of correspondences between captured image coordinates and eyelid map coordinates using a plurality of objects installed in a real space corresponding to the eyelid map.
以下、このようにキャリブレーションのために用いられる物体を目標物体と呼称する。なお、目標物体は、キャリブレーションのために新たに設置される物体に限定されず、例えば実空間に既に存在している物体を目標物体として用いることも可能である。 Hereinafter, an object used for calibration in this manner is referred to as a target object. The target object is not limited to an object newly installed for calibration, and, for example, an object already existing in real space may be used as the target object.
ここで、図1、図2を参照して、このように複数の目標物体を用いたキャリブレーションを行う情報処理装置の一例について、本発明の実施形態の比較例として説明する。 Here, with reference to FIG. 1 and FIG. 2, an example of the information processing apparatus that performs calibration using a plurality of target objects in this way will be described as a comparative example of the embodiment of the present invention.
図1は、本比較例に係る情報処理装置8の構成例を示すブロック図である。本比較例に係る情報処理装置8は、図1に示すように、制御部810、画像取得部860、操作部870、出力部880、及び記憶部890を備える。本比較例に係る情報処理装置8は、撮像画像から俯瞰マップへの変換パラメータを求めるキャリブレーションを行い、当該射影変換行列を用いて、撮像画像に映る物体の俯瞰マップ座標を得る情報処理装置である。以下、情報処理装置8の概略構成を説明する。
FIG. 1 is a block diagram showing an example of the configuration of an
制御部810は、情報処理装置8の各構成を制御する。また、本比較例に係る制御部810は、図1に示すように、物体位置特定部811、キャリブレーション部813、及び座標変換部815としても機能する。
The
物体位置特定部811は、撮像画像を取得する画像取得部860から提供された撮像画像に映る物体の、撮像画像における位置座標(撮像画像座標)を特定する。物体位置特定部811による撮像画像座標の特定方法は特に限定されないが、例えば操作部870を用いたユーザ操作に基づいて撮像画像座標が特定されてもよいし、画像処理技術により撮像画像座標が特定されてもよい。
The object
物体位置特定部811は、撮像画像座標をキャリブレーション部813、または座標変換部815へ提供する。例えば、キャリブレーションに係る作業を行っている場合には、物体位置特定部811は、目標物体の撮像画像座標をキャリブレーション部813へ提供する。また、キャリブレーションが完了した後、撮像画像に映る物体の俯瞰マップ位置を得たい場合には、物体位置特定部811は、当該物体の撮像画像座標を座標変換部815へ提供する。
The object
キャリブレーション部813は、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。例えば変換パラメータが射影変換行列である場合、4組以上の撮像画像座標と、俯瞰マップ座標との対応が得られれば、上記の式(1)を利用して射影変換行列を特定することが可能である。例えば、キャリブレーション部813は、4組以上の撮像画像座標と、俯瞰マップ座標との対応から得られる連立方程式を解くことにより、3×3の射影変換行列(変換パラメータの一例)を特定(算出)してもよい。
The
ここで撮像画像座標と、俯瞰マップ座標との対応を得るための方法について図2を参照して説明を行う。図2は、撮像画像座標と、俯瞰マップ座標との対応を得るための方法を説明するための説明図である。 Here, a method for obtaining the correspondence between the captured image coordinates and the eyelid map coordinates will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining a method for obtaining correspondence between captured image coordinates and eyelid map coordinates.
図2には、真上から見た実空間R100が示されており、実空間にはカメラ9と目標物体T101〜T104が設置されている。また、図2に示す通り、実空間R100には点ORを原点とした実空間座標系が設定されている。
FIG. 2 shows a real space R100 viewed from directly above, in which the
カメラ9により撮像される画像は例えば図2に示す撮像画像G100のようになる。撮像画像G100における目標物体T101〜T104の位置座標(撮像画像座標)P101〜P104は、上述したように、物体位置特定部811により特定される。
An image captured by the
また、実空間R100に対応する俯瞰マップは図2に示す俯瞰マップM100のようになる。俯瞰マップM100は、実空間R100の原点ORと対応した原点OMを有し、所定の縮尺により実空間R100における各位置と俯瞰マップM100における各位置が対応している。そのため、目標物体T101〜T104の俯瞰マップM100における位置座標(俯瞰マップ座標)を得るためには、例えば目標物体T101〜T104の実空間位置がわかればよい。 Moreover, the overhead map corresponding to real space R100 becomes like the overhead map M100 shown in FIG. Bird's-eye map M100 has an origin O M corresponding origin O R in the real space R100, each position in the overhead map M100 with each location in the real space R100 is compatible with a predetermined scale. Therefore, in order to obtain the position coordinates (eyelid map coordinates) in the eyelid map M100 of the target objects T101 to T104, for example, it is sufficient to know the real space positions of the target objects T101 to T104.
目標物体T101〜T104は、例えば実空間位置が既知である既定の位置に設置されてもよい。あるいは、実空間位置が不明な位置に目標物体T101〜T104が設置された場合、周知の測位方法により、目標物体T101〜T104の実空間位置が測定されてもよい。係る測位方法は、例えば手動で行われる方法でもよいし、GPS受信機等の測位用の機器を用いた自動的な方法であってもよい。目標物体の実空間位置の情報は、不図示の通信部を介して入力されてもよいし、ユーザ(操作者)による操作部870の操作により入力されてもよい。
The target objects T101 to T104 may be placed, for example, at predetermined positions where the real space position is known. Alternatively, when the target objects T101 to T104 are installed at positions where the real space position is unknown, the real space positions of the target objects T101 to T104 may be measured by a known positioning method. The positioning method may be, for example, a method performed manually or an automatic method using a positioning device such as a GPS receiver. Information on the real space position of the target object may be input through a communication unit (not shown) or may be input by the operation of the
このようにして得られた目標物体の実空間位置の情報がキャリブレーション部813へ提供され、キャリブレーション部813は、当該実空間位置に基づいて、目標物体T101〜T104の俯瞰マップ座標F101〜F104を得ることが可能である。なお、ユーザが実空間位置から俯瞰マップ座標を特定してもよく、係る場合、ユーザは操作部870を操作して俯瞰マップ座標を直接的に入力してもよい。
Information on the real space position of the target object obtained in this manner is provided to the
上記のようにして、キャリブレーション部813は、撮像画像座標P101〜P104と、俯瞰マップ座標F101〜F104の対応を、キャリブレーションに利用することが可能となる。キャリブレーション部813により特定された変換パラメータは、記憶部890に記憶される変換パラメータDB891に格納される。
As described above, the
図1に戻って説明を続ける。座標変換部815は、変換パラメータを用いて、物体位置特定部811から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う。座標変換部815は、記憶部890に記憶された変換パラメータDB891に格納された変換パラメータ、すなわち、上述したキャリブレーション部813のキャリブレーションにより得られた変換パラメータを用いて、係る座標変換を行ってもよい。座標変換部815の座標変換により得られた物体の俯瞰マップ座標は、例えば出力部880から出力される。
Returning to FIG. 1, the description will be continued. The coordinate
以上、本比較例に係る情報処理装置8の概略構成を説明した。上述したように、情報処理装置8によりキャリブレーションを行うためには、撮像画像座標と、俯瞰マップ座標の対応を得る必要があり、俯瞰マップ座標を得るためには、目標物体の実空間位置を得る必要がある。
The schematic configuration of the
目標物体の実空間位置を得るためには、上述したように既定の位置に設置する、手動で測位する、あるいはGPS受信機等の測位用の機器を用いる等の必要がある。測位用の機器を用いた場合、目標物体の製造コストが増加する。また、屋内や地下等では測位用の機器を用いることが不可能な場合もあった。 In order to obtain the real space position of the target object, it is necessary to set the position at the predetermined position as described above, to perform positioning manually, or to use a positioning device such as a GPS receiver. When a positioning device is used, the manufacturing cost of the target object is increased. In some cases, it is impossible to use a positioning device indoors or underground.
一方、目標物体を既定の位置に設置したり、手動で測位したりすることは、キャリブレーションに係る作業コストの増加につながる。カメラの配置が変更されない前提であれば、1回キャリブレーションを行えば十分であるが、カメラの配置が変更されたり、新たなカメラが追加されたりすることも考えられる。例えば、工事現場では、工事範囲が移動する場合にカメラの配置変更を行ったり、工事範囲が広くなる場合にカメラの追加を行うことが考えられる。また、商業施設においても、フロアの状況等に応じて、カメラの配置変更やカメラの追加を行うことが考えられる。 On the other hand, placing the target object at a predetermined position or manually positioning leads to an increase in the working cost for calibration. If it is premised that the arrangement of the camera is not changed, one calibration is sufficient, but the arrangement of the camera may be changed or a new camera may be added. For example, at the construction site, it is conceivable to change the arrangement of the camera when the construction range moves, or to add the camera when the construction range becomes wide. In addition, also in a commercial facility, it is conceivable to change the arrangement of cameras or add cameras according to the condition of the floor and the like.
このようにカメラの配置変更やカメラの追加が行われる場合、カメラの配置変更、またはカメラの追加の度にキャリブレーションを行う必要がある。そのため、カメラの配置変更、またはカメラの追加の度に目標物体を既定の位置に設置したり、手動で測位したりすることは、作業コストを大きく増大させてしまう。 In the case where the camera arrangement is changed or the camera is added in this way, it is necessary to perform calibration each time the camera arrangement is changed or the camera is added. Therefore, placing the target object at a predetermined position or manually positioning it every time the camera is changed or added to the camera greatly increases the operation cost.
そこで、本件発明者は、上記事情を一着眼点にして本発明の実施形態を創作するに至った。以下に説明する本発明の各実施形態による情報処理装置は、キャリブレーション済みのカメラ配置において得られた目標物体の俯瞰マップ座標を記憶しておき、新たなカメラ配置におけるキャリブレーションに用いることでコストを抑制することが可能である。以下では、係る効果を実現する本発明の各実施形態について、順次詳細に説明する。 Therefore, the inventor of the present invention has made the embodiment of the present invention, focusing on the above circumstances. The information processing apparatus according to each embodiment of the present invention described below stores the eyelid map coordinates of the target object obtained in the calibrated camera arrangement, and uses it for calibration in the new camera arrangement. It is possible to suppress Below, each embodiment of the present invention which realizes the effect concerned is described in detail one by one.
<<2.各実施形態の詳細な説明>>
<2−1.第1の実施形態>
(概要)
まず、本発明の第1の実施形態の概要を説明する。本実施形態に係る情報処理装置は、変換パラメータが特定された、つまりキャリブレーションが既に行われたカメラ配置(以下、第1のカメラ配置と呼ぶ場合がある)で撮像された撮像画像における目標物体の撮像画像座標を、俯瞰マップ座標に変換する。本実施形態に係る情報処理装置は、このようにして得られた俯瞰マップ座標を一旦記憶し、例えばカメラ配置の変更、またはカメラの追加を行う。そして、本実施形態に係る情報処理装置は、カメラ配置変更後、あるいはカメラ追加後のカメラ配置(以下、第2のカメラ配置と呼ぶ場合がある)で撮像された撮像画像における目標物体の撮像画像座標と、記憶された俯瞰マップ座標との対応に基づいて、キャリブレーションを行う。
<< 2. Detailed Description of Each Embodiment >>
<2-1. First embodiment>
(Overview)
First, an outline of the first embodiment of the present invention will be described. The information processing apparatus according to the present embodiment is a target object in a captured image captured by a camera arrangement in which a conversion parameter has been specified, that is, a camera arrangement in which calibration has already been performed (hereinafter may be referred to as a first camera arrangement). The captured image coordinates of are converted into overhead map coordinates. The information processing apparatus according to the present embodiment temporarily stores the eyelid map coordinates obtained in this manner, and performs, for example, a change in camera arrangement or an addition of a camera. Then, in the information processing apparatus according to the present embodiment, the captured image of the target object in the captured image captured by the camera layout after changing the camera layout or after adding the camera (hereinafter may be referred to as a second camera layout) Calibration is performed based on the correspondence between the coordinates and the stored map coordinates of the eye.
このようにキャリブレーションを行うことで、第2のカメラ配置におけるキャリブレーションに係るコストを抑制することが可能である。以下、このような本実施形態に係る情報処理装置の構成例について、図3を参照して説明を行う。 By performing the calibration in this manner, it is possible to suppress the cost involved in the calibration in the second camera arrangement. Hereinafter, a configuration example of the information processing apparatus according to the present embodiment will be described with reference to FIG.
(構成例)
図3は、本発明の第1の実施形態に係る情報処理装置1の構成例を示すブロック図である。本実施形態に係る情報処理装置1は、図3に示すように、制御部10、画像取得部60、操作部70、出力部80、及び記憶部90を備える。
(Example of configuration)
FIG. 3 is a block diagram showing an exemplary configuration of the
制御部10は、情報処理装置1の各構成を制御する。また、本実施形態に係る制御部10は、図3に示すように、物体位置特定部11、キャリブレーション部13、及び座標変換部15としても機能する。制御部10が有する物体位置特定部11、キャリブレーション部13、及び座標変換部15の機能については後述する。
The
画像取得部60は、不図示のカメラと接続され、当該カメラにより撮像された撮像画像を取得するインタフェースである。なお、画像取得部60は、複数のカメラと接続されて、複数のカメラから撮像画像を取得してもよい。画像取得部60は、取得した撮像画像を制御部10へ提供する。
The
なお、情報処理装置1自体がカメラを含んでもよい。係る場合には画像取得部60に代えて、または加えてCCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)等を含む撮像部を情報処理装置1が備えてもよい。
Note that the
操作部70は、情報処理装置1のユーザ(操作者)による入力を受け付ける。例えば、操作部70は、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー、またはダイヤル等により実現されてもよい。
The
出力部80は、例えばディスプレイであり、俯瞰マップにおける物体の位置等を目的に応じて表示出力する。例えば当該物体が静止していれば当該物体の位置を俯瞰マップ上に表示出力すればよいし、当該物体が移動していれば、その軌跡を各フレームの俯瞰マップ座標に基づいて表示出力すればよい。
The
記憶部90は、情報処理装置1の動作に用いられるプログラム及びデータを記憶する。また、記憶部90は図3に示すように変換パラメータDB91、及び位置座標DB93を記憶する。
The
変換パラメータDB91には、後述するキャリブレーション部13から提供される、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータが格納される。また、位置座標DB93には、後述する座標変換部15から提供される、目標物体の俯瞰マップ座標が格納される。なお、本実施形態に係る記憶部90は、係る位置座標DB93を記憶する点で図1に示した記憶部890と異なる。
The
以上、本実施形態に係る情報処理装置1の全体構成を説明した。続いて、情報処理装置1が備える制御部10が有する物体位置特定部11、キャリブレーション部13、及び座標変換部15の機能について説明する。
The overall configuration of the
物体位置特定部11は、画像取得部60から提供された撮像画像に映る物体(目標物体を含む)の撮像画像座標を特定する。物体位置特定部11は、操作部870を用いたユーザ操作に基づいて物体の撮像画像座標を特定してもよいし、画像処理技術により撮像画像座標を特定してもよい。例えば、画像処理技術により撮像画像座標を特定する場合、物体位置特定部11は、テンプレートマッチング等の手法を用いて撮像画像から物体を検出し、撮像画像において当該物体の領域内で最も下の位置座標を当該物体の撮像画像座標として特定してもよい。
The object
また、物体位置特定部11は、撮像画像から目標物体候補の撮像画像座標を検出し、検出された目標物体候補の撮像画像座標を、出力部80に出力(例えば表示)させてもよい。出力部80の出力を確認したユーザ(操作者)は、操作部70を介して目標物体候補の中から目標物体の決定を行ってもよい。そして、物体位置特定部11は、操作部70を介した操作者の決定に基づいて、決定された目標物体候補の撮像画像座標を目標物体の撮像画像座標として特定してもよい。
Further, the object
係る構成により、目標物体の撮像画像座標がより高精度に特定され得る。目標物体の撮像画像座標の特定に誤りがあると、キャリブレーション精度に大きな影響を及ぼす恐れがあるため、目標物体の撮像画像座標が高精度に特定されることで、キャリブレーション精度も向上し得る。 With such a configuration, captured image coordinates of the target object can be identified with higher accuracy. If there is an error in specifying the captured image coordinates of the target object, there is a possibility that the calibration accuracy may be greatly affected. Therefore, the calibration accuracy can be improved by specifying the captured image coordinates of the target object with high accuracy. .
キャリブレーション部13は、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。キャリブレーション部13が特定する変換パラメータは、例えば射影変換行列であってもよい。キャリブレーション部13は、例えば図1に示した比較例に係るキャリブレーション部813と同様に射影変換行列を特定し得る。
The
最初にカメラが設置された際のカメラ配置において本実施形態に係るキャリブレーション部13がキャリブレーションを行う場合、例えば操作部70を介したユーザ操作により目標物体の実空間位置、または俯瞰マップ座標が入力されてもよい。
When the
ただし、記憶部90の位置座標DB93に目標物体の俯瞰マップ座標が格納されている場合、本実施形態に係るキャリブレーション部13は、位置座標DB93に格納された(記憶された)目標物体の俯瞰マップ座標を用いてキャリブレーションを行う。位置座標DB93に格納された目標物体の俯瞰マップ座標は、後述する座標変換部15が行う座標変換により得られる俯瞰マップ座標である。
However, when the eyelid map coordinates of the target object are stored in the position coordinate
座標変換部15は、変換パラメータを用いて、物体位置特定部11から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う。座標変換部15は、記憶部90に記憶された変換パラメータDB91に格納された変換パラメータ、すなわち、上述したキャリブレーション部13のキャリブレーションにより得られた変換パラメータを用いて、係る座標変換を行ってもよい。座標変換部15の座標変換により得られた物体の俯瞰マップ座標は、例えば出力部80から出力される。
The coordinate
また、本実施形態に係る座標変換部15は、第1のカメラ配置に対応する第1の変換パラメータを用いて、当該第1のカメラ配置で撮像された第1の撮像画像における目標物体の撮像画像座標を、俯瞰マップにおける当該目標物体の俯瞰マップ座標に変換する。さらに、座標変換部15は、このようにして得た俯瞰マップ座標を記憶部90へ提供し、位置座標DB93に格納させる。
In addition, the coordinate
係る構成により、キャリブレーション部13は、第1のカメラ配置とは異なる第2のカメラ配置においてキャリブレーションを行う際に、上述したように位置座標DB93に格納された目標物体の俯瞰マップ座標を用いることが可能となる。つまりキャリブレーション部13は、第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における目標物体の撮像画像座標と、俯瞰マップにおける当該目標物体の俯瞰マップ座標との対応に基づいて、当該第2のカメラ配置に対応した第2の変換パラメータを特定することができる。
With such a configuration, the
係る構成によれば、第2のカメラ配置においてキャリブレーションを行う際に、実空間において目標物体の測位を行わなくてもよいため、作業コストが抑制される。 According to the configuration, when performing calibration in the second camera arrangement, it is not necessary to perform positioning of the target object in the real space, so the operation cost is suppressed.
(動作例)
以上、本実施形態に係る情報処理装置1の構成例について説明した。続いて、本実施形態の動作例について図4〜図10を参照して説明する。
(Operation example)
The configuration example of the
図4は、本実施形態に係る動作概要を示すフローチャート図である。図4に示すように、まず、最初にカメラが設置された際のカメラ配置における変換パラメータを求めるためのキャリブレーション(以下、初期キャリブレーションと呼ぶ)が行われる(S10)。ステップS10の初期キャリブレーションの詳細については、図5〜図7を参照して後述する。 FIG. 4 is a flowchart showing an outline of operation according to the present embodiment. As shown in FIG. 4, first, calibration (hereinafter referred to as initial calibration) for determining conversion parameters in the camera arrangement when the camera is first installed is performed (S10). Details of the initial calibration in step S10 will be described later with reference to FIGS.
続いて、カメラの配置変更、または追加を行う場合(S12においてYES)、カメラ配置変更後、あるいはカメラ追加後のカメラ配置における変換パラメータを求めるための
キャリブレーション(以下、再キャリブレーションと呼ぶ)が行われる(S14)。ステップS14の再キャリブレーションの詳細な動作については、図8〜図10を参照して後述する。
Subsequently, when the camera layout is changed or added (YES in S12), calibration for obtaining conversion parameters in the camera layout after the camera layout change or after the camera addition (hereinafter referred to as recalibration) is It is performed (S14). The detailed operation of the recalibration in step S14 will be described later with reference to FIGS.
一方、カメラの配置変更、追加のいずれも行われない場合(S12においてNO)、動作は終了する。なお、図示されていないが、ステップS10とステップS12の間には、上述したように、撮像画像に映る人物等の物体の位置を俯瞰マップ上に表示出力する処理等が含まれていてもよい。 On the other hand, when neither the arrangement change of the camera nor the addition is performed (NO in S12), the operation ends. Although not shown, as described above, the process of displaying and displaying the position of an object such as a person appearing in the captured image may be included between the step S10 and the step S12. .
以上、本実施形態に係る動作概要について説明した。続いて、図5〜図7を参照して、図4に示したステップS10の初期キャリブレーションについてより詳細に説明する。図5は、初期キャリブレーションの詳細な動作を示すフローチャート図である。また、図6、図7は、初期キャリブレーションについて説明するための説明図である。 The outline of the operation according to the present embodiment has been described above. Subsequently, the initial calibration of step S10 shown in FIG. 4 will be described in more detail with reference to FIGS. FIG. 5 is a flowchart showing the detailed operation of the initial calibration. 6 and 7 are explanatory diagrams for explaining the initial calibration.
図6には、実空間R1と、実空間R1に設置されたカメラ5Aにより撮像された撮像画像G1が示されている。また、図7には、実空間R1と、実空間R1に対応する俯瞰マップM1が示されている。なお、俯瞰マップM1のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示している。また、図6に示される実空間R1は真上から見た平面図であり、図7に示される実空間R1は横から見た側面図である。
FIG. 6 shows a real space R1 and a captured image G1 captured by a
図5に示すように、まず、目標物体T1〜T4が実空間R1に設置される(S100)。続いて、目標物体T1〜T4の実空間位置が測定され、目標物体T1〜T4の実空間位置にそれぞれ対応する俯瞰マップ座標F1〜F4が、例えば操作部70を介したユーザ操作により入力される(S102)。
As shown in FIG. 5, first, target objects T1 to T4 are placed in the real space R1 (S100). Subsequently, the real space positions of the target objects T1 to T4 are measured, and the eyelid map coordinates F1 to F4 respectively corresponding to the real space positions of the target objects T1 to T4 are input by a user operation via the
続いて、画像取得部60により、カメラ5Aにより撮像された撮像画像G1が取得される(S104)。なお、撮像画像G1が取得された後、目標物体T1〜T4は撤去されてもよい。続いて、物体位置特定部11が、目標物体T1〜T4の撮像画像座標P1〜P4をそれぞれ特定する(S106)。
Subsequently, the
続いて、キャリブレーション部13が、撮像画像座標P1〜P4と俯瞰マップ座標F1〜F4との対応に基づいて、変換パラメータを特定する(S108)。ステップS108で特定された変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S110)。
Subsequently, the
以上、ステップS10の初期キャリブレーションについて説明した。続いて、図8〜図10を参照して、図4に示したステップS14の再キャリブレーションについてより詳細に説明する。図8は、本実施形態に係る再キャリブレーションの詳細な動作を示すフローチャート図である。また、図9、図10は、本実施形態に係る再キャリブレーションについて説明するための説明図である。 The initial calibration of step S10 has been described above. Subsequently, the recalibration in step S14 shown in FIG. 4 will be described in more detail with reference to FIGS. FIG. 8 is a flowchart showing the detailed operation of the recalibration according to the present embodiment. 9 and 10 are explanatory diagrams for explaining the recalibration according to the present embodiment.
なお、図9、及び図10は、初期キャリブレーションが行われた後、最初に再キャリブレーションが行われる場合の例、つまり、カメラの配置変更、または追加が最初に行われる場合の例を示している。カメラの配置変更が行われる場合、図9、及び図10に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、カメラの追加が行われる場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。
9 and 10 show an example in which recalibration is performed first after the initial calibration is performed, that is, an example in which the camera layout change or addition is performed first. ing. When the arrangement change of the camera is performed, the
カメラ5Aのカメラ配置におけるキャリブレーションは既にステップS10において完了しているため、カメラ5Aのカメラ配置を上述した第1のカメラ配置、カメラ5Bのカメラ配置を上述した第2のカメラ配置とそれぞれ呼称する。
Since calibration in the camera arrangement of the
図9には、実空間R10と、実空間R10に設置されたカメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G11、及び実空間R10に設置されたカメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G12が示されている。また、図10には、実空間R10と、実空間R10に対応する俯瞰マップM11及び俯瞰マップM12が示されている。なお、俯瞰マップM11のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM12のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図9に示される実空間R10は真上から見た平面図であり、図10に示される実空間R10は横から見た側面図である。また、図10に示す俯瞰マップM11、及び俯瞰マップM12は、図7に示した俯瞰マップM1と同一の座標系を有している。
In FIG. 9, a first captured image G11 captured in the first camera arrangement by the real space R10 and the
図8に示すように、まず、目標物体T11〜T14が実空間R10に設置される(S140)。続いて、画像取得部60により、カメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G11が取得される(S142)。続いて、物体位置特定部11が、第1の撮像画像G11における目標物体T11〜T14の撮像画像座標P111〜P114をそれぞれ特定する(S144)。
As shown in FIG. 8, first, target objects T11 to T14 are placed in the real space R10 (S140). Subsequently, the
続いて、座標変換部15が、記憶部90の変換パラメータDB91に格納された(記憶された)第1の変換パラメータを用いて、撮像画像座標P111〜P114を俯瞰マップ座標F11〜F14にそれぞれ変換する(S146)。なお、ステップS146で用いられる第1の変換パラメータは、カメラ5Aのカメラ配置(第1のカメラ配置)に対応した変換パラメータであり、例えば図5に示したステップS110において記憶された変換パラメータであってもよい。
Subsequently, using the first conversion parameter stored (stored) in the
ステップS146で得られた俯瞰マップ座標F11〜F14は、記憶部90の位置座標DB93に格納(記憶)される(S147)。
The eyelid map coordinates F11 to F14 obtained in step S146 are stored (stored) in the position coordinate
続いて、カメラの配置変更、またはカメラの追加が行われる(S148)。続いて、画像取得部60により、カメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G12が取得される(S150)。続いて、物体位置特定部11が、第2の撮像画像G12における目標物体T11〜T14の撮像画像座標P121〜P124をそれぞれ特定する(S152)。
Subsequently, the arrangement of the camera or the addition of a camera is performed (S148). Subsequently, the second captured image G12 captured by the
続いて、キャリブレーション部13が、ステップS152で特定された撮像画像座標P121〜P124と、ステップS147で位置座標DB93に格納された俯瞰マップ座標F11〜F14との対応に基づいて、第2の変換パラメータを特定する(S154)。ステップS154で特定された第2の変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S156)。
Subsequently, the
以上、ステップS14の再キャリブレーションについて説明した。なお、図4を参照して説明したように、ステップS14の再キャリブレーションは、カメラの再配置、またはカメラの追加が行われなくなるまで繰り返される。したがって、図8〜図10を参照して説明したカメラ5Bのカメラ配置(第2のカメラ配置)、及び特定された第2の変換パラメータは、次回、再キャリブレーションが行われる際には第1のカメラ配置、及び第1の変換パラメータとして扱われる。
The recalibration in step S14 has been described above. Note that, as described with reference to FIG. 4, the recalibration in step S14 is repeated until camera repositioning or camera addition is not performed. Therefore, the camera arrangement (second camera arrangement) of the
また、図10に示すように、上述した目標物体T11〜T14は、カメラ5A、及びカメラ5Bの両方の撮像範囲に含まれるように配置される。図8に示したように目標物体T11〜T14が配置された後にカメラの配置変更、あるはカメラの追加が行われる場合、カメラ5Bの撮像範囲に目標物体T11〜T14が含まれるようにカメラ5Bの設置が行われればよい。
Further, as shown in FIG. 10, the target objects T11 to T14 described above are arranged so as to be included in the imaging ranges of both the
(補足)
以上、本発明の第1の実施形態について説明した。本実施形態によれば、キャリブレーション済みの第1のカメラ配置において得られた目標物体の俯瞰マップ座標を、第2のメラ配置におけるキャリブレーションに用いることで、第2のカメラ配置におけるキャリブレーションに係るコストを抑制することが可能である。なお、上記では目標物体の数が4である例を説明したが、目標物体の数は変換パラメータ、及び座標変換の手法に必要な数応じて異なってもよい。また、目標物体の数は、目標物体の数は変換パラメータ、及び座標変換の手法に必要な数よりも多くてもよく、係る構成により、より高精度なキャリブレーションが可能となり得る。
(Supplement)
The first embodiment of the present invention has been described above. According to the present embodiment, by using the eyelid map coordinates of the target object obtained in the first calibrated camera arrangement for calibration in the second camera arrangement, calibration for the second camera arrangement is performed. It is possible to suppress such costs. Although the example in which the number of target objects is four has been described above, the number of target objects may be different depending on the conversion parameter and the number necessary for the method of coordinate conversion. In addition, the number of target objects may be larger than the number required for conversion parameters and coordinate conversion methods, and such a configuration may enable more accurate calibration.
<2−2.第2の実施形態>
(概要)
上記第1の実施形態では、カメラの再配置、またはカメラの追加が行われる度に再キャリブレーションを繰り返し行う例を説明した。しかし、再キャリブレーションの繰り返し回数が増大すると、座標変換により得られる目標物体の俯瞰マップ座標と、目標物体の実空間位置に対応する俯瞰マップ座標との誤差が蓄積され、大きくなってしまう場合がある。
2-2. Second embodiment>
(Overview)
In the first embodiment, an example has been described in which recalibration is repeatedly performed each time camera relocation or camera addition is performed. However, when the number of repetitions of recalibration increases, an error may be accumulated between the eyelid map coordinates of the target object obtained by coordinate conversion and the eyelid map coordinates corresponding to the real space position of the target object, which may increase. is there.
そこで、実空間における位置が既知である、すなわち、俯瞰マップ座標が既知である物体(以下、基準物体と呼ぶ)を用いて補正を行う例を第2の実施形態として説明する。 Thus, an example in which correction is performed using an object whose position in the real space is known, that is, the eyelid map coordinates are known (hereinafter, referred to as a reference object) will be described as a second embodiment.
(構成例)
図11は、本発明の第2の実施形態に係る情報処理装置2の構成例を示すブロック図である。本実施形態に係る情報処理装置2は、図11に示すように、制御部20、画像取得部60、操作部70、出力部80、及び記憶部90を備える。なお、図11に示す構成要素のうち、図3に示した構成要素と実質的に同一の機能構成を有する構成要素については、同一の符号を付してあるため、説明を省略する。
(Example of configuration)
FIG. 11 is a block diagram showing a configuration example of the
制御部20は、情報処理装置2の各構成を制御する。また、本実施形態に係る制御部20は、図11に示すように、物体位置特定部21、キャリブレーション部23、座標変換部25、及び補正部27としても機能する。
The
物体位置特定部21は、図3を参照して説明した物体位置特定部11と同様に、画像取得部60から提供された撮像画像に映る物体の撮像画像座標を特定する。ただし、物体位置特定部21が特定する撮像画像座標は、基準物体の撮像画像座標を含む点で物体位置特定部21は物体位置特定部11と異なる。なお、物体位置特定部21は、目標物体の撮像画像座標の特定方法と同様の方法で基準物体の撮像画像座標を特定してもよい。
The object
キャリブレーション部23は、図3を参照して説明したキャリブレーション部13と同様に、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。ただし、キャリブレーション部23は、キャリブレーション部13の機能に加え、後述する補正部27により提供される、目標物体の補正された俯瞰マップ座標を用いて、補正候補となる変換パラメータを特定する機能を有する。
Similar to the
座標変換部25は、図3を参照して説明した座標変換部15と同様に、変換パラメータを用いて、物体位置特定部21から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う機能を有する。ただし、座標変換部25は、座標変換部15の機能に加え、後述する補正部27の制御に従い、物体の撮像画像座標を、俯瞰マップ座標に変換する機能を有する。本実施形態に係る座標変換部25は後述する補正部27の制御に従い、変換パラメータDB91に格納された変換パラメータを用いて、基準物体の撮像画像座標を、俯瞰マップ座標に変換する。また、本実施形態に係る座標変換部25は後述する補正部27の制御に従い、補正候補となる変換パラメータを用いて、基準物体の撮像画像座標を、俯瞰マップ座標に変換する。
Similar to the coordinate
補正部27は、俯瞰マップ座標が既知である基準物体を用いて、キャリブレーション部23により特定された変換パラメータの補正を行う。補正部27は、図11に示すように、距離特定部271、判定部273、座標補正部275、及び補正制御部277を有する。
The
距離特定部271は、基準物体の既知の俯瞰マップ座標(以下、既知基準座標と呼ぶ)と、座標変換部25が基準物体の撮像画像座標を変換することにより得られる当該基準物体の俯瞰マップ座標(以下、変換基準座標と呼ぶ)との距離を特定する。距離特定部271が特定する距離は、例えば既知基準座標と変換基準座標との間のユークリッド距離であってもよい。ただし、距離特定部271が特定する距離はユークリッド距離に限定されるものではない。
The
判定部273は、距離特定部271により特定された距離が所定の範囲内であるか否かの判定を行う。
The determining
座標補正部275は、判定部273により、距離が所定の範囲内ではないと判定された場合に、既知基準座標と変換基準座標との差、つまり変換基準座標から既知基準座標へのベクトルに基づいて、目標物体の俯瞰マップ座標を補正する。例えば、座標補正部275は、目標物体の補正前の俯瞰マップ座標から補正後の俯瞰マップ座標へのベクトルが、変換基準座標から既知基準座標へのベクトルと同一あるいは略同一になるように、目標物体の俯瞰マップ座標の補正を行ってもよい。つまり、座標補正部275は既知基準座標と変換基準座標との差を、目標物体の補正前の俯瞰マップ座標に加えることで、目標物体の補正後の俯瞰マップ座標を得てもよい。
When the
補正制御部277は、上述した距離特定部271、判定部273、及び座標補正部275の動作を制御する。また、補正制御部277は、変換パラメータの補正を行うため、キャリブレーション部23、及び座標変換部25の動作の一部を制御する。
The
例えば、補正制御部277は、座標変換部25を制御して、変換パラメータDB91に格納された変換パラメータを用いて基準物体の撮像画像座標を変換基準座標に変換させる。また、補正制御部277は、距離特定部271を制御し、座標変換部25により得られた変換基準座標を用いて、距離を特定させる。
For example, the
さらに、補正制御部277は、判定部273を制御し、距離特定部271により特定された距離が所定の範囲内であるか否かの判定を行わせる。そして、補正制御部277は、判定部273の判定結果に応じて、変換パラメータの補正を行う。
Furthermore, the
例えば、補正制御部277は、判定部273により、距離が所定の範囲内ではないと判定された場合に、座標補正部275を制御して、目標物体の俯瞰マップ座標を補正させる。さらに、座標補正部275により補正された目標物体の俯瞰マップ座標をキャリブレーション部23に提供し、補正候補となる変換パラメータの特定を行わせる。
For example, when the
なお、補正制御部277は、判定部273により、距離が所定の範囲内であると判定されるまで、上述した一連の処理を繰り返し、最終的に距離が所定の範囲内となるような補正候補となる変換パラメータを、補正された変換パラメータとして記憶部90の位置座標DB93へ格納させてもよい。
Note that the
なお、係る繰り返しにおいて、2回目以降の処理で座標変換部25が基準物体の撮像画像座標を変換基準座標に変換する場合には、変換パラメータとして、前回の処理でキャリブレーション部23によって特定された補正候補となる変換パラメータが用いられる。
In addition, in the case where the coordinate
また、基準物体の数は複数存在してもよい。基準物体の数が多い程、より高精度な補正を行うことが可能となり得る。ただし、少なくとも1以上の基準物体が存在すれば補正部27は上述した変換パラメータの補正を行うことが可能である。すなわち、補正部27が変換パラメータの補正を行うために要する基準物体の数は、キャリブレーション部23が第2の変換パラメータを特定するために要する目標物体の数(少なくとも4以上)よりも少なくてよい。したがって、全ての目標物体の俯瞰マップ座標を測位するよりも、少ない作業コストで、上述した補正を行うことが可能である。
Also, there may be a plurality of reference objects. As the number of reference objects is larger, it may be possible to perform more accurate correction. However, if there is at least one or more reference objects, the
(動作例)
以上、本実施形態に係る情報処理装置2の構成例について説明した。続いて、本実施形態の動作例について図12〜図15を参照して説明する。
(Operation example)
The configuration example of the
図12は、本実施形態に係る動作概要を示すフローチャート図である。図12に示すように、まず、最初にカメラが設置された際のカメラ配置における変換パラメータを求めるため初期キャリブレーションが行われる(S20)。ステップS20の初期キャリブレーションは、図5〜図7を参照して説明した第1の実施形態における初期キャリブレーションと同様であるため、詳細な説明は省略する。 FIG. 12 is a flowchart showing the outline of the operation according to this embodiment. As shown in FIG. 12, first, initial calibration is performed to obtain conversion parameters in the camera arrangement when the camera is first installed (S20). The initial calibration in step S20 is the same as the initial calibration in the first embodiment described with reference to FIGS. 5 to 7, and thus detailed description will be omitted.
続いて、カメラの配置変更、または追加を行う場合(S22においてYES)、カメラ配置変更後、あるいはカメラ追加後のカメラ配置における変換パラメータを求めるための
再キャリブレーションが行われる(S24)。ステップS24の再キャリブレーションは、図8〜図10を参照して説明した第1の実施形態における再キャリブレーションと同様であるため、詳細な説明は省略する。
Subsequently, when the camera layout change or addition is performed (YES in S22), recalibration is performed to obtain conversion parameters in the camera layout after the camera layout change or after the camera addition (S24). The recalibration in step S24 is the same as the recalibration in the first embodiment described with reference to FIGS. 8 to 10, and thus detailed description will be omitted.
続いて、ステップS26において、補正を行うか否かが判定される。補正を行うか否かの判定は、例えば操作部70を介したユーザ操作に基づいて行われてもよいし、所定の条件に基づいて自動的に行われてもよい。例えば、ステップS24の再キャリブレーションを行った際に基準物体が撮像画像に映っていた場合に補正を行ってもよいし、ステップS24の再キャリブレーションの繰り返し回数が所定の回数に達した場合に補正を行ってもよい。
Subsequently, in step S26, it is determined whether or not correction is to be performed. The determination as to whether to perform the correction may be performed based on, for example, a user operation via the
補正を行わないと判定された場合(ステップS26においてNO)、処理はステップS22へ戻る。一方、補正を行うと判定された場合(ステップS26においてYES)、ステップS24の再キャリブレーションで得られた第2の変換パラメータを補正部27が補正する(S28)。ステップS28の詳細な動作については、図13〜図15を参照して後述する。
If it is determined that the correction is not to be performed (NO in step S26), the process returns to step S22. On the other hand, when it is determined that the correction is to be performed (YES in step S26), the
一方、カメラの配置変更、追加のいずれも行われない場合(S22においてNO)、動作は終了する。なお、図示されていないが、ステップS20とステップS22の間には、撮像画像に映る人物等の物体の位置を俯瞰マップ上に表示出力する処理等が含まれていてもよい。 On the other hand, when neither arrangement change of the camera nor addition is performed (NO in S22), the operation ends. Although not shown, a process of displaying and outputting the position of an object such as a person appearing in a captured image may be included between the step S20 and the step S22 on a map.
以上、本実施形態に係る動作概要について説明した。続いて、図13〜図15を参照して、図12に示したステップS28の補正についてより詳細に説明する。図13は、変換パラメータの補正の詳細な動作を示すフローチャート図である。また、図14、図15は、変換パラメータの補正について説明するための説明図である。 The outline of the operation according to the present embodiment has been described above. Subsequently, the correction of step S28 shown in FIG. 12 will be described in more detail with reference to FIGS. FIG. 13 is a flowchart showing a detailed operation of correction of conversion parameters. 14 and 15 are explanatory diagrams for explaining the correction of the conversion parameter.
なお、図14、及び図15において、カメラ5Aのカメラ配置を上述した第1のカメラ配置とし、カメラ5Bのカメラ配置を上述した第2のカメラ配置とする。また、ステップS20の再キャリブレーションにおいて、カメラの配置変更が行われた場合、図14、及び図15に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、ステップS20の再キャリブレーションにおいて、カメラの追加が行われた場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。
In FIGS. 14 and 15, the camera arrangement of the
図14には、実空間R20と、実空間R20に設置されたカメラ5Aにより第1のカメラ配置で撮像された撮像画像G21、及び実空間R20に設置されたカメラ5Bにより第2のカメラ配置で撮像された撮像画像G22が示されている。また、図15には、実空間R20と、実空間R20に対応する俯瞰マップM21及び俯瞰マップM22が示されている。なお、俯瞰マップM21のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM22のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図14に示される実空間R20は真上から見た平面図であり、図15に示される実空間R20は横から見た側面図である。
In FIG. 14, the real space R20, the captured image G21 captured in the first camera arrangement by the
また、以下に説明するステップS28の動作が行われるより前の時点で、ステップS24の再キャリブレーションにおいて、目標物体T21〜T24が既に配置されている。また、ステップS24の再キャリブレーションにおいて、撮像画像G21における目標物体T21〜T24の撮像画像座標P211〜P214、及び撮像画像G22における目標物体T21〜T24の撮像画像座標P221〜P224が既に特定されている。また、ステップS24の再キャリブレーションにおいて、第1の変換パラメータを用いた変換により、目標物体T21〜T24の俯瞰マップ座標F21〜F24も既に得られている。 In addition, at the time before the operation of step S28 described below is performed, the target objects T21 to T24 have already been arranged in the recalibration at step S24. Further, in the recalibration in step S24, captured image coordinates P211 to P214 of the target objects T21 to T24 in the captured image G21 and captured image coordinates P221 to P224 of the target objects T21 to T24 in the captured image G22 have already been specified. . Further, in the recalibration in step S24, the eyelid map coordinates F21 to F24 of the target objects T21 to T24 are already obtained by the conversion using the first conversion parameter.
図13に示すように、まず、基準物体B20の実空間位置に対応する既知の俯瞰マップ座標C25(既知基準座標)が、例えば操作部70を介したユーザ操作により入力される(S282)。なお、既知基準座標は、予め記憶部90に記憶されていてもよい。
As shown in FIG. 13, first, a known eyelid map coordinate C25 (known reference coordinate) corresponding to the real space position of the reference object B20 is input by a user operation via the
続いて、物体位置特定部21が、撮像画像G22における基準物体B20の撮像画像座標P220を特定する(S283)。
Subsequently, the object
続いて、座標変換部25が、変換パラメータを用いて基準物体B20の撮像画像座標P220を俯瞰マップ座標F25(変換基準座標)に変換する(S284)。なお、ステップS284が最初に行われる場合には、座標変換部25は変換パラメータとして、記憶部90の変換パラメータDB91に格納された第2の変換パラメータを用いてもよい。また、ステップS284が2回目以降に行われる場合には、座標変換部25は変換パラメータとして、後述するステップS292で特定された補正候補となる変換パラメータを用いてもよい。
Subsequently, the coordinate
続いて、補正部27の距離特定部271が、入力された俯瞰マップ座標C25(既知基準座標)と、変換で得られた俯瞰マップ座標F25(変換基準座標)との距離を特定する(S286)。
Subsequently, the
続いて、補正部27の判定部273は、ステップS286で特定された距離が所定の範囲内であるか否かを判定する(S288)。
Subsequently, the
距離が所定の範囲内ではないと判定された場合(S288においてNO)、補正部27の座標補正部275が、目標物体T21〜T24の俯瞰マップ座標F21〜F24を補正する(S290)。例えば、ステップS290において座標補正部275は、補正前の俯瞰マップ座標F21〜F24から補正後の俯瞰マップ座標C21〜C25へのベクトルが、俯瞰マップ座標F25(変換基準座標)から俯瞰マップ座標C25(既知基準座標)へのベクトルと同一あるいは略同一になるように、目標物体の俯瞰マップ座標の補正を行ってもよい。
If it is determined that the distance is not within the predetermined range (NO in S288), the coordinate
続いて、キャリブレーション部23が、ステップS24で既に得られていた撮像画像座標P221〜P224と、ステップS290で得られた補正後の俯瞰マップ座標C21〜C25との対応に基づいて、補正候補となる変換パラメータを特定する(S292)。
Subsequently, based on the correspondences between the captured image coordinates P221 to P224 already obtained in step S24 and the post-correction map coordinates C21 to C25 obtained in step S290, the
補正部27の補正制御部277による制御に従い、ステップS288で距離が所定の範囲内であると判定されるまで、上述したステップS284〜S292の処理は繰り返される。そして、距離が所定の範囲内であると判定された場合(S288においてYES)、補正制御部277は、その時点で最後に行われたステップS292で特定された補正候補となる変換パラメータを、補正された第2の変換パラメータとして、記憶部90の変換パラメータDB91に格納(記憶)させる(S294)。
Under the control of the
以上、ステップS28の変換パラメータの補正について説明した。なお、図14、図15に示した例では、カメラ5Aの撮像範囲に基準物体B20が含まれているが、基準物体B20は、カメラ5Bの撮像範囲に含まれていればよく、必ずしもカメラ5Aの撮像範囲に含まれていなくてもよい。
The correction of the conversion parameter in step S28 has been described above. In the example shown in FIGS. 14 and 15, the reference object B20 is included in the imaging range of the
(補足)
以上、本発明の第2の実施形態について説明した。本実施形態によれば、再キャリブレーションの繰り返しにより誤差が発生した場合であっても、目標物体の数より少ない数の基準物体を用いて変換パラメータの補正を行うことで、作業コストを抑制しつつ、高精度に変換パラメータを特定することが可能となる。
(Supplement)
The second embodiment of the present invention has been described above. According to the present embodiment, even when an error occurs due to repeated recalibration, the operation cost is suppressed by correcting the conversion parameters using a smaller number of reference objects than the number of target objects. While, it becomes possible to specify conversion parameters with high accuracy.
なお、上述した第2の実施形態において、補正制御部277は、補正を行うことが不可能であると判定した場合に、出力部80を制御して、ユーザに補正不可能であることを通知させてもよい。そして、補正不可能であることが通知された場合、図5〜図7を参照して説明した初期キャリブレーションと同様の方法で、キャリブレーションが行われてもよい。
In the second embodiment described above, when it is determined that the correction can not be performed, the
補正制御部277は、例えば、図13に示したステップS284〜S292の処理を所定回数以上繰り返しても、ステップS288において距離が所定の範囲内であると判定されない場合に、補正を行うことが不可能であると判定してもよい。あるいは、補正制御部277は、距離特定部271により特定された距離が所定の範囲(図13に示したステップS288の判定において用いられる所定の範囲より大きい範囲)よりも大きい場合に補正を行うことが不可能であると判定してもよい。
For example, the
係る構成により、再キャリブレーションの繰り返しにより補正不可能な誤差が発生した場合であっても、ユーザにその旨通知することで、初期キャリブレーションと同様の方法で、キャリブレーションを行って、高精度な変換パラメータを特定することが可能となる。 With such a configuration, even if an error that can not be corrected occurs due to repeated recalibration, the user is notified as such, and calibration is performed in the same manner as in the initial calibration, and high accuracy is achieved. It is possible to specify various conversion parameters.
<2−3.第3の実施形態>
(概要)
上述した第1の実施形態、及び第2の実施形態では、第1のカメラ配置と第2のカメラ配置とで、共通の目標物体を用いていた。つまり、第1のカメラ配置で撮像された第1の撮像画像と、第2のカメラ配置で撮像された第2の撮像画像との両方に含まれる目標物体の数が、変換パラメータの特定に必要な数より少ない場合には、再キャリブレーションを行うことができなかった。したがって、例えば第1のカメラ配置における撮像範囲と第2のカメラ配置における撮像範囲に重なりが存在しなかったり、重なりが非常に小さい場合には、第1の実施形態、及び第2の実施形態のような再キャリブレーションを行うことはできなかった。
<2-3. Third embodiment>
(Overview)
In the first and second embodiments described above, a common target object is used in the first camera arrangement and the second camera arrangement. That is, the number of target objects included in both the first captured image captured by the first camera arrangement and the second captured image captured by the second camera arrangement is required to specify the conversion parameter. If the number is less than 10%, recalibration can not be performed. Therefore, for example, in the case where there is no overlap in the imaging range in the first camera arrangement and the imaging range in the second camera arrangement, or when the overlap is very small, the first embodiment and the second embodiment will be described. It was not possible to do such a recalibration.
そこで、以下では、第3の実施形態として、LiDAR(Light Detection and Ranging)等の位置センサを用いることで、第1のカメラ配置と第2のカメラ配置とで、共通の目標物体を用いることなく再キャリブレーションを行う例を説明する。 Therefore, in the following, as a third embodiment, by using a position sensor such as light detection and ranging (LiDAR), a common target object is not used for the first camera arrangement and the second camera arrangement. An example of recalibration will be described.
(構成例)
図16は、本発明の第3の実施形態に係る情報処理装置3の構成例を示すブロック図である。本実施形態に係る情報処理装置3は、図16に示すように、制御部30、センサ情報取得部50、画像取得部60、操作部70、出力部80、及び記憶部90を備える。なお、図16に示す構成要素のうち、図3に示した構成要素と実質的に同一の機能構成を有する構成要素については、同一の符号を付してあるため、説明を省略する。
(Example of configuration)
FIG. 16 is a block diagram showing a configuration example of the
制御部20は、情報処理装置3の各構成を制御する。また、本実施形態に係る制御部30は、図16に示すように、物体位置特定部31、キャリブレーション部33、座標変換部35、及びセンサ情報管理部39としても機能する。
The
物体位置特定部31は、図3を参照して説明した物体位置特定部11と同様に、画像取得部60から提供された撮像画像に映る物体の撮像画像座標を特定する。ただし、物体位置特定部31は、物体位置特定部11の機能に加え、第1のカメラ配置で撮像された第1の撮像画像と、第2のカメラ配置で撮像された第2の撮像画像との両方に含まれる目標物体(以下、共通の目標物体と呼ぶ)の数を特定する機能を有する。例えば、共通の目標物体の数は、画像認識手法により特定されてもよいし、操作部70を介したユーザ操作により特定されてもよい。物体位置特定部31は、特定された共通の目標物体の数をセンサ情報管理部39へ通知する。
The object
キャリブレーション部33は、図3を参照して説明したキャリブレーション部13と同様に、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。
Similar to the
ただし、キャリブレーション部33は、キャリブレーション部13の機能に加え、後述するセンサ情報管理部39の制御に従って変換パラメータを特定する機能を有する。
However, in addition to the function of the
例えば、キャリブレーション部33は、センサ情報管理部39の制御に従って位置センサに対応したセンサ座標系における位置座標(以下、センサ座標と呼ぶ)を俯瞰マップ座標に変換するための変換パラメータを特定する機能を有する。位置センサに対応したセンサ座標系は、例えば俯瞰マップの座標系と縮尺、及び水平方向(Z軸方向)の角度のみが異なる座標系である。そのため、2組以上のセンサ座標と俯瞰マップ座標との対応を用いて、センサ座標を俯瞰マップ座標に変換するための変換パラメータを特定することが可能である。キャリブレーション部33は、例えば第1の撮像画像に含まれる目標物体(以下、第1の目標物体と呼ぶ)の撮像画像座標を変換することで得られた俯瞰マップにおける俯瞰マップ座標と、第1の目標物体のセンサ座標との対応に基づいて係る変換パラメータを特定してもよい。なお、第1の目標物体の数は上述した条件から例えば2以上である。また、キャリブレーション部33は、センサ座標を俯瞰マップ座標に変換するための変換パラメータを記憶部90の変換パラメータDB91に格納(記憶)させてもよい。
For example, the
また、キャリブレーション部33は、センサ情報管理部39の制御に従って、第2の撮像画像に含まれる目標物体(以下、第2の目標物体と呼ぶ)の撮像画像座標と、俯瞰マップにおける第2の目標物体の俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する。なお、変換パラメータが射影変換行列である場合、第2の目標物体の数は4以上である。
In addition, under the control of the sensor
座標変換部35は、図3を参照して説明した座標変換部15と同様に、変換パラメータを用いて、物体位置特定部21から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う機能を有する。ただし、座標変換部35は、座標変換部15の機能に加え、後述するセンサ情報管理部39の制御に従い、第2の撮像画像に含まれる第2の目標物体のセンサ座標を俯瞰マップ座標に変換し、センサ情報管理部39に提供する機能を有する。座標変換部35は、第2の目標物体のセンサ座標を俯瞰マップ座標に変換する際、キャリブレーション部33が特定し、変換パラメータDB91に格納された、センサ座標を俯瞰マップ座標に変換するための変換パラメータを用いてもよい。
Similar to the coordinate
センサ情報管理部39は、後述するセンサ情報取得部50が位置センサから取得したセンサ情報を管理し、センサ情報に基づいた再キャリブレーションの実行を制御する。センサ情報には、例えば目標物体のセンサ座標が含まれる。目標物体のセンサ座標は、センサ情報取得部50により、位置センサから直接的に取得されてもよいし、位置センサから取得された情報に基づいて特定されてもよい。例えば、センサ情報取得部50が位置センサから取得したセンサ情報によりセンシングされた位置や形状の情報のみが含まれる場合、センサ情報管理部39は、センシング位置や形状の情報から、目標物体のセンサ座標を特定してもよい。なお、センサ情報管理部39は、出力部80にセンサ情報を出力させ、センサ情報を確認したユーザによる操作部70を介したユーザ操作に基づいて目標物体のセンサ座標を特定してもよい。
The sensor
センサ情報管理部39は、物体位置特定部31から提供される共通の目標物体の数が閾値より少ない場合に、センサ情報に基づいた再キャリブレーションを実行させてもよい。所定の閾値は、例えばキャリブレーション部33が変換パラメータを特定するために必要な撮像画像座標と、俯瞰マップ座標との対応の組数であってもよい。例えば、キャリブレーション部33が特定する変換パラメータが射影変換行列であれば、所定の閾値は4であってもよい。
The sensor
センサ情報管理部39は、共通の目標物体の数が閾値より少ない場合に、キャリブレーション部33を制御し、センサ座標を俯瞰マップ座標に変換するための変換パラメータを特定させてもよい。さらに、センサ情報管理部39は、座標変換部35を制御し、当該変換パラメータを用いて第2の撮像画像に含まれる第2の目標物体のセンサ座標を俯瞰マップ座標に変換させ、当該俯瞰マップ座標を座標変換部35から取得してもよい。そして、センサ情報管理部39は、キャリブレーション部33を制御し、第2の目標物体の撮像画像座標と、第2の目標物体の俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定させてもよい。
When the number of common target objects is smaller than the threshold value, the sensor
係る構成により、共通の目標物体が十分な数存在しない場合であっても、再キャリブレーションに係る作業コストを抑制することが可能となる。 With such a configuration, it is possible to suppress the operation cost for recalibration even when there are not a sufficient number of common target objects.
センサ情報取得部50は、不図示の位置センサと接続され、当該位置センサのセンシングにより得られたセンサ情報を取得するインタフェースである。なお、センサ情報取得部50は、複数の位置センサと接続されて、複数の位置センサからセンサ情報を取得してもよい。センサ情報取得部50は、取得したセンサ情報を制御部30へ提供する。
The sensor
なお、情報処理装置3自体が位置センサを含んでもよい。係る場合にはセンサ情報取得部50に代えて、または加えてLiDAR等の位置センサを情報処理装置3が備えてもよい。
Note that the
(動作例)
以上、本実施形態に係る情報処理装置3の構成例について説明した。続いて、本実施形態の動作例に説明する。なお、本実施形態の動作概要は、図4を参照して説明した第1の実施形態の動作概要と実質的に同様であるため、本実施形態の動作概要についての説明は省略する。本実施形態の動作と第1の実施形態の動作との違いは、図4に示すステップS14に相当する再キャリブレーションに係る動作の違いである。そこで、以下では、本実施形態に係る再キャリブレーションに係る動作について、図17〜図19を参照して説明する。
(Operation example)
The configuration example of the
図17は、本実施形態に係る再キャリブレーションに係る動作の一例を示すフローチャートである。また、図18、図19は、本実施形態に係る再キャリブレーションについて説明するための説明図である。 FIG. 17 is a flowchart showing an example of the operation related to the recalibration according to the present embodiment. FIGS. 18 and 19 are explanatory diagrams for describing recalibration according to the present embodiment.
なお、カメラの配置変更が行われる場合、図18、図19に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、カメラの追加が行われる場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。すなわち、カメラ5Aのカメラ配置が第1のカメラ配置であり、カメラ5Bのカメラ配置が第2のカメラ配置である。
When the arrangement of the camera is changed, the
図18には、実空間R30と、実空間R30に設置されたカメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G31、及び実空間R30に設置されたカメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G32が示されている。また、図19には、実空間R30と、実空間R30に対応する俯瞰マップM31及び俯瞰マップM32が示されている。なお、俯瞰マップM31のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM32のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図18に示される実空間R30は真上から見た平面図であり、図19に示される実空間R30は横から見た側面図である。
In FIG. 18, the real space R30, a first captured image G31 captured in a first camera arrangement by the
また、図18に示すように、実空間R30には、位置センサ6が設置されている。位置センサ6は、LiDAR等により、実空間R30のうち、範囲D30に存在する物体の情報をセンシングし、情報処理装置3へ提供する。
Moreover, as shown in FIG. 18, the position sensor 6 is installed in the real space R30. The position sensor 6 senses information of an object present in the range D30 in the real space R30 using LiDAR or the like, and provides the information to the
図17に示すように、まず、目標物体T31〜T36が実空間R30に設置される(S302)。続いて、画像取得部60により、カメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G31が取得される(S304)。続いて、物体位置特定部31が、第1の撮像画像G31における第1の目標物体T31、T32の撮像画像座標P311、P312をそれぞれ特定する(S308)。
As shown in FIG. 17, first, target objects T31 to T36 are placed in the real space R30 (S302). Subsequently, the
続いて、座標変換部35が、記憶部90の変換パラメータDB91に格納された(記憶された)第1の変換パラメータを用いて、撮像画像座標P311、P312を俯瞰マップ座標F31、F32にそれぞれ変換する(S312)。ステップS312で得られた俯瞰マップ座標F31、F32は、記憶部90の位置座標DB93に格納(記憶)される(S313)。
Subsequently, using the first conversion parameter stored (stored) in the
続いて、カメラの配置変更、またはカメラの追加が行われる(S314)。続いて、画像取得部60により、カメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G32が取得される(S316)。続いて、物体位置特定部31が、第2の撮像画像G32における第2の目標物体T33〜T36の撮像画像座標P323〜P326をそれぞれ特定する(S318)。
Subsequently, the arrangement of the camera or the addition of the camera is performed (S314). Subsequently, the
続いて、第1の撮像画像G31と第2の撮像画像G32の両方に含まれている共通の目標物体の数が所定の閾値以上であるか否かが判定される(S320)。図18、図19に示す例では、共通の目標物体の数0であり、所定の閾値(上述した例では4)より少ない(S320においてNO)ため、処理はステップS322へ進む。 Subsequently, it is determined whether the number of common target objects included in both the first captured image G31 and the second captured image G32 is equal to or greater than a predetermined threshold (S320). In the example shown in FIG. 18 and FIG. 19, the number of common target objects is 0, which is smaller than the predetermined threshold (4 in the above example) (NO in S320), so the process proceeds to step S322.
ステップS322において、センサ情報取得部50が位置センサ6からセンサ情報を取得する(S322)。続いて、キャリブレーション部33が、センサ情報管理部39の制御に従い、第1の撮像画像に含まれる第1の目標物体T31、T32のセンサ座標と俯瞰マップ座標F31、F32との対応に基づき、センサ座標を俯瞰マップ座標に変換する変換パラメータを特定する(S324)。さらに、座標変換部35が、センサ情報管理部39の制御に従い、第2の撮像画像G32に含まれる第2の目標物体T33〜T36のセンサ座標を俯瞰マップ座標F33〜F36にそれぞれ変換する。
In step S322, the sensor
続いて、キャリブレーション部33が、ステップS318で特定された撮像画像座標P323〜P326と、ステップS326の座標変換により得られた俯瞰マップ座標F33〜F36との対応に基づいて、第2の変換パラメータを特定する(S332)。ステップS332で特定された第2の変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S334)。
Subsequently, based on the correspondence between the captured image coordinates P323 to P326 specified in step S318 and the eyelid map coordinates F33 to F36 obtained by the coordinate conversion in step S326, the
なお、上記では、図18、図19に示した例に沿って説明を行ったが、ステップS320において、共通の目標物体の数が閾値より大きいと判定された場合、処理はステップS332へ進む。ステップS320において、共通の目標物体の数が閾値より大きいと判定された場合、図17に示す一連の処理は、ステップS320の判定処理を除いて、図8を参照して説明した第1の実施形態に係る再キャリブレーションの処理と同様である。 Although the above description is given along the example shown in FIG. 18 and FIG. 19, when it is determined in step S320 that the number of common target objects is larger than the threshold, the process proceeds to step S332. If it is determined in step S320 that the number of common target objects is greater than the threshold, the series of processes shown in FIG. 17 are the first embodiment described with reference to FIG. 8 except for the determination process of step S320. It is similar to the process of recalibration according to the embodiment.
(補足)
以上、本発明の第3の実施形態について説明した。本実施形態によれば、位置センサを用いることで、カメラの配置変更前後や既存のカメラと追加されたカメラとの間で、撮像画像に含まれる共通の目標物体が十分な数存在しない場合であっても、再キャリブレーションに係る作業コストを抑制することが可能となる。
(Supplement)
The third embodiment of the present invention has been described above. According to the present embodiment, by using the position sensor, a sufficient number of common target objects included in the captured image do not exist before and after the change in the camera arrangement or between the existing camera and the added camera. Even if it exists, it becomes possible to suppress the operation cost concerning recalibration.
なお、上記では、共通の目標物体の数が閾値より少ない場合に、センサ情報に基づいた再キャリブレーションを行う例を説明したが、本実施形態は係る例に限定されない。例えば、常に上述したセンサ情報に基づいた再キャリブレーションを行ってもよいし、操作部70を介したユーザ操作により、センサ情報に基づいた再キャリブレーションを行うか否かを切替えてもよい。
Note that although an example in which recalibration based on sensor information is performed when the number of common target objects is smaller than the threshold has been described above, the present embodiment is not limited to such an example. For example, re-calibration may always be performed based on the above-described sensor information, or whether or not re-calibration based on the sensor information may be switched by user operation via the
また、上述した第2の実施形態と、第3の実施形態を組み合わせることも可能である。 Moreover, it is also possible to combine the second embodiment described above with the third embodiment.
<<3.ハードウェア構成>>
以上、本発明の各実施形態を説明した。上述した物体位置特定処理、キャリブレーション処理、座標変換処理等の情報処理は、ソフトウェアと、情報処理装置1、情報処理装置2、情報処理装置3のハードウェアとの協働により実現される。以下では、本発明の実施形態に係る情報処理装置である情報処理装置1、情報処理装置2、情報処理装置3のハードウェア構成例として、情報処理装置1000のハードウェア構成について説明する。
<< 3. Hardware configuration >>
The embodiments of the present invention have been described above. The information processing such as the object position specifying processing, the calibration processing, and the coordinate conversion processing described above is realized by cooperation of software and hardware of the
図20は、本発明の実施形態に係る情報処理装置1000のハードウェア構成を示す説明図である。図20に示したように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、通信装置1007とを備える。
FIG. 20 is an explanatory view showing the hardware configuration of the
CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータなどを記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、例えば、制御部10、制御部20、制御部30等の機能が実現される。
The
入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置1004は、操作部70に対応する。
The
出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプなどの表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。なお、出力装置1005は、出力部80に対応する。
The
ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。なお、ストレージ装置1006は、記憶部90に対応する。
The
通信装置1007は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置1007は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。
The
<<4.むすび>>
以上説明したように、本発明の実施形態によれば、カメラの配置変更あるいはカメラの追加に伴うキャリブレーションに係るコストを抑制することが可能である。
<< 4. End >>
As described above, according to the embodiment of the present invention, it is possible to suppress the cost involved in the calibration accompanying the change in the arrangement of the cameras or the addition of the cameras.
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention belongs can conceive of various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also fall within the technical scope of the present invention.
例えば、上記実施形態では、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータが射影変換行列である例を主に説明したが、本発明はかかる例に限定されない。例えば、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータは透視投影変換行列を含んでもよい。 For example, although the above embodiment mainly describes an example in which the transformation parameter for transforming captured image coordinates into overhead map coordinates is a projective transformation matrix, the present invention is not limited to this example. For example, conversion parameters for converting captured image coordinates to overhead map coordinates may include a perspective projection conversion matrix.
また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 In addition, the steps in the above embodiment do not necessarily have to be processed chronologically in the order described as the flowchart diagram. For example, each step in the process of the above embodiment may be processed in an order different from the order described as the flowchart diagram, or may be processed in parallel.
また、上記実施形態によれば、CPU1001、ROM1002、及びRAM1003などのハードウェアを、上述した情報処理装置1、情報処理装置2、情報処理装置3の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
Further, according to the above-described embodiment, a computer for causing the hardware such as the
1、2、3 情報処理装置
5 カメラ
6 位置センサ
10、20、30 制御部
11、21、31 物体位置特定部
13、23、33 キャリブレーション部
15、25、35 座標変換部
27 補正部
39 センサ情報管理部
50 センサ情報取得部
60 画像取得部
70 操作部
80 出力部
90 記憶部
271 距離特定部
273 判定部
275 座標補正部
277 補正制御部
1, 2, 3 information processing apparatus 5 camera 6
Claims (12)
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、
前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、情報処理装置。 Corresponding to the arrangement of the camera, based on correspondence between captured image coordinates that are position coordinates in a captured image captured by a camera and eyelid map coordinates that are position coordinates in an eyelid map corresponding to real space A calibration unit that specifies a conversion parameter for converting coordinates into the map coordinates, and a coordinate conversion unit that converts the captured image coordinates into the map coordinates using the conversion parameters.
The coordinate conversion unit uses the first conversion parameter corresponding to a first camera arrangement to select the image coordinates of the target object in the first image captured by the first camera arrangement. Convert to the eyelid map coordinates of the target object in the map;
The calibration unit is configured to adjust the captured image coordinates of the target object in a second captured image captured by a second camera arrangement different from the first camera arrangement and the eyelid map of the target object in the eyelid map An information processing apparatus that specifies a second conversion parameter corresponding to the second camera arrangement based on correspondence with coordinates.
前記キャリブレーション部は、前記第2の撮像画像における前記第2の目標物体の前記撮像画像座標と前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する、請求項1〜8のいずれか一項に記載の情報処理装置。 The information processing apparatus may be configured to determine whether the number of target objects included in both the first captured image and the second captured image is smaller than a predetermined threshold value. In the sensor coordinate system corresponding to the position sensor, the eyelid map coordinates of the first target object in the eyelid map obtained by converting the captured image coordinates of the target object, the sensing of the position sensor The second target object in the eyelid map based on the position coordinates of the first target object and the position coordinates of a second target object in the sensor coordinate system obtained based on the sensing of the position sensor It further comprises a sensor information management unit for acquiring the eyelid map coordinates,
The calibration unit is configured to perform a second operation based on the correspondence between the captured image coordinates of the second target object in the second captured image and the overhead map coordinates of the second target object in the overhead map. The information processing apparatus according to any one of claims 1 to 8, wherein a conversion parameter is specified.
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備える情報処理装置により実行される情報処理方法であって、
第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換することと、
前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定することと、
を含む、情報処理方法。 The captured image coordinates correspond to the location of the camera based on the correspondence between the captured image coordinates that are position coordinates in the captured image captured by the camera and the overhead map coordinates that are position coordinates in the overhead map Information processing method executed by an information processing apparatus, comprising: a calibration unit that specifies a conversion parameter for converting into the image; and a coordinate conversion unit that converts the captured image coordinates into the eyelid map coordinates using the conversion parameter And
The captured image coordinates of a target object in a first captured image captured by the first camera layout using a first conversion parameter corresponding to a first camera layout are compared with the target image in the eyelid map. Converting to the eyelid map coordinates;
Based on the correspondence between the captured image coordinates of the target object in the second captured image captured in a second camera configuration different from the first camera configuration and the overhead map coordinates of the target object in the overhead map Specifying a second conversion parameter corresponding to the second camera arrangement;
Information processing methods, including:
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能を、をコンピュータに実現させるためのプログラムであって、
前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、プログラム。
The captured image coordinates correspond to the location of the camera based on the correspondence between the captured image coordinates that are position coordinates in the captured image captured by the camera and the overhead map coordinates that are position coordinates in the overhead map A program for causing a computer to realize a calibration function of specifying a conversion parameter for converting into a coordinate, and a coordinate conversion function of converting the captured image coordinates into the eyelid map coordinates using the conversion parameters. ,
The coordinate conversion function allows the captured image coordinates of a target object in a first captured image captured by the first camera layout to be captured using the first conversion parameter corresponding to the first camera layout. Convert to the eyelid map coordinates of the target object in the map;
The calibration function is configured to include the captured image coordinates of the target object in a second captured image captured by a second camera arrangement different from the first camera arrangement and the eyelid map of the target object in the eyelid map A program for specifying a second conversion parameter corresponding to the second camera arrangement based on correspondence with coordinates.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017185667A JP7047306B2 (en) | 2017-09-27 | 2017-09-27 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017185667A JP7047306B2 (en) | 2017-09-27 | 2017-09-27 | Information processing equipment, information processing methods, and programs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019061502A true JP2019061502A (en) | 2019-04-18 |
| JP7047306B2 JP7047306B2 (en) | 2022-04-05 |
Family
ID=66177468
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017185667A Active JP7047306B2 (en) | 2017-09-27 | 2017-09-27 | Information processing equipment, information processing methods, and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7047306B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021186995A1 (en) * | 2020-03-16 | 2021-09-23 | 株式会社小松製作所 | Method and system for calibrating work machine |
| CN115205382A (en) * | 2022-06-08 | 2022-10-18 | 阿里巴巴(中国)有限公司 | Target positioning method and device |
| CN115393407A (en) * | 2022-08-29 | 2022-11-25 | 杜霖 | Image external reference calibration method and device, equipment and storage medium |
| WO2023061110A1 (en) * | 2021-10-12 | 2023-04-20 | 荣耀终端有限公司 | Coordinate system calibration method, and automatic assembly method and apparatus |
| WO2025032641A1 (en) * | 2023-08-04 | 2025-02-13 | 株式会社日立国際電気 | Position detection system and position detection method |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024085287A1 (en) * | 2022-10-21 | 2024-04-25 | 한국전자기술연구원 | Method for constructing context map for autonomous driving and control |
| WO2024085286A1 (en) * | 2022-10-21 | 2024-04-25 | 한국전자기술연구원 | Method for establishing context map based on collaboration of drone and robot |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002005625A (en) * | 2000-06-27 | 2002-01-09 | Atr Media Integration & Communications Res Lab | Automatic calibrating method of camera |
| JP2004178229A (en) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Works Ltd | Location detector of personal, detection method and autonomous moving device using the detector |
| JP2008107087A (en) * | 2006-10-23 | 2008-05-08 | Nippon Hoso Kyokai <Nhk> | Light source position estimation device |
| WO2009110417A1 (en) * | 2008-03-03 | 2009-09-11 | ティーオーエー株式会社 | Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device |
-
2017
- 2017-09-27 JP JP2017185667A patent/JP7047306B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002005625A (en) * | 2000-06-27 | 2002-01-09 | Atr Media Integration & Communications Res Lab | Automatic calibrating method of camera |
| JP2004178229A (en) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Works Ltd | Location detector of personal, detection method and autonomous moving device using the detector |
| JP2008107087A (en) * | 2006-10-23 | 2008-05-08 | Nippon Hoso Kyokai <Nhk> | Light source position estimation device |
| WO2009110417A1 (en) * | 2008-03-03 | 2009-09-11 | ティーオーエー株式会社 | Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device |
Non-Patent Citations (1)
| Title |
|---|
| 飯尾 太郎 他: "広い視野を観測できる複数台カメラのキャリブレーション", 電子情報通信学会技術研究報告, vol. 103, no. 657, JPN6021025870, 13 February 2004 (2004-02-13), JP, pages 73 - 78, ISSN: 0004545710 * |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102692426B1 (en) | 2020-03-16 | 2024-08-05 | 가부시키가이샤 고마쓰 세이사쿠쇼 | Method and system for calibration of working machines |
| JP2021147769A (en) * | 2020-03-16 | 2021-09-27 | 株式会社小松製作所 | Method and system for calibration of work machine |
| KR20220086664A (en) * | 2020-03-16 | 2022-06-23 | 가부시키가이샤 고마쓰 세이사쿠쇼 | Method and system for calibration of working machines |
| CN114729520A (en) * | 2020-03-16 | 2022-07-08 | 株式会社小松制作所 | Method and system for calibration of a work machine |
| CN114729520B (en) * | 2020-03-16 | 2023-07-04 | 株式会社小松制作所 | Method and system for calibration of work machine |
| JP7388957B2 (en) | 2020-03-16 | 2023-11-29 | 株式会社小松製作所 | Method and system for calibration of work machines |
| WO2021186995A1 (en) * | 2020-03-16 | 2021-09-23 | 株式会社小松製作所 | Method and system for calibrating work machine |
| US12116756B2 (en) | 2020-03-16 | 2024-10-15 | Komatsu Ltd. | Method and system for calibrating work machine |
| WO2023061110A1 (en) * | 2021-10-12 | 2023-04-20 | 荣耀终端有限公司 | Coordinate system calibration method, and automatic assembly method and apparatus |
| US12427670B2 (en) | 2021-10-12 | 2025-09-30 | Honor Device Co., Ltd. | Coordinate system calibration method, automatic assembly method, and apparatus |
| CN115205382A (en) * | 2022-06-08 | 2022-10-18 | 阿里巴巴(中国)有限公司 | Target positioning method and device |
| CN115393407A (en) * | 2022-08-29 | 2022-11-25 | 杜霖 | Image external reference calibration method and device, equipment and storage medium |
| WO2025032641A1 (en) * | 2023-08-04 | 2025-02-13 | 株式会社日立国際電気 | Position detection system and position detection method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7047306B2 (en) | 2022-04-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7047306B2 (en) | Information processing equipment, information processing methods, and programs | |
| CN108297096B (en) | Calibration device, calibration method, and computer-readable medium | |
| JP5150310B2 (en) | Geographic data collection device | |
| KR101624450B1 (en) | Image processing device, image processing method, and storage medium | |
| KR101450782B1 (en) | Image processing device and program | |
| JP2019060742A (en) | Position detector and program | |
| JP2012240174A (en) | Calibration device and calibration method | |
| JP5259291B2 (en) | White balance correction device and signal processing program | |
| JP5183152B2 (en) | Image processing device | |
| JP2940736B2 (en) | Image processing apparatus and distortion correction method in the image processing apparatus | |
| JP2008217526A (en) | Image processing apparatus, image processing program, and image processing method | |
| JP6544996B2 (en) | Control device and control method | |
| JP2016123044A (en) | Subject tracking device, control method thereof, and program | |
| JP4250620B2 (en) | Information processing method and apparatus | |
| JP4725383B2 (en) | Pointing device, external information processing device, pointing position specifying device, and pointing position specifying method | |
| JP4770197B2 (en) | Presentation control apparatus and program | |
| JP6579727B1 (en) | Moving object detection device, moving object detection method, and moving object detection program | |
| JP2000284363A (en) | Image projection apparatus and image projection method | |
| JP6025400B2 (en) | Work position detection device and work position detection method | |
| JP2023118479A (en) | Information processing device, information processing method, program, and storage medium | |
| US20190313017A1 (en) | Imaging adjustment information derivation apparatus, imaging apparatus, imaging adjustment information derivation method, control program, and recording medium | |
| JP2019066327A (en) | Vehicle periphery monitoring device, and periphery monitoring method | |
| CN116862992A (en) | Method and device for determining visual field of monitoring camera | |
| WO2023149118A1 (en) | Program, information processing device, and information processing method | |
| JP2004220371A (en) | Image processing method, image processing apparatus, image processing program, and recording medium storing image processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200513 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210906 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220307 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7047306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |