JP2018036884A - Light source estimation apparatus and program - Google Patents
Light source estimation apparatus and program Download PDFInfo
- Publication number
- JP2018036884A JP2018036884A JP2016169860A JP2016169860A JP2018036884A JP 2018036884 A JP2018036884 A JP 2018036884A JP 2016169860 A JP2016169860 A JP 2016169860A JP 2016169860 A JP2016169860 A JP 2016169860A JP 2018036884 A JP2018036884 A JP 2018036884A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- image
- predetermined
- captured image
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像画像から光源情報を推定する光源推定装置及びプログラムに関する。 The present invention relates to a light source estimation device and a program for estimating light source information from a captured image.
拡張現実(AR)その他のような、撮像された画像から撮像対象を認識し、認識結果に応じた情報を提示する手法が知られている。特に、例えば商業用途に当該手法を適用して、提示情報として家具やアクセサリーなどを仮想物体として提示する場合、現物が存在している時に得られる画像と遜色の無い表現が求められる。このとき、撮像対象と提示情報との色彩や陰影が大きく異なっていると、違和感を覚えてしまうという問題がある。 A method of recognizing an imaging target from a captured image and presenting information according to the recognition result is known, such as augmented reality (AR). In particular, for example, when the method is applied to commercial use, and furniture or accessories are presented as virtual objects as presentation information, an image that is inferior to an image obtained when the actual object is present is required. At this time, there is a problem that when the imaging target and the presentation information are greatly different in color and shadow, the user feels uncomfortable.
前記違和感を低減する手法として、現実の光源と同じ仮想光源の影響を提示情報に反映させる手法があるが、撮像環境における現実の光源を推定する必要がある。当該光源推定に関する従来技術として、以下のようなものがある。 As a technique for reducing the sense of incongruity, there is a technique for reflecting the influence of the same virtual light source as the actual light source in the presentation information, but it is necessary to estimate the actual light source in the imaging environment. The following is a conventional technique related to the light source estimation.
特許文献1は、複数台の撮像部を用いて三角測量の原理で周囲の環境内の光源位置情報を推定する手法が開示されている。特許文献2は、予め想定される複数の位置で周囲環境光を撮影しておき,任意の位置に設置された撮影対象物上の環境光情報を求める手法が開示されている。非特許文献1は、撮像対象の一部に鏡面球を設置し、鏡面に写りこんだ高輝度領域から光源方向を推定する手法が開示されている。 Patent Document 1 discloses a method of estimating light source position information in the surrounding environment based on the principle of triangulation using a plurality of imaging units. Patent Document 2 discloses a technique for capturing ambient light at a plurality of positions assumed in advance and obtaining ambient light information on a photographing object installed at an arbitrary position. Non-Patent Document 1 discloses a method of estimating a light source direction from a high luminance region reflected on a mirror surface by installing a specular sphere on a part of an imaging target.
しかしながら上記従来技術には以下のような課題があった。 However, the above prior art has the following problems.
特許文献1は、複数台の撮像部を必要とし、なおかつ光源位置の推定精度を上げるために複数台の撮像部を十分に離す必要があるため、装置規模が大掛かりになるという問題があった。 Patent Document 1 requires a plurality of image pickup units, and further requires a plurality of image pickup units to be sufficiently separated in order to increase the estimation accuracy of the light source position.
特許文献2は、事前に光源を撮影しておく必要があるため、事前撮影されていない場所では利用できないという問題があった。また、事前撮影済みの環境においても、光源位置が変化すれば適用できないという問題がある。さらに、光源位置の推定精度を上げるためには相当数の枚数を撮影しなければならないという問題があった。 Patent Document 2 has a problem in that it cannot be used in a place that has not been photographed in advance because it is necessary to photograph the light source in advance. In addition, there is a problem that it cannot be applied even in a pre-photographed environment if the light source position changes. Furthermore, in order to increase the estimation accuracy of the light source position, there is a problem that a considerable number of images must be taken.
非特許文献1は、単一の撮像部を用いて実時間で光源方向を推定するため、前記課題の一部を解決する。しかし、鏡面球という特殊な治具を設置する必要があるため、適用できる場面が限られるという問題があった。また、鏡面球の反射光はまぶしすぎるため光源色に関わらず撮像できる輝度の上限を超える(白飛びする)ことから、光源色を推定できないという問題があった。 Non-Patent Document 1 solves a part of the above-mentioned problem because the light source direction is estimated in real time using a single imaging unit. However, since it is necessary to install a special jig called a specular sphere, there is a problem that applicable scenes are limited. In addition, since the reflected light of the specular sphere is too bright, it exceeds the upper limit of the brightness that can be captured regardless of the light source color (out-of-white), and there is a problem that the light source color cannot be estimated.
本発明は、上記従来技術の課題に鑑み、球面鏡などの特殊な設備を用いることなく、単一のカメラで得た撮像画像を解析することで、撮像画像における光源情報を推定することのできる光源推定装置及びプログラムを提供することを目的とする。 In view of the above-described problems of the prior art, the present invention is capable of estimating light source information in a captured image by analyzing a captured image obtained by a single camera without using special equipment such as a spherical mirror. An object is to provide an estimation device and a program.
上記目的を達成するため、本発明は、光源推定装置であって、撮像画像より撮像されている対象を特定すると共に、当該特定された対象の前記撮像画像を取得したカメラに対する位置姿勢を認識する認識部と、前記認識された位置姿勢で見えている状態から、前記特定された対象を所定位置姿勢のカメラで所定光源状態において撮像した際の所定の基準画像における、当該所定位置姿勢において見えている状態へと、前記撮像画像における前記特定された対象の領域を補正して補正領域を得る補正部と、前記補正領域と前記所定の基準画像とを対比することにより、前記撮像画像における前記撮像されている対象に対する光源情報を推定する推定部と、を備えることを第1の特徴とする。 In order to achieve the above object, the present invention is a light source estimation device that identifies a target imaged from a captured image and recognizes the position and orientation of the identified target relative to the camera that acquired the captured image. From the state of being recognized in the recognition unit and the recognized position and orientation, it is seen in the predetermined position and orientation in a predetermined reference image when the specified object is imaged in a predetermined light source state with a camera of the predetermined position and orientation. The correction unit that corrects the specified target region in the captured image to obtain a correction region, and compares the correction region with the predetermined reference image, thereby capturing the image in the captured image. It is a 1st characteristic to provide the estimation part which estimates the light source information with respect to the object currently performed.
また、本発明は、光源推定装置であって、前記推定部は、前記特定された対象における表面形状が反映された所定の法線マップを考慮して、前記補正領域と前記所定の基準画像とを対比することにより、前記撮像画像における前記撮像されている対象に対する光源情報を推定することを第2の特徴とする。 Further, the present invention is a light source estimation device, wherein the estimation unit considers a predetermined normal map that reflects a surface shape of the identified target, and the correction region and the predetermined reference image The second feature is to estimate light source information for the object being imaged in the captured image by comparing.
さらに、本発明はコンピュータを前記光源推定装置として機能させるプログラムであることを第3の特徴とする。 Furthermore, a third feature of the present invention is a program that causes a computer to function as the light source estimation device.
前記第1の特徴によれば、球面鏡などの特別の設備を必要とすることなく、複数カメラからの撮像画像も必要とすることなく、単一のカメラの撮像画像に対する画像解析処理で、光源情報を推定することができる。前記第2の特徴によれば、法線マップを考慮して、光源情報を推定することができる。 According to the first feature, the light source information is obtained by the image analysis processing for the captured image of the single camera without requiring special equipment such as a spherical mirror or the captured images from the plurality of cameras. Can be estimated. According to the second feature, the light source information can be estimated in consideration of the normal map.
図1は、一実施形態に係る光源推定装置の機能ブロック図である。光源推定装置10は、撮像部1、認識部2、補正部3、推定部4及び記憶部5を備え、推定部4はさらに環境光推定部41及び近接光源推定部42を備え、記憶部5はさらに特徴情報記憶部51及び外観情報記憶部52を備える。 FIG. 1 is a functional block diagram of a light source estimation apparatus according to an embodiment. The light source estimation device 10 includes an imaging unit 1, a recognition unit 2, a correction unit 3, an estimation unit 4, and a storage unit 5. The estimation unit 4 further includes an ambient light estimation unit 41 and a proximity light source estimation unit 42, and a storage unit 5 Further includes a feature information storage unit 51 and an appearance information storage unit 52.
光源推定装置10では、撮像画像より、その表面における法線分布(表面形状に従って定まる当該表面上の各点における法線分布)を有する所定の認識対象を認識したうえで、当該撮像画像における当該認識対象に対する光源情報を出力することができる。 The light source estimation device 10 recognizes a predetermined recognition target having a normal distribution on the surface (normal distribution at each point on the surface determined according to the surface shape) from the captured image, and then recognizes the recognition in the captured image. Light source information for the object can be output.
図2は、光源推定装置10で解析することで光源情報を出力することのできる認識対象の模式的な一例を[1]〜[3]と分けて説明するための図である。図2では[1]に示されるように、実世界における地面等の平面PL上に一例としての認識対象OBが形成されている。矢印DE、DW、DS、DNはそれぞれ、認識対象OBを基準とした平面PL上における方位としてそれぞれ、東方向、西方向、南方向、北方向を意味するものであり、以降の説明において参照する。 FIG. 2 is a diagram for explaining a typical example of a recognition target that can output light source information by being analyzed by the light source estimation device 10 separately from [1] to [3]. In FIG. 2, as shown in [1], a recognition target OB as an example is formed on a plane PL such as the ground in the real world. Arrows DE, DW, DS, and DN mean the east, west, south, and north directions as directions on the plane PL with respect to the recognition target OB, and will be referred to in the following description. .
図2の[1]に示すカメラCによって、平面PLの鉛直方向(矢印DVで示されている)から認識対象OBを撮影した状態が、[2]に示されている。[2]に示す認識対象OBは、横10マス×縦10マスの「碁盤の目」として並ぶ100個の正方形のそれぞれに対角線が描かれることで、一つの正方形につき4個の三角形が形成され合計で400個の三角形が描かれているが、当該三角形の領域ごとに認識対象OBの法線の向きが分布していることを表している。すなわち、認識対象OBの表面形状は、正面から見た場合にその稜線(面同士の境界線)が[2]のような配置をなしている幾何学的形状である。そして、100個のうちの任意の正方形の1つOBPを[1]と同様の斜視図の形式で拡大したものは[3]に示すように、扁平な四角錘OBPとなっており、東方向DEを向く三角形側面SEと、西方向DWを向く三角形側面SWと、南方向DSを向く三角形側面SSと、北方向DNを向く三角形側面SNと、を有しており、従って、当該各側面SE、SW、SS、SNごとに対応する法線が存在する。 A state in which the recognition target OB is photographed from the vertical direction of the plane PL (indicated by the arrow DV) by the camera C shown in [1] in FIG. 2 is shown in [2]. In the recognition target OB shown in [2], four triangles are formed for each square by drawing diagonal lines on each of the 100 squares arranged as a grid of 10 squares by 10 squares. A total of 400 triangles are drawn, which indicates that the normal direction of the recognition target OB is distributed for each area of the triangles. That is, the surface shape of the recognition target OB is a geometric shape in which the edge line (boundary line between the surfaces) is arranged as shown in [2] when viewed from the front. And, as shown in [3], one of the 100 squares OBP expanded in the form of a perspective view similar to [1] is a flat square pyramid OBP, A triangular side surface SE facing DE, a triangular side surface SW facing west direction DW, a triangular side surface SS facing south direction DS, and a triangular side surface SN facing north direction DN. There is a corresponding normal for each of SW, SS, and SN.
このように、光源推定装置10が対象として扱う認識対象OBは、図2の[1]のようにある程度マクロの観点からは概ね平面状であるが、[3]のようにある程度ミクロの観点からは当該平面からの形状変化として立体を形成しており、[2]のように正面から見た場合に当該立体形状を反映した表面形状に即して定まる法線マップを定義できるという性質を有するものである。 As described above, the recognition target OB handled by the light source estimation device 10 as a target is generally planar from a macro view as shown in [1] in FIG. 2, but from a micro view as shown in [3]. Forms a solid as a change in shape from the plane, and has the property of defining a normal map that is determined according to the surface shape reflecting the solid shape when viewed from the front as in [2]. Is.
その詳細は以下に説明する通りであるが、当該推定を可能とするメカニズムは概ね次の通りである。すなわち、図2に示すような表面形状の反映としての法線マップを有する認識対象に光源(後述する近接光源)が照射されている場合、当該光源の向きに応じてカメラCから見た場合に強く照射される面と弱く照射される面との区別が生じること(例えば図2の例でカメラCから見ているものとし、南側DSから光源の照射がある場合に、南側の面SSは強く照射されるのと比べて北側の面SNは弱くしか照射されないこと)を利用して、光源の向き等を推定することができる。 The details are as described below, but the mechanism that enables the estimation is generally as follows. That is, when a light source (proximity light source described later) is irradiated on a recognition target having a normal map as a reflection of the surface shape as shown in FIG. 2, when viewed from the camera C according to the direction of the light source A distinction occurs between the strongly irradiated surface and the weakly irradiated surface (for example, when viewed from the camera C in the example of FIG. 2 and when the light source is irradiated from the south DS, the south surface SS is strong. The direction of the light source and the like can be estimated using the fact that the surface SN on the north side is only weakly irradiated as compared with the case of irradiation.
なお、より正確には、光源の向き等の推定を可能とする照射の強弱の区別は、カメラ及び光源の位置及び向きとの関係における、面の向き(法線方向)のみならず面の位置(当該法線の位置)にも依存する。すなわち、照射の強弱の区別は、カメラ及び光源の位置及び向きとの関係における、図2の[2]に例示するような法線マップそのものに依存する。 More precisely, the distinction between the intensity of irradiation that enables estimation of the direction of the light source and the like is not only the direction of the surface (normal direction) but also the position of the surface in relation to the position and orientation of the camera and the light source. It also depends on (the position of the normal). That is, the distinction between the intensity of irradiation depends on the normal map itself as illustrated in [2] of FIG. 2 in the relationship between the position and orientation of the camera and the light source.
また、図2の例は認識対象の「形状」のみを説明するための例である。実際の認識対象は当該「形状」という属性の他にも、「模様」等の属性をも有し、後述する記憶部5に当該属性に基づく情報が記憶されるものである。 The example of FIG. 2 is an example for explaining only the “shape” to be recognized. The actual recognition target has an attribute such as “pattern” in addition to the attribute “shape”, and information based on the attribute is stored in the storage unit 5 described later.
以下、図1の各部の説明を行う。図3は、当該各部の処理内容を説明するための模式的な例を示す図であり、以下の説明において適宜、参照する。 Hereinafter, each part of FIG. 1 will be described. FIG. 3 is a diagram showing a schematic example for explaining the processing content of each part, and will be referred to as appropriate in the following description.
撮像部1は、認識対象を撮像して、その撮像画像を認識部2および補正部3へと出力する。撮像部1を実現するハードウェアとしては通常のデジタルカメラを用いることができる。 The imaging unit 1 captures the recognition target and outputs the captured image to the recognition unit 2 and the correction unit 3. As hardware for realizing the imaging unit 1, a normal digital camera can be used.
図3の例では、[1]には図2の[1]と同様の地面等の平面PLに認識対象OBが形成されており、撮像部1を実現するハードウェアとしてのカメラCが平面PLの鉛直方向DVからやや西寄りの方向DCで認識対象OBを撮像している。以下にその詳細を説明するように、光源推定装置10によれば、認識対象OBに対して照射を行っている近接光源NLの当該照射している方向DL及びその強度や、認識対象OBに対して方向に依存しない一様な照射を実現している環境光の光源ELの強度などを推定することができる。例えば方向DLは平面PLの鉛直方向DVからやや南寄りの方向であるが、こういった光源に関する情報を推定することができる。 In the example of FIG. 3, the recognition target OB is formed in [1] on the plane PL such as the ground similar to [1] in FIG. 2, and the camera C as hardware that implements the imaging unit 1 is the plane PL. The recognition target OB is imaged in the direction DC slightly westward from the vertical direction DV. As will be described in detail below, according to the light source estimation device 10, the irradiation direction DL of the proximity light source NL that irradiates the recognition target OB and its intensity, and the recognition target OB Thus, it is possible to estimate the intensity of the ambient light source EL that achieves uniform irradiation independent of the direction. For example, although the direction DL is slightly southward from the vertical direction DV of the plane PL, information on such a light source can be estimated.
図3の例ではさらに、[2]に[1]に示す西寄り方向DCで撮像して得た撮像画像Pの例が示されている。当該撮像画像P内には、認識対象OBが正面から傾いた方向DCで撮影されることで正方形形状(図2の[2]に示すように正面から見た場合の正方形形状)から歪んだ形状となった領域Rとして撮影されている。 In the example of FIG. 3, an example of a captured image P obtained by capturing an image in the westward direction DC shown in [1] is shown in [2]. In the captured image P, a shape distorted from a square shape (a square shape when viewed from the front as shown in [2] in FIG. 2) by capturing the recognition target OB in a direction DC inclined from the front. This is taken as a region R.
記憶部5では、特徴情報記憶部51において各認識対象i(i=1,2,…,n;整数iは認識対象の識別子とする)の特徴情報F(i)を記憶し、外観情報記憶部52において各認識対象i(i=1,2,…n)の外観情報AP(i)を記憶し、当該記憶されている特徴情報及び外観情報はそれぞれ認識部2及び推定部4が処理を行う際に必要となる情報として出力される。 The storage unit 5 stores feature information F (i) of each recognition object i (i = 1, 2,..., N; integer i is an identifier of the recognition object) in the feature information storage unit 51, and stores appearance information. Unit 52 stores appearance information AP (i) of each recognition target i (i = 1, 2,... N), and the stored feature information and appearance information are processed by recognition unit 2 and estimation unit 4, respectively. It is output as information required when performing.
なお、上記より明らかなように、記憶部5の全体において各認識対象iの特徴情報F(i)及び外観情報AP(i)を、周知のテーブル形式等の形で記憶しておけばよいことに注意されたい。特徴情報記憶部51及び外観情報記憶部52の区別は、各認識対象iにつき当該記憶される情報の利用のなされ方をより明確にするための便宜上の区別である。 As is clear from the above, the feature information F (i) and appearance information AP (i) of each recognition object i should be stored in the form of a well-known table or the like in the entire storage unit 5. Please be careful. The distinction between the feature information storage unit 51 and the appearance information storage unit 52 is a distinction for convenience in order to clarify how the stored information is used for each recognition target i.
特徴情報記憶部51が記憶し認識部2へと出力される特徴情報としては、認識対象iの参照画像RP(i)から抽出される局所画像特徴量を利用することができる。具体的には、周知のSIFT特徴量又はSURF特徴量等のような、回転及び拡大縮小あるいは射影変化(射影変換による歪み) のいずれか又はその任意の組み合わせに対して不変な性質を有し、画像の局所領域における相対的な輝度勾配に基づいて算出される局所特徴量を用いることができる。あるいは同性質を有する周知のORB特徴量等を用いてもよい。例えば、SIFT 特徴量は以下の非特許文献2に、SURF特徴量は以下の非特許文献3に、ORB特徴量は以下の非特許文献4に、それぞれ開示されている。 As the feature information stored in the feature information storage unit 51 and output to the recognition unit 2, a local image feature amount extracted from the reference image RP (i) of the recognition target i can be used. Specifically, it has a property that is invariant to any one or any combination of rotation and enlargement / reduction or projective change (distortion due to projective transformation) such as a well-known SIFT feature or SURF feature. A local feature amount calculated based on a relative luminance gradient in a local region of an image can be used. Alternatively, a well-known ORB feature amount having the same property may be used. For example, SIFT feature values are disclosed in Non-Patent Document 2 below, SURF feature values are disclosed in Non-Patent Document 3 below, and ORB feature values are disclosed in Non-Patent Document 4 below.
[非特許文献2]「D.G.Lowe, Distinctive image features from scale-invariant key points, Proc. of Int. Journal of Computer Vision (IJCV), 60(2) pp.91-110 (2004)」
[非特許文献3]「H.Bay, T.Tuytelaars, and L.V.Gool, SURF: Speed Up Robust Features, Proc. of Int. Conf. of ECCV, (2006)」
[非特許文献4]「Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.」
[Non-Patent Document 2] "DGLowe, Distinctive image features from scale-invariant key points, Proc. Of Int. Journal of Computer Vision (IJCV), 60 (2) pp.91-110 (2004)"
[Non-Patent Document 3] “H. Bay, T. Tuytelaars, and LVGool, SURF: Speed Up Robust Features, Proc. Of Int. Conf. Of ECCV, (2006)”
[Non-Patent Document 4] “Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.”
また、特徴情報記憶部51が当該記憶する特徴情報においては、認識対象iの参照画像RP(i)の局所画像特徴量にさらに、当該局所画像特徴量の抽出された特徴点の座標の情報も対応づけておく。 Further, in the feature information stored by the feature information storage unit 51, in addition to the local image feature amount of the reference image RP (i) of the recognition target i, information on the coordinates of the feature points extracted from the local image feature amount is also included. Make it correspond.
外観情報記憶部52が記憶し推定部4へと出力される外観情報は、テクスチャ等で構成されている認識対象の参照画像と、当該参照画像を撮像した際の光源情報と、当該参照画像の認識対象における法線マップと、を対応付けた情報として構成される。すなわち、個別の認識対象i(i=1,2,…,n)ごとにそれぞれ、参照画像RP(i)、光源情報L(i)及び法線マップN(i)が対応づけられた情報が認識対象のiの外観情報AP(i)である。 Appearance information that is stored in the appearance information storage unit 52 and output to the estimation unit 4 includes a reference image to be recognized that is configured with a texture and the like, light source information when the reference image is captured, and the reference image It is configured as information in which the normal map in the recognition target is associated. That is, for each individual recognition target i (i = 1, 2,..., N), there is information associated with the reference image RP (i), the light source information L (i), and the normal map N (i), respectively. This is the appearance information AP (i) of i to be recognized.
ここで、図2を参照して説明したように、法線マップN(i)は参照画像RP(i)の各画素位置(x,y)に対して定義される法線方向のマップとして与えることができる。また、法線マップN(i)における法線方向は、参照画像RP(i)の画像の各画素位置(x,y)を含む平面に対してさらに垂直方向にz軸を取った座標系(x,y,z)において与えることができる。すなわち、図2で説明したように認識対象OBといったようなそれぞれ認識対象iは概ね平面に乗る形状を有しており、当該平面を(x,y)平面(図2の平面PL)としてその垂直方向にz軸を取った座標系(x,y,z)において法線方向を与えることで法線マップN(i)を与えることができる。例えば、水平面の法線方向は(0,0,1)として与えることができる。 Here, as described with reference to FIG. 2, the normal map N (i) is given as a map in the normal direction defined for each pixel position (x, y) of the reference image RP (i). be able to. In addition, the normal direction in the normal map N (i) is a coordinate system in which the z axis is taken in a direction perpendicular to the plane including each pixel position (x, y) of the image of the reference image RP (i) ( x, y, z). That is, as described with reference to FIG. 2, each recognition object i such as the recognition object OB has a shape that rides on a plane, and the plane is defined as an (x, y) plane (plane PL in FIG. 2). A normal map N (i) can be given by giving a normal direction in a coordinate system (x, y, z) taking the z axis in the direction. For example, the normal direction of the horizontal plane can be given as (0,0,1).
また、後述する推定手法の一実施形態においては、認識対象iの反射率マップRF(i)もさらに対応付けて、外観情報AP(i)が構成される。反射マップRF(i)も、法線マップN(i)と同様に参照画像RP(i)の各画素位置(x,y)に対して定義される反射率の値のマップとして与えることができる。 Further, in one embodiment of the estimation method described later, the appearance information AP (i) is configured by further associating the reflectance map RF (i) of the recognition target i. Similarly to the normal map N (i), the reflection map RF (i) can be given as a map of reflectance values defined for each pixel position (x, y) of the reference image RP (i). .
記憶部5にその特徴情報及び外観情報を記憶する認識対象は、図2で説明したような平面状で特徴情報及び外観情報を定義可能な任意のものとすることができる。例えば図4の[A]に示すように、竹細工の表面の所定の一部分の領域を認識対象とすることができる。当該竹細工においては、構成要素としての竹ヒゴ自体がテクスチャ状の表面形状を有しており、当該竹ヒゴがさらに交互に編まれることでさらなる表面形状を形成し、当該表面形状に即した竹細工表面の法線マップが構成される。図4の[B]には当該[A]に示す参照画像としての認識対象に対して、外観情報において定義されている法線マップを可視化して表現したものとして、(x,y,z)の値に(R,G,B)を割り当てたカラー画像が示されている(当該示す例では便宜上、カラー表示がグレースケールに変換されたものが示されている)。 The recognition target for storing the feature information and appearance information in the storage unit 5 can be any object that can define the feature information and appearance information in a planar shape as described in FIG. For example, as shown in [A] of FIG. 4, a predetermined partial region on the surface of the bamboo work can be set as a recognition target. In the bamboo work, the bamboo wing itself as a constituent element has a textured surface shape, and the bamboo chin is further knitted alternately to form a further surface shape, and the bamboo craft according to the surface shape A surface normal map is constructed. In [B] of FIG. 4, the normal map defined in the appearance information is visualized and expressed with respect to the recognition target as the reference image shown in [A], and (x, y, z) A color image in which (R, G, B) is assigned to the value of is shown (in the example shown, the color display is converted to gray scale for convenience).
具体的な認識対象としては図2や図4の例の他にも、絨毯、畳、エンボス加工されたもの、硬貨、タイルその他の表面上の凹凸や傾きを有する加工が施された路面や建造物の壁面といったように、任意の対象における平面状領域の全部または一部を管理者の手によって設定して、記憶部5にその特徴情報及び外観情報を記憶しておくことができる。 In addition to the examples shown in FIGS. 2 and 4, the concrete recognition target is a road surface or a building that has been subjected to processing such as carpets, tatami mats, embossed ones, coins, tiles or other surfaces with irregularities and inclinations. It is possible to set all or a part of a planar region in an arbitrary object such as a wall surface of an object by an administrator's hand, and store the feature information and appearance information in the storage unit 5.
光源推定装置10の各部の説明に戻り、認識部2は、第一処理として撮像部1から入力される撮像画像Pから特徴情報F(P)を抽出する処理を行う。当該抽出する特徴情報は、特徴情報記憶部51に記憶されている特徴情報と同種のものである。例えば、特徴情報記憶部51にSIFT特徴量が記憶されている場合、認識部2は撮像画像からSIFT特徴量を抽出する。 Returning to the description of each unit of the light source estimation device 10, the recognition unit 2 performs a process of extracting feature information F (P) from the captured image P input from the imaging unit 1 as a first process. The feature information to be extracted is the same type as the feature information stored in the feature information storage unit 51. For example, when the SIFT feature value is stored in the feature information storage unit 51, the recognition unit 2 extracts the SIFT feature value from the captured image.
認識部2はまた、第二処理として、上記抽出された撮像画像Pの特徴情報F(P)が、特徴情報記憶部51に記憶されている各認識対象iの特徴情報F(i)のいずれに該当するかの照合処理を行うことで、撮像画像Pに撮像されている認識対象が予め記憶されている認識対象i(i=1,2,…,n)のいずれであるかを特定する。 The recognizing unit 2 also performs, as a second process, the feature information F (P) of the extracted captured image P, which of the feature information F (i) of each recognition target i stored in the feature information storage unit 51. Is identified as a recognition target i (i = 1, 2,..., N) stored in advance in the captured image P. .
以上の第一処理及び第二処理は、非特許文献2〜4その他に開示の既存手法により可能である。例えば第二処理に関しては、特徴情報をベクトル量としてベクトル間の距離で一致度を判定する等が可能である。また、第一処理においては撮像画像Pからは認識対象以外の対象やノイズに起因する特徴情報も含めて特徴情報F(P)が抽出されうるので、第二処理においては周知のロバスト推定などを適用して照合処理を行うようにしてよい。 The first process and the second process described above can be performed by existing methods disclosed in Non-Patent Documents 2 to 4 and others. For example, regarding the second process, it is possible to determine the degree of coincidence based on the distance between vectors using feature information as a vector quantity. In the first process, feature information F (P) can be extracted from the captured image P including target information other than the recognition target and feature information caused by noise. Therefore, in the second process, known robust estimation is performed. You may make it apply and perform collation processing.
認識部2はさらに、第三処理として、第二処理で特定された認識対象(認識対象jとする)の、撮像画像Pにおけるカメラ(撮像部1)に対する相対的な位置姿勢を認識する。 The recognition unit 2 further recognizes the relative position and orientation of the recognition target (recognition target j) specified in the second processing with respect to the camera (imaging unit 1) in the captured image P as the third processing.
第三処理における相対的な位置姿勢の認識も、非特許文献1その他において「幾何(学)的整合性」を得るのに用いられている既存手法で可能である。すなわち、AR分野における標準的なマーカである正方マーカを認識した後、その四隅の画像上の座標と、当該正方マーカを基準配置として正面から撮影した際の画像上の座標(基準座標)と、を互いに変換する平面射影変換行列を求めることで、正方マーカの位置姿勢を当該平面射影変換行列の形で求めることができる。第三処理も当該手法と同様にして、特定された認識対象jとカメラとの相対的な位置姿勢を推定することができる。 Recognizing the relative position and orientation in the third process is also possible with the existing method used to obtain “geometrical consistency” in Non-Patent Document 1 and others. That is, after recognizing a square marker that is a standard marker in the AR field, the coordinates on the image of the four corners, and the coordinates on the image when shooting from the front with the square marker as a reference arrangement (reference coordinates), By obtaining a plane projection transformation matrix that mutually converts the square markers, the position and orientation of the square marker can be obtained in the form of the plane projection transformation matrix. In the third process, the relative position and orientation between the identified recognition target j and the camera can be estimated in the same manner as the method.
図3の例では、[1]に示すような認識対象OBとカメラCとの相対的な位置姿勢において撮像がなされることで、[2]に示すような撮像画像Pが得られている。第一処理及び第二処理によって撮像画像Pの領域Rが、[4]に示す記憶部5に記憶された認識対象jの参照画像RP(j)に対応するものであることが特定される。さらに、第三処理によって領域Rの特徴情報における特徴点座標と参照画像RP(j)の特徴情報における特徴点座標との変換関係が平面射影変換行列の形で求められることにより、図3の[1]に示すようなカメラCと認識対象OB(認識対象jとして特定済み)との相対的な位置姿勢が求まる。 In the example of FIG. 3, the captured image P as shown in [2] is obtained by performing imaging at the relative position and orientation of the recognition target OB and the camera C as shown in [1]. By the first process and the second process, it is specified that the region R of the captured image P corresponds to the reference image RP (j) of the recognition target j stored in the storage unit 5 shown in [4]. Further, by the third process, the transformation relationship between the feature point coordinates in the feature information of the region R and the feature point coordinates in the feature information of the reference image RP (j) is obtained in the form of a planar projective transformation matrix. The relative position and orientation of the camera C and the recognition target OB (specified as the recognition target j) as shown in 1] are obtained.
図5の[2],[4]は、図3の同番号を付した[2],[4]にそれぞれ対応する例として、第二処理で特徴情報における特徴点座標の対応付けの模式的な例を示す図である。すなわち、撮像画像Pにおいては第一処理で局所特徴量を算出可能な特徴点p1,p2,p3,p4が抽出され、第二処理でこれらが記憶部5に特徴情報が記憶されている認識対象jにおける特徴点rp1,rp2,rp3,rp4の局所特徴量に対応するものであることが特定され、特徴点p1〜p4と特徴点rp1〜rp4との対応付けが得られる。第三処理では当該対応する特徴点座標同士の平面射影変換行列を求めることで相対的な位置姿勢が認識される。 [2] and [4] in FIG. 5 are schematic examples of the correspondence of the feature point coordinates in the feature information in the second process as examples corresponding to [2] and [4] with the same numbers in FIG. It is a figure which shows an example. That is, in the captured image P, feature points p1, p2, p3, and p4 whose local feature amounts can be calculated in the first process are extracted, and in the second process, these are feature objects whose feature information is stored in the storage unit 5. The feature points rp1, rp2, rp3, and rp4 in j are identified as corresponding to the local feature quantities, and the correspondence between the feature points p1 to p4 and the feature points rp1 to rp4 is obtained. In the third process, the relative position and orientation are recognized by obtaining a plane projection transformation matrix between the corresponding feature point coordinates.
なお、図5では4個の特徴点同士の対応付けを例として示しており、周知のように平面射影変換行列の算出には最低4個の点対応が必要であるが、4個よりも多い特徴点対応から平面射影変換行列を求めるようにしてもよい。特徴情報記憶部51に各認識対象iの特徴情報F(i)を記憶させる際も、4個以上の所定の特徴点を記憶させればよい。 Note that FIG. 5 shows an example of correspondence between four feature points. As is well known, the calculation of a plane projection transformation matrix requires at least four point correspondences, but there are more than four. A planar projective transformation matrix may be obtained from the feature point correspondence. Even when the feature information F (i) of each recognition target i is stored in the feature information storage unit 51, four or more predetermined feature points may be stored.
認識部2では、以上の第一〜第三処理を行い、第二処理で得られた認識対象jである旨の認識結果と第三処理で得られた相対的な位置姿勢とを補正部3へと出力する。 The recognizing unit 2 performs the first to third processes described above, and calculates the recognition result indicating that the recognition target j is obtained in the second process and the relative position and orientation obtained in the third process. To output.
補正部3では、上記のように認識部2から得られた認識対象jである旨の認識結果とその撮像画像Pにおける位置姿勢とに基づき、撮像部1から出力された撮像画像Pにおける認識対象jの領域R(j)に対して当該位置姿勢に対応する平面射影変換行列を適用することで、記憶部5に記憶されている認識対象jの参照画像RP(j)が撮像された際と同じ見え方に補正された補正領域CR(j)を得て、推定部4へと出力する。 The correction unit 3 recognizes the recognition target in the captured image P output from the imaging unit 1 based on the recognition result indicating that the recognition target j is obtained from the recognition unit 2 as described above and the position and orientation in the captured image P. By applying a planar projection transformation matrix corresponding to the position and orientation to the region R (j) of j, when the reference image RP (j) of the recognition target j stored in the storage unit 5 is imaged A correction region CR (j) corrected to the same appearance is obtained and output to the estimation unit 4.
図3の例では、[2]に示す撮像画像Pの領域R(j)に平面射影変換行列が適用されることで、[3]に示す補正領域CR(j)が得られている。当該得られた[3]に示す補正領域CR(j)は、[4]に示す認識対象jの参照画像RP(j)と同様の見え方(例えば所定距離だけ離れて正面から見えている)となっている。従って、補正領域CR(j)と参照画像RP(j)とは、同一形状(図3の例では正方形)となっている。 In the example of FIG. 3, the correction region CR (j) shown in [3] is obtained by applying the planar projection transformation matrix to the region R (j) of the captured image P shown in [2]. The obtained correction region CR (j) shown in [3] looks the same as the reference image RP (j) of the recognition target j shown in [4] (for example, it is seen from the front with a predetermined distance away). It has become. Therefore, the correction region CR (j) and the reference image RP (j) have the same shape (square in the example of FIG. 3).
なお、以上の説明や図3の例では便宜上、撮像画像Pにおいて認識対象jが認識されることでその領域R(j)が識別されるものとしてが、より正確には次の通りである。すなわち、撮像画像Pの全体に位置姿勢に対応する平面射影変換行列を適用することで参照画像RP(j)と共通の(x,y)座標系に変換することで、当該参照画像RP(j)の占める領域と同様の領域として、平面射影変換された撮像画像P内の領域が補正領域CR(j)として識別されるようになる。(当該識別された補正領域CR(j)に対応する、平面射影変換行列を適用する前の撮像画像Pの領域を逆に求めることで、領域R(j)が定まる。) In the above description and the example of FIG. 3, for the sake of convenience, it is assumed that the region R (j) is identified by recognizing the recognition target j in the captured image P, but more precisely as follows. That is, by applying a planar projection transformation matrix corresponding to the position and orientation to the entire captured image P, the reference image RP (j) is converted to a common (x, y) coordinate system with the reference image RP (j). As a region similar to the region occupied by (), a region in the captured image P that has undergone planar projective transformation is identified as the correction region CR (j). (A region R (j) is determined by reversely obtaining the region of the captured image P before applying the planar projection transformation matrix corresponding to the identified correction region CR (j).)
推定部4では、図3の[3]と[4]との間に双方向矢印を示すように、補正部で得られた補正領域CR(j)と、これに対応するものとして外観情報記憶部52より読み込んだ認識対象jの外観情報AP(j)(参照画像RP(j)を含む)と、を対比することにより、撮像画像Pにおいて認識対象jに反映されている光源情報を推定する。 The estimation unit 4 stores the correction area CR (j) obtained by the correction unit and the appearance information corresponding to the correction region CR (j) obtained as indicated by a bidirectional arrow between [3] and [4] in FIG. The light source information reflected in the recognition target j in the captured image P is estimated by comparing the appearance information AP (j) (including the reference image RP (j)) of the recognition target j read from the unit 52 .
図3の[3](及び[2])の例では、補正領域CR(j)はその上側部分が、[1]に示す近接光源NLの照射光の影響でより輝度が高くなったものとして、白みがかったように描かれている。また補正領域CR(j)の全体も、[1]に示す光源ELによる環境光の影響によって、より輝度が高く白みがかったものとして描かれている。このように、撮像画像Pから以上の各処理で得られた補正領域CR(j)は、参照画像RP(j)が当該撮像した際とは異なる光源環境下にあることが反映されたものとなっており、且つ、補正部3において補正することで各画素位置(x,y)がそのまま、参照画像RP(j)の画素位置(x,y)と対応するものとなっている。従って、推定部4ではこのように画素単位で互いに対応している補正領域CR(j)と参照画像RP(j)とを対比することで、光源情報の推定が可能となる。 In the example of [3] (and [2]) in FIG. 3, it is assumed that the upper side of the correction region CR (j) is higher in luminance due to the irradiation light of the proximity light source NL shown in [1]. It is drawn as white. The entire correction region CR (j) is also depicted as having higher brightness and whiteness due to the influence of ambient light from the light source EL shown in [1]. As described above, the correction region CR (j) obtained from the captured image P in each of the above processes reflects that the reference image RP (j) is in a different light source environment from when the image was captured. In addition, each pixel position (x, y) is directly corresponding to the pixel position (x, y) of the reference image RP (j) by correcting in the correction unit 3. Therefore, the estimation unit 4 can estimate the light source information by comparing the correction region CR (j) and the reference image RP (j) that correspond to each other in the pixel unit.
なお、対応する画素同士の対比については、領域内の全画素で行うようにしてもよいし、所定割合でサンプリングするなどして一部の画素で対比するようにしてもよい。 Note that the corresponding pixels may be compared with all the pixels in the region, or may be compared with some pixels by sampling at a predetermined rate.
図6は、一実施形態に係る推定部4による光源情報の推定のフローチャートである。ステップS1では、環境光推定部41が光源情報の一部としての環境光の情報を、補正領域CR(j)の各画素の値の、参照画像RP(j)の対応する各画素の値からの変位量として推定してから、ステップS2に進む。ステップS2では、近接光源推定部42が、光源情報の一部としての近接光の情報を推定し、当該フローは終了する。一実施形態では、ステップS1にて求めた環境光の情報を用いてステップS2の近接光の情報を推定することができる。 FIG. 6 is a flowchart of light source information estimation by the estimation unit 4 according to an embodiment. In step S1, the ambient light estimation unit 41 calculates the ambient light information as a part of the light source information from the value of each pixel corresponding to the reference image RP (j) of the value of each pixel of the correction region CR (j). Then, the process proceeds to step S2. In step S2, the proximity light source estimation unit 42 estimates the information of the proximity light as a part of the light source information, and the flow ends. In one embodiment, the ambient light information obtained in step S1 can be estimated using the ambient light information obtained in step S1.
まず、当該推定処理において用いるモデルとして次の通りの、コンピュータグラフィックスの分野でレンダリングに用いられている既存のモデルを利用する。すなわち、撮像画像(及び参照画像)における輝度分布(すなわち、画素値分布)を、認識対象の表面の各点で反射してカメラに到達した環境光源による環境光及び近接光源による近接光の双方の光量の和とする。さらに、近接光源の反射モデルとして既存のランバート(Lambert)モデルを用いることとすると、画像(撮像画像及び参照画像の両方)の各位置(x,y)(すなわち、認識対象の表面の各位置)での画素値I(x,y)は以下の式(1)で表現される。 First, as a model used in the estimation process, an existing model used for rendering in the field of computer graphics is used as follows. That is, the luminance distribution (that is, the pixel value distribution) in the captured image (and the reference image) is reflected at each point on the surface of the recognition target, and both the ambient light from the ambient light source that reaches the camera and the near light from the proximity light source The sum of the amount of light. Furthermore, if the existing Lambert model is used as the reflection model of the proximity light source, each position (x, y) of the image (both the captured image and the reference image) (that is, each position of the surface to be recognized) The pixel value I (x, y) in is expressed by the following equation (1).
ここで、Ia、Idはそれぞれ環境光の光源及び近接光源の強度であり、従ってこれら各強度は画素位置(x,y)には依存しない値である。Ra(x,y)及びRd(x,y)は認識対象jの環境光及び近接光源における反射率であり、N(x,y)は認識対象jの表面位置(x,y)における法線ベクトルであり、外観情報記憶部52の外観情報AP(j)を構成する反射率マップR(j)及び法線マップN(j)においてそれぞれ、その値が与えられている。L(x,y)は、認識対象jの位置(x,y)から近接光源へと向かう光源方向ベクトルである。法線ベクトルN(x,y)と光源方向ベクトルL(x,y)との間にある「・」は当該両ベクトルの内積演算であり、ランバートモデルにおけるいわゆる余弦則を表している。 Here, I a and I d are the intensities of the ambient light source and the proximity light source, respectively, and therefore these intensities are values that do not depend on the pixel position (x, y). R a (x, y) and R d (x, y) are the ambient light of the recognition target j and the reflectance at the proximity light source, and N (x, y) is the surface position (x, y) of the recognition target j. It is a normal vector, and its value is given to each of the reflectance map R (j) and the normal map N (j) constituting the appearance information AP (j) of the appearance information storage unit 52. L (x, y) is a light source direction vector from the position (x, y) of the recognition target j toward the near light source. “·” Between the normal vector N (x, y) and the light source direction vector L (x, y) is an inner product operation of the two vectors and represents a so-called cosine law in the Lambert model.
ここで、当該式(1)のモデルに即して推定部4が光源情報を推定するに際して、I(x,y)は補正領域CR(j)及び参照画像RP(j)のそれぞれにおける画素値として既知である。上記の通り、反射率Ra(x,y)及びRd(x,y)と法線ベクトルN(x,y)ともそれぞれ、外観情報AP(j)を構成する反射率マップR(j)及び法線マップN(j)として既知である。従って、未知量として推定される対象となるのは、各光源の強度Ia、Idと近接光源の光源方向ベクトルL(x,y)とである。 Here, when the estimation unit 4 estimates light source information according to the model of the formula (1), I (x, y) is a pixel value in each of the correction region CR (j) and the reference image RP (j). Is known as As described above, the reflectances R a (x, y) and R d (x, y) and the normal vector N (x, y), respectively, reflect the reflectance map R (j) constituting the appearance information AP (j). And known as the normal map N (j). Therefore, what is estimated as an unknown quantity is the intensity I a , I d of each light source and the light source direction vector L (x, y) of the proximity light source.
また、上記の式(1)のモデルに従い、外観情報記憶部52には各認識対象jの参照画像RP(j)を、所定強度Ia0の環境光及び強度ゼロの近接光源(すなわち近接光源が存在しない状態)のもとで撮影したものとして用意しておき、保存しておくものとする。すなわち、外観情報AP(j)を参照することで参照画像RP(j)の各位置の画素値I0(x,y)に関して以下の式(2)の関係が既知であるものとする。
I0(x,y)=Ia0Ra(x,y) …(2)
Further, in accordance with the model of the above equation (1), the appearance information storage unit 52 stores the reference image RP (j) of each recognition target j with ambient light having a predetermined intensity I a0 and a proximity light source having zero intensity (that is, a proximity light source). It shall be prepared and saved as a photograph taken under a nonexistent state). That is, it is assumed that the relationship of the following expression (2) is known with respect to the pixel value I 0 (x, y) at each position of the reference image RP (j) by referring to the appearance information AP (j).
I 0 (x, y) = I a0 R a (x, y)… (2)
以上のモデルに従い、推定部4において未知情報としての環境光及び近接光源を推定するに際して、それぞれの影響が顕著に表れる領域の既知情報を利用する、というアプローチを取ることができる。 According to the above model, when the estimation unit 4 estimates the ambient light and the proximity light source as unknown information, it is possible to take an approach of using known information in a region in which each influence appears remarkably.
具体的にはまず、環境光推定部41では、近接光源の影響が少ない領域で補正領域CR(j)の各画素値I(x,y)に関してI(x,y)=Ia*Ra(x,y)と近似できる(上記式(2)と同じ式に近似できる)ため、当該影響の少ない領域Rnにおいて、補正領域CR(j)と外観情報とを比較し、変位量を当該領域内の画素値の変位量の平均として算出する。 Specifically, first, the ambient light estimation unit 41 has I (x, y) = I a * R a regarding each pixel value I (x, y) of the correction region CR (j) in an area where the influence of the proximity light source is small. Since (x, y) can be approximated (can be approximated to the same equation as the above equation (2)), in the region Rn where the influence is small, the correction region CR (j) is compared with the appearance information, and the displacement amount is compared with the region. It is calculated as the average of the amount of displacement of the pixel values.
第一実施形態として、変位量を画素値の差として算出する場合は、式(2)のように外観情報I0(x,y)を取得する際の環境光がIa0であるものとし、下記の式(3)で環境光Iaを推定する。|Rn|は平均を計算するための分母としての、領域Rnに属する画素の個数である。 As a first embodiment, when calculating the amount of displacement as a difference between pixel values, it is assumed that the ambient light at the time of obtaining appearance information I 0 (x, y) as in equation (2) is I a0 , The ambient light Ia is estimated by the following equation (3). | Rn | is the number of pixels belonging to the region Rn as a denominator for calculating the average.
すなわち、上記式(3)のように、補正領域CR(j)の環境光Iaは、補正領域CR(j)の画素値I(x,y)から参照画像RP(j)の対応する画素値I0(x,y)を減算したものを反射率Ra(x,y)で割った値の、領域Rnにおける平均を求め、外観情報生成時の環境光Ia0を加算することで推定することができる。 That is, as in the above equation (3), the ambient light Ia in the correction region CR (j) is the pixel corresponding to the reference image RP (j) from the pixel value I (x, y) in the correction region CR (j). The value obtained by subtracting the value I 0 (x, y) and dividing by the reflectance Ra (x, y) is obtained by calculating the average in the region Rn, and estimating by adding the ambient light I a0 at the time of appearance information generation be able to.
あるいは、第二実施形態として、変位量を比として算出する場合は、次式(4)で環境光を推定することができる。 Alternatively, when the displacement amount is calculated as a ratio as the second embodiment, the ambient light can be estimated by the following equation (4).
すなわち、上記式(4)のように、補正領域CR(j)の環境光Iaは、補正領域CR(j)の画素値I(x,y)と参照画像RP(j)の対応する画素値I0(x,y)との比の、領域Rnにおける平均を、外観情報生成時の環境光Ia0(定数として外観情報AP(j)に含めておく)乗算することで推定することができる。環境光の強度Ia0は、定数として外観情報AP(j)に含まれ外観情報記憶部52に記憶されている。式(4)では幾何平均として求めているが調和平均として求めてもよい。なお、当該第二実施形態では、認識対象jの反射率Ra(x,y)を省略してよいという効果が得られる。 That is, as in the above equation (4), the ambient light Ia in the correction region CR (j) is the pixel corresponding to the pixel value I (x, y) in the correction region CR (j) and the reference image RP (j). It is possible to estimate by multiplying the average of the ratio with the value I 0 (x, y) in the region Rn by the environmental light I a0 (included in the appearance information AP (j) as a constant) at the time of appearance information generation. it can. The ambient light intensity I a0 is included as a constant in the appearance information AP (j) and stored in the appearance information storage unit 52. Although it is obtained as a geometric mean in Equation (4), it may be obtained as a harmonic mean. In the second embodiment, there is an effect that the reflectance Ra (x, y) of the recognition target j may be omitted.
以上の第一、第二実施形態において、近接光源の影響が少ない領域Rnは、補正領域CR(j)又は参照画像RP(j)の少なくともいずれか一方において、輝度値の上限または下限に達している領域から少なくとも一定範囲だけ離れた領域として設定すればよい。なお、参照画像RP(j)は当該上限又は下限に達する領域が生じないように用意しておき、外観情報記憶部52に記憶しておくのが好ましい。また、式(3),(4)では当該領域Rnの平均値を求めて加算又は積算するものとしたが、その他の統計的な代表値、例えば中央値としてもよい。 In the first and second embodiments described above, the region Rn that is less affected by the proximity light source reaches the upper limit or lower limit of the luminance value in at least one of the correction region CR (j) or the reference image RP (j). What is necessary is just to set as an area | region away from the area | region which is at least a fixed range. It is preferable that the reference image RP (j) is prepared so as not to generate a region reaching the upper limit or the lower limit, and stored in the appearance information storage unit 52. In addition, in equations (3) and (4), the average value of the region Rn is obtained and added or integrated, but other statistical representative values, for example, the median value may be used.
次に、近接光源推定部42を説明する。以下、近接光源推定部42において光源方向(及び状況によっては光源位置)を推定することと、当該推定された光源方向に基づいて近接光源の強度を推定することと、をこの順番で説明する。 Next, the proximity light source estimation unit 42 will be described. Hereinafter, estimation of the light source direction (and the light source position depending on the situation) in the proximity light source estimation unit 42 and estimation of the intensity of the proximity light source based on the estimated light source direction will be described in this order.
式(1)に示される通り、近接光源の反射光は光源方向ベクトルL(x,y)と法線ベクトルとN(x,y)の内積L(x,y)・N(x,y)と、光源強度Idと、反射率Rd(x,y)との積で表される。近接光源推定部42では、近接光源の方向L(x,y)を、カメラ中心から近接光源の影響が大きい領域Reにある画素(x,y)へと向かう視線方向F(x,y)と、当該画素位置(x,y)の法線情報N(x,y)とから、当該画素位置(x,y)を基準とした光源方向L(x,y)を次式(5)で求めることができる。 As shown in Equation (1), the reflected light of the near light source is the inner product L (x, y) · N (x, y) of the light source direction vector L (x, y), the normal vector, and N (x, y) And the light source intensity I d and the reflectance R d (x, y). In the proximity light source estimation unit 42, the direction L (x, y) of the proximity light source is changed to the line-of-sight direction F (x, y) from the camera center toward the pixel (x, y) in the region Re where the influence of the proximity light source is large. From the normal information N (x, y) of the pixel position (x, y), the light source direction L (x, y) based on the pixel position (x, y) is obtained by the following equation (5) be able to.
図7は、上記の式(5)が導出される根拠としての、光源方向L(x,y)、視線方向F(x,y)、法線方向N(x,y)の方向の関係を示す図である。図7ではカメラ中心LCから点(x,y)に向かうベクトルとして視線方向F(x,y)が(x,y)をそれぞれ終点及び始点として2つ描かれており、点(x,y)から近接光源の位置LLへと向かうベクトルとして光源方向L(x,y)が描かれており、また、点(x,y)における法線ベクトルN(x,y)が描かれている。当該図7に示す関係において、近接光源LL(点光源)からカメラ中心LCへと点(x,y)で反射して到達する光線に関して、法線ベクトルN(x,y)を境として周知の反射の法則(入射角と反射角と等しい)が成立することから、各ベクトルL(x,y),F(x,y),N(x,y)はその方向にのみ意味を有し、これらの絶対値は等しい(例えば1)という制約を与えることで、上記(5)が導出される。 FIG. 7 shows the relationship between the direction of the light source direction L (x, y), the line-of-sight direction F (x, y), and the normal direction N (x, y) as a basis for deriving the above equation (5). FIG. In FIG. 7, two line-of-sight directions F (x, y) are drawn with (x, y) as an end point and a start point as vectors from the camera center LC to the point (x, y). A light source direction L (x, y) is drawn as a vector heading from one to the position LL of the near light source, and a normal vector N (x, y) at the point (x, y) is drawn. In the relationship shown in FIG. 7, the ray that is reflected from the proximity light source LL (point light source) and reaches the camera center LC at the point (x, y) is known with the normal vector N (x, y) as a boundary. Since the law of reflection (equal to incident angle and reflection angle) holds, each vector L (x, y), F (x, y), N (x, y) is meaningful only in that direction, By giving a constraint that these absolute values are equal (for example, 1), the above (5) is derived.
式(5)を適用する対象画素位置(x,y)が属する、近接光源の影響が大きい領域Reについては、補正領域CR(j)において輝度の上限に達している領域Rlや、閾値判定で変位量が大きいと判定される領域Rdとして定めることができる。当該変位量に関しては、前述の環境光推定部41において求めたのと同種の、補正領域CR(j)の画素値I(x,y)から参照画像RP(j)の画素値I0(x,y)を引いたもの、またはこれらの比として、各位置(x,y)において求めることができる。以降、当該領域Rl又は領域Rdの両方又は片方として定めることのできる、近接光源の影響が大きい領域Reを、ハイライト領域Reと称する。 For the region Re to which the target pixel position (x, y) to which the expression (5) is applied and which has a large influence of the proximity light source, the region Rl that has reached the upper limit of luminance in the correction region CR (j), or threshold determination It can be determined as a region Rd in which the displacement amount is determined to be large. Regarding the amount of displacement, the pixel value I 0 (x) of the reference image RP (j) from the pixel value I (x, y) of the correction region CR (j), which is the same type as that obtained in the ambient light estimation unit 41 described above. , y) or a ratio thereof can be obtained at each position (x, y). Hereinafter, a region Re that is greatly influenced by the proximity light source and can be defined as both or one of the region Rl or the region Rd is referred to as a highlight region Re.
なお、ハイライト領域Reは、法線方向が概ね一致する互いに連続した領域としてそれぞれ定まることが想定されるが、法線方向が概ね一致している部分であるにも関わらず、ノイズ等で当該領域内の突発的な欠損部分が発生する場合もありうる。周知の欠損補間技術で当該突発的な欠損領域を補間したものとしてハイライト領域Reを定めるようにしてもよい。 Note that it is assumed that the highlight area Re is determined as a continuous area in which the normal directions are approximately the same. There may be a case where a sudden defect in the region occurs. The highlight area Re may be determined as a result of interpolating the sudden missing area using a known missing interpolation technique.
また、式(5)において、視線方向F(x,y)は、認識部2の第三処理で位置姿勢を推定した際に、参照画像RP(j)の画像座標(x,y)を基準としてさらに当該画像平面に垂直な方向にz軸を取ることで得られる、参照画像RP(j)を基準とした空間座標(x,y,z)においてカメラ中心の位置LCが既知となっているので、当該カメラ中心位置LCから式(5)の点(x,y,0)へと至る方向として定めることができる。 Further, in equation (5), the line-of-sight direction F (x, y) is based on the image coordinates (x, y) of the reference image RP (j) when the position and orientation are estimated by the third process of the recognition unit 2. Furthermore, the camera center position LC is known in spatial coordinates (x, y, z) based on the reference image RP (j) obtained by taking the z axis in the direction perpendicular to the image plane. Therefore, it can be determined as the direction from the camera center position LC to the point (x, y, 0) in the equation (5).
以上、近接光源推定部42においては、式(5)により近接光源の方向L(x,y)を推定可能である。さらに、近接光源が複数存在する場合においても、それぞれに対応したハイライト領域Reが存在するため、当該領域ごとに式(5)を適用することで、それぞれの光源方向を推定できる。 As described above, the proximity light source estimation unit 42 can estimate the direction L (x, y) of the proximity light source by the equation (5). Furthermore, even when there are a plurality of proximity light sources, there are highlight regions Re corresponding to the respective light sources, so that the direction of each light source can be estimated by applying Equation (5) for each region.
さらに、撮像画像Pが撮像された際の状況によっては、同一の近接光源が複数のハイライト領域Reとして顕在化する場合もある。このような場合に、当該顕在化している旨を自動判定して適用可能な実施形態として、近接光源推定部42では、式(5)のように単に光源方向L(x,y)だけを推定するのではなく、複数のハイライト領域Reからそれぞれ得られる光源方向の交点を求めることで、近接光源の3次元座標を推定するようにしてもよい。 Furthermore, depending on the situation when the captured image P is captured, the same proximity light source may be manifested as a plurality of highlight areas Re. In such a case, as an embodiment that can be applied by automatically determining that it has become apparent, the proximity light source estimation unit 42 simply estimates the light source direction L (x, y) as shown in Equation (5). Instead, the three-dimensional coordinates of the proximity light source may be estimated by obtaining the intersections of the light source directions respectively obtained from the plurality of highlight regions Re.
なお、当該実施形態においては、ハイライト領域Reが複数求まり、そのうちの一部又は全部における光源方向に交点が存在すると判定された場合に初めて、同一の近接光源によって顕在化した複数のハイライト領域Reが存在していた旨の判定を得ると共に、当該同一の近接光源の3次元座標を推定することができる。 In the present embodiment, a plurality of highlight areas Re are obtained by the same proximity light source only when a plurality of highlight areas Re are obtained and it is determined that there are intersections in the light source direction in some or all of them. A determination that Re is present can be obtained, and the three-dimensional coordinates of the same proximity light source can be estimated.
図8は、当該近接光源の位置が複数の光源方向の一致によって推定可能となる模式的な例を示す図である。図8では、説明の簡素化のために光の進行の例を2次元断面上に限定して行うものとし、図2,3と同様に認識対象jが配置される平面PLが2次元断面として直線で描かれており、認識対象jの当該断面上に現れている、各々において法線方向を有した表面s1〜s13(それぞれ直線をなし曲率がゼロである表面)が描かれている。図8では、単一の近接光源の光源位置LLに対して、カメラ中心LCから見た場合に、当該単一の近接光源によって表面s2,s7,s12の3か所がハイライト領域として顕在化する場合が例として示されている。すなわち、表面s2,s7,s12における法線n2,n7,n12を境として反射の法則に従って点pr2,pr7,pr12においてそれぞれ光線が反射することで、近接光源LLからカメラ中心LCへと直接光線が到達する関係がある。このような場合に逆に、表面s2,s7,s12からの光源方向の一致点を探ることで、近接光源LLの位置を推定できることは明らかであり、近接光源推定部42では当該推定を行うことができる。 FIG. 8 is a diagram illustrating a schematic example in which the position of the proximity light source can be estimated by matching a plurality of light source directions. In FIG. 8, for the sake of simplicity of explanation, it is assumed that the example of light travel is limited to a two-dimensional cross section, and the plane PL on which the recognition object j is arranged is a two-dimensional cross section as in FIGS. Surfaces s1 to s13 that are drawn in a straight line and appear on the cross section of the recognition target j and each have a normal direction (surfaces that are straight and have a curvature of zero) are drawn. In FIG. 8, when viewed from the camera center LC with respect to the light source position LL of a single proximity light source, three points of the surfaces s2, s7, and s12 are revealed as highlight areas by the single proximity light source. The case of doing is shown as an example. That is, light rays are reflected at the points pr2, pr7, and pr12 according to the law of reflection with the normal lines n2, n7, and n12 on the surfaces s2, s7, and s12 as boundaries, so that the light rays are directly emitted from the proximity light source LL to the camera center LC. There is a relationship to reach. Conversely, in such a case, it is clear that the position of the proximity light source LL can be estimated by searching for the coincidence point of the light source direction from the surfaces s2, s7, s12, and the proximity light source estimation unit 42 performs the estimation Can do.
なお、図8の例では理想的な場合として、光源方向の直線同士が完全に一点として得られる場合を説明した。しかしながら現実には様々な誤差が存在するため、このように完全に一点で交わることはないものと考えられる。そこで、近接光源推定部42において、2つの光源方向に交点が存在するか否かは、当該光源方向の定める直線の最短距離が予め設定した閾値TH以内に収まるか否かで判定すればよい。3つ以上の光源方向に交点が存在するか否かは、当該3つ以上の中から選んだ全ての2つの光源方向の組み合わせにおいて直線間の最短距離が当該閾値TH以内に収まるか否かで判定すればよい。当該閾値判定によって2つ以上の光源方向に交点が存在すると判定された場合、近接光源の位置は、当該2つ以上の光源方向が定める各直線への距離の総和が最小となる位置等の、所定位置として決定すればよい。 In the example of FIG. 8, as an ideal case, the case where straight lines in the light source direction are completely obtained as one point has been described. However, since there are various errors in reality, it is considered that they do not completely intersect at one point. Therefore, in the proximity light source estimation unit 42, whether or not there is an intersection in the two light source directions may be determined by whether or not the shortest distance of the straight line defined by the light source direction falls within a preset threshold TH. Whether or not an intersection exists in three or more light source directions depends on whether or not the shortest distance between the straight lines is within the threshold TH in the combination of all two light source directions selected from the three or more light source directions. What is necessary is just to judge. When it is determined by the threshold determination that there are intersections in two or more light source directions, the position of the proximity light source is a position where the sum of distances to the respective straight lines defined by the two or more light source directions is minimum, etc. What is necessary is just to determine as a predetermined position.
また、近接光源推定部42において近接光源の方向(及び位置)を推定する際は、図8の例のように、カメラ位置LCから見た場合にハイライト領域Reで反射した後の直線を考える必要があり、当該直線を定めるにはハイライト領域Re内の各点(x,y)で定めてもよいし、いずれかの代表点(x,y)を通るものだけを定めるようにしてもよい。当該通る代表点は、ハイライト領域Re内の所定点、例えば重心などとして設定することができる。(なお、各ハイライト領域Re内の各点(x,y)で反射後の直線を定める場合も、法線方向が概ね同じで互いに近接している点において互いに求まる反射後の直線は、概ね同じ方向であることが想定される。また、各ハイライト領域Re内では法線方向はほぼ同じことが想定される。従って、一つのハイライト領域Re内において概ね同じ方向L(x,y)が求まる場合は、その平均値を当該ハイライト領域Reに対応する光源方向として定めるようにしてもよい。) Further, when the direction (and position) of the proximity light source is estimated by the proximity light source estimation unit 42, a straight line after reflection at the highlight area Re when viewed from the camera position LC is considered as in the example of FIG. In order to determine the straight line, it may be determined at each point (x, y) in the highlight area Re, or only one that passes through one of the representative points (x, y) may be determined. Good. The representative point that passes can be set as a predetermined point in the highlight area Re, for example, the center of gravity. (Note that even when defining a straight line after reflection at each point (x, y) in each highlight region Re, the straight lines after reflection obtained at points close to each other in the normal direction are approximately the same. It is assumed that the normal directions are almost the same in each highlight region Re, and therefore the same direction L (x, y) in one highlight region Re. (The average value may be determined as the light source direction corresponding to the highlight area Re.)
以上、近接光源推定部42では近接光源の方向と、状況によっては位置とを推定することができる。近接光源推定部42ではさらに一実施形態において、当該推定された方向L(x,y)を用いて、対応するハイライト領域Reの周辺Rsにおいて、以下の式(6)により当該方向L(x,y)における近接光源の強度Idを推定することができる。 As described above, the proximity light source estimation unit 42 can estimate the direction of the proximity light source and the position depending on the situation. Further, in one embodiment, the proximity light source estimation unit 42 uses the estimated direction L (x, y), and in the surrounding Rs of the corresponding highlight region Re, the direction L (x , y), the intensity I d of the proximity light source can be estimated.
式(6)において、周辺Rsについてはハイライト領域Reの少なくとも一つの点から所定距離内にある等の、所定規則でハイライト領域Reに対応するものとして定めればよい。|Rs|は当該周辺Rsに属する画素の数である。また、環境光の強度Iaは、前述の環境光推定部41で求めたものを用いることができるが、別途の手法で取得されたものを用いてもよい。なお、式(6)より明らかなように、式(6)では式(1)のモデルの領域Rsでの平均として近接光源の強度Idを推定している。すなわち、式(1)のモデルに従い輝度のうち環境光の影響IaRa(x,y)を減算して除外し、式(1)において強度Iaに積算される係数であるRd(x,y)(N(x,y)・L(x,y))で割ったたものを領域Rsで平均することで環境光の強度Iaを推定するのが式(6)である。 In Expression (6), the surrounding Rs may be determined as corresponding to the highlight area Re according to a predetermined rule, such as being within a predetermined distance from at least one point of the highlight area Re. | Rs | is the number of pixels belonging to the peripheral Rs. Further, as the ambient light intensity I a , the one obtained by the ambient light estimation unit 41 can be used, but one obtained by a separate method may be used. As is clear from equation (6), in equation (6), the intensity I d of the proximity light source is estimated as an average in the region Rs of the model of equation (1). That is, according to the model of equation (1), the influence I a R a (x, y) of ambient light is subtracted and excluded from the luminance, and R d (the coefficient integrated with the intensity I a in equation (1) Equation (6) estimates the intensity I a of the ambient light by averaging the values obtained by dividing by x, y) (N (x, y) · L (x, y)) in the region Rs.
上記の式(6)とは別の一実施形態として、近接光源推定部42では次のように近接光源の強度Idを推定してもよい。すなわち、近接光源の強度Idを、ハイライト領域Re内にある画素の有する法線方向と類似する法線方向を持つ周辺領域Rneの面積(すなわち領域Rneの画素数|Rne|)と、同領域Rne内で所定の閾値以上の変位量を持つ領域Rthの面積(すなわち領域Rthの画素数|Rth|)との比|Rth|/|Rne|として求める。当該比によって求める「考え方」はすなわち、閾値以上の変位量を持つ領域の大きさに近接光源の強度Idが比例するというものである。法線方向の類似はベクトル差の絶対値に対する閾値判定等で求めればよい。 As an embodiment different from the above equation (6), the proximity light source estimation unit 42 may estimate the intensity I d of the proximity light source as follows. That is, the intensity I d of adjacent light sources, the area of the peripheral region Rne with normal direction similar to the normal direction with the pixels in the highlight region Re (i.e. the number of pixels in the region Rne | Rne |) and, the It is obtained as a ratio | Rth | / | Rne | with the area of the region Rth having a displacement amount equal to or larger than a predetermined threshold in the region Rne (that is, the number of pixels of the region Rth | Rth |). The “concept” determined by the ratio is that the intensity I d of the proximity light source is proportional to the size of the region having the displacement amount equal to or greater than the threshold value. Similarity in the normal direction may be obtained by threshold determination for the absolute value of the vector difference.
各位置(x,y)での変位量については、前述の式(3),(4)と同様に差「{I(x,y)-I0(x,y)}/Ra(x,y)」又は比「I(x,y)/I0(x,y)」として求めればよい。当該一実施形態において近接光源推定部42ではさらに、近接光源の色を同変位量の平均値として求めることもできる。すなわち、RGB等の色空間における各強度ごとに同変位量を求めてその平均として近接光源の色を推定することができる。 For the displacement amount at each position (x, y), the difference “{I (x, y) −I 0 (x, y)} / R a (x , y) ”or the ratio“ I (x, y) / I 0 (x, y) ”. In the embodiment, the proximity light source estimation unit 42 can further obtain the color of the proximity light source as an average value of the same displacement amount. That is, the same displacement amount is obtained for each intensity in a color space such as RGB, and the color of the proximity light source can be estimated as the average.
当該一実施形態は、前述の式(6)の実施形態とは異なり、認識対象jの反射率Rd(x,y)を外観情報記憶部52に記憶しておかなくとも実施可能という効果がある。また、式(6)の実施形態とは異なり、「環境光推定部41」で別途に求めておく環境光の強度が不要であるという効果もある。 The embodiment is different from the above-described embodiment of Equation (6) in that the reflectance R d (x, y) of the recognition target j can be implemented without being stored in the appearance information storage unit 52. is there. Further, unlike the embodiment of the equation (6), there is an effect that the intensity of the environmental light separately obtained by the “environment light estimating unit 41” is unnecessary.
なお、以上のような近接光源推定部52では、式(1)で環境光と近接光源との影響だけをモデル化していたのに加えさらに、図8の説明例などからも明らかなように、鏡面反射の影響を考慮している。鏡面反射についても例えば、コンピュータグラフィックスの分野でレンダリングに用いられている既存の鏡面反射モデルであるフォン(Phong)モデルによりその強度Ir(x,y)を以下の式(7)のように表すことができる。
Ir(x,y)=r(θ1(x,y))Idcosn(θ2(x,y)) …(7)
In the proximity light source estimation unit 52 as described above, in addition to modeling only the influence of the ambient light and the proximity light source in the equation (1), as is apparent from the explanation example of FIG. The effect of specular reflection is taken into account. As for specular reflection, for example, the intensity I r (x, y) is expressed by the following formula (7) using the Phong model, which is an existing specular reflection model used for rendering in the field of computer graphics. Can be represented.
I r (x, y) = r (θ1 (x, y)) I d cos n (θ2 (x, y)) (7)
ここで、θ1(x,y)は近接光源から点(x,y)への入射角(又は同値の反射角)であり、θ2(x,y)は視点方向F(x,y)と反射の法則に従う反射光とがなす角度であり、nは鏡面反射の強度を表すパラメータである。 Here, θ1 (x, y) is the incident angle (or equivalent reflection angle) from the near light source to the point (x, y), and θ2 (x, y) is reflected from the viewing direction F (x, y). And n is a parameter representing the intensity of specular reflection.
以上のような近接光源推定部52の各実施形態においては、上記式(7)のような種々のパラメータ等を必要とするモデルを用いることなく、輝度の上限等で簡素に判定可能なハイライト領域Reから光源方向L(x,y)を推定し、その周辺領域Rneを鏡面反射の影響が消失した領域として例えば式(1)のモデルを適用することで、近接光源の強度Idを推定している。 In each embodiment of the proximity light source estimation unit 52 as described above, a highlight that can be simply determined by the upper limit of the brightness without using a model that requires various parameters such as the above formula (7) Estimate the light source direction L (x, y) from the region Re, and estimate the intensity I d of the proximity light source by applying the model of Equation (1), for example, with the surrounding region Rne as the region where the influence of specular reflection has disappeared doing.
以上、本発明によれば球面鏡といったような特殊な設備を必要とすることなく、また、複数のカメラも必要とすることなく単一のカメラのみから得られた撮像画像を対象として、携帯端末その他の一般的なコンピュータによって処理可能な手法により、光源情報を推定することができる。以下、本発明における補足的事項を説明する。 As described above, according to the present invention, a portable terminal or the like can be used for a captured image obtained from only a single camera without requiring special equipment such as a spherical mirror and without requiring a plurality of cameras. The light source information can be estimated by a method that can be processed by a general computer. Hereinafter, supplementary matters in the present invention will be described.
(1)各認識対象jに対する外観情報AP(j)の設定について
外観情報AP(j)のうち、特に法線マップN(j)については、必ずしも厳密に認識対象jの表面形状に対応するものではなく、様々に変動することが想定されるカメラ位置姿勢及び光源状態に応じて認識対象jの見え方が変わることを反映したものとして、管理者等が設定しておくことができる。
(1) About the setting of appearance information AP (j) for each recognition target j Of the appearance information AP (j), the normal map N (j), in particular, strictly corresponds to the surface shape of the recognition target j. Instead, it can be set by the administrator or the like as reflecting the change in the appearance of the recognition target j in accordance with the camera position and orientation and the light source state that are expected to vary.
例えば図9の[1]に例示するような、表面形状として表面s20〜s26を有する認識対象があったとする。図9では、図8の説明例と同様に、表面s20〜s26を認識対象の2次元的な断面として描いている。表面形状を完全に表現した厳密な法線マップは当該s20〜s26のそれぞれで定義する必要がある。しかしながら本発明においては、参照画像RP(j)と対応する形での法線マップN(j)を定義しておけばよい。すなわち、図9の[1]の表面s22,s23,s24の部分は細くて深い鉛直方向の溝を構成しているが、このような鉛直方向を向いている表面s22,s24について法線マップを定義する必要はなく、[2]に示すように当該溝部分を水平面s30として定義しておけばよい。さらに、細く深い溝であることから画像上ではほぼ黒色に見えることとなるので、当該面s30の反射率を低く設定しておけばよい。参照画像RP(j)においては当該表面s30は概ね黒色の領域として現れることとなる。 For example, it is assumed that there is a recognition target having surfaces s20 to s26 as surface shapes as illustrated in [1] of FIG. In FIG. 9, the surfaces s20 to s26 are drawn as a two-dimensional section to be recognized, as in the example of FIG. A strict normal map that completely represents the surface shape must be defined in each of the s20 to s26. However, in the present invention, a normal map N (j) corresponding to the reference image RP (j) may be defined. That is, the portions of the surfaces s22, s23, and s24 in [1] of FIG. 9 constitute a narrow and deep vertical groove, but the normal map is obtained for the surfaces s22 and s24 that face the vertical direction. There is no need to define it, and it is only necessary to define the groove portion as a horizontal plane s30 as shown in [2]. Furthermore, since it is a thin and deep groove, it will appear almost black on the image, so the reflectance of the surface s30 may be set low. In the reference image RP (j), the surface s30 appears as a substantially black region.
(2)各認識対象jが概ね平面状の領域として構成されていることについて
本発明における各認識対象jは、その表面形状が所定基準で平面をフィッティング可能なものとして、概ね平面状の領域をなすものを設定することができる。例えば認識対象の表面領域から所定の空間サンプリングレートで当該表面上の各点位置(xi,yi,zi)(i=1,2,…N)を抽出し、当該一連の点に最小二乗法で平面をフィッティングした際の誤差が所定閾値内に収まるものを認識対象jとして設定することができる。また、認識対象の表面領域が所定サイズの直方体(扁平なタイル状の直方体)の内部に収まるものを認識対象jとして設定することもできる。
(2) About each recognition object j being configured as a substantially planar area Each recognition object j in the present invention has a substantially planar area as its surface shape can be fitted to a plane on a predetermined basis. You can set what you want. For example, each point position (xi, yi, zi) (i = 1, 2, ... N) on the surface is extracted from the surface area to be recognized at a predetermined spatial sampling rate, and the series of points is extracted by the least square method. An object whose error when fitting a plane is within a predetermined threshold can be set as the recognition target j. Further, a recognition target j can be set such that the surface area of the recognition target falls within a predetermined size rectangular parallelepiped (flat tile-shaped rectangular parallelepiped).
本発明においては、上記のように概ね平面状でその表面に法線マップを有するものを認識対象とするので、日常空間等に存在する様々なものが認識対象としてそのまま設定可能であり、拡張現実等を実現する際に特別なマーカー等を必ずしも必要とせず、自由度が高いという効果がある。 In the present invention, as described above, the object to be recognized is generally planar and has a normal map on the surface as described above. Therefore, various objects existing in everyday space can be set as recognition objects as they are, and augmented reality. For example, a special marker or the like is not necessarily required for realizing the above, and there is an effect that the degree of freedom is high.
(3)認識対象を立体に拡張することについて
例えば、図10の[1]に示すような地面から突出した3つの三角形面領域SP1,SP2,SP3を有する三角錐を認識対象とすることを考える。各面SP1,SP2,SP3の形状は必ずしも完全な平面である必要はなく、それぞれの法線マップを有するものとする。この場合、以上説明した平面状の認識対象を設定する実施形態では、各領域SP1,SP2,SP3はそれぞれ別個の認識対象jとして設定することができる。別の一実施形態として、各面領域SP1,SP2,SP3が[1]のような三角錐をなすという立体的な位置関係をあることも考慮して、当該三角錐の全体を一つの認識対象jとして設定することもできる。
(3) About expanding the recognition target to a solid For example, consider that a triangular pyramid having three triangular surface areas SP1, SP2, SP3 protruding from the ground as shown in [1] in FIG. . The shape of each surface SP1, SP2, SP3 does not necessarily have to be a complete plane, and has respective normal maps. In this case, in the embodiment in which the planar recognition target described above is set, each of the regions SP1, SP2, and SP3 can be set as a separate recognition target j. As another embodiment, taking into account the three-dimensional positional relationship that each surface area SP1, SP2, SP3 forms a triangular pyramid as in [1], the entire triangular pyramid is considered as a single recognition target. It can also be set as j.
当該立体を認識対象として設定する実施形態では、当該立体を構成する各面SP1,SP2,SP3についてそれぞれ、平面領域を対象とする実施形態における外観情報AP1,AP2,AP3を設定しておき、さらに、各面SP1,SP2,SP3が共通の認識対象jの各面である旨の情報と、各面SP1,SP2,SP3当該認識対象j(三角錐)における立体的な位置関係も立体情報として、外観情報に追加して設定しておけばよい。光源推定装置10の各部の処理については以下のような追加処理を実施すればよい。 In the embodiment in which the solid is set as the recognition target, the appearance information AP1, AP2, AP3 in the embodiment for the plane region is set for each of the surfaces SP1, SP2, SP3 constituting the solid, , The information that each surface SP1, SP2, SP3 is each surface of the common recognition target j, and the three-dimensional positional relationship in each recognition surface j (triangular pyramid) of each surface SP1, SP2, SP3 as three-dimensional information, Add to the appearance information and set. For the processing of each part of the light source estimation device 10, the following additional processing may be performed.
認識部2においては、立体を構成する各面SP1,SP2,SP3のそれぞれの特徴情報により各面を個別に認識するようにし、第二処理において各面SP1,SP2,SP3のうち2個以上が認識された場合、第三処理で位置姿勢を表現するものとして平面射影変換行列を求める際の誤差(周知の行列計算における誤差)が最小となるものを基準として、立体としての認識対象の位置姿勢を推定する。そして、誤差が最小ではないものの認識された他の面も、当該推定された位置姿勢における空間座標(x,y,z)を基準として、外観情報に含まれる立体情報を参照してその位置を把握する。 In the recognition unit 2, each surface is individually recognized by the feature information of each surface SP1, SP2, SP3 constituting the solid, and two or more of the surfaces SP1, SP2, SP3 are detected in the second process. If recognized, the position and orientation of the object to be recognized as a solid based on the one that minimizes the error (error in well-known matrix calculation) when obtaining the planar projective transformation matrix to represent the position and orientation in the third process Is estimated. Then, other recognized surfaces with no error are also referred to by referring to the spatial information (x, y, z) in the estimated position and orientation with reference to the stereoscopic information included in the appearance information. To grasp.
補正部3においては、認識された立体の各面SP1,SP2,SP3をそれぞれ正面(各面の参照画像の向き)となるよう補正する。従って例えば、図10の[2]に示すような「展開図」のような情報が補正部3において取得されることとなる。 The correction unit 3 corrects the recognized three-dimensional surfaces SP1, SP2, and SP3 so as to be in front (direction of the reference image on each surface). Therefore, for example, information such as a “development diagram” as shown in [2] of FIG.
推定部4においては、上記の認識部2で把握された各面SP1,SP2,SP3の空間的な配置関係を考慮して、認識された全ての面を一体のものとして、以上の実施形態と同様に光源情報を推定する。従って例えば、法線方向N(x,y)や光源方向L(x,y)等は、当該把握された空間配置においてN(x,y,z),L(x,y,z)として拡張して定義されることとなる。例えば、面SP1が認識部2において最小誤差と判定され空間座標(x,y,z)を定める基準となった場合、面SP1上に現れる法線方向及び光源方向はN(x,y,0),L(x,y,0)という、基準となる(x,y)平面上にあり垂直方向zが0のものとなるが、その他の例えば面SP2上に現れる法線方向及び光源方向は一般にN(x,y,z),L(x,y,z)のように基準となる(x,y)平面上から外れるものとなる。また、法線方向及び光源方向のベクトルの値も、当初面SP2を水平面として定義されていた値から、面SP1が水平面であり面SP2は傾いている旨を反映して、修正された値を用いるようにすることとなる。 In the estimation unit 4, in consideration of the spatial arrangement relationship of each surface SP1, SP2, SP3 grasped by the recognition unit 2, all the recognized surfaces are integrated, and the above embodiment and Similarly, light source information is estimated. Therefore, for example, the normal direction N (x, y), the light source direction L (x, y), etc. are expanded as N (x, y, z), L (x, y, z) in the grasped spatial arrangement. Will be defined. For example, when the surface SP1 is determined as the minimum error in the recognition unit 2 and becomes a reference for determining the spatial coordinates (x, y, z), the normal direction and the light source direction appearing on the surface SP1 are N (x, y, 0 ), L (x, y, 0), which is on the reference (x, y) plane and whose vertical direction z is 0, other normal direction and light source direction appearing on the surface SP2, for example, In general, it becomes out of the reference (x, y) plane, such as N (x, y, z), L (x, y, z). In addition, the vector values in the normal direction and the light source direction are also corrected to reflect that the surface SP1 is a horizontal plane and the surface SP2 is inclined from the value originally defined as the horizontal plane SP2. It will be used.
ただし、以上のように基準となる面SP1に対して傾いた面SP2においてベクトル方向は空間配置を考慮する必要があるが、式(2)〜(4)のような計算を実施する場合は、図10の[2]のように傾いた面SP2も展開図において正面にあるものとみなして、すなわち、共通の2次元マップ上の点(x,y)であるものとみなして、計算を行えばよい。 However, in the plane SP2 inclined with respect to the reference plane SP1 as described above, it is necessary to consider the spatial arrangement of the vector direction, but when performing calculations such as equations (2) to (4), The inclined surface SP2 as shown in [2] in FIG. 10 is also considered to be the front in the development view, that is, the point (x, y) on the common two-dimensional map. Just do it.
(4)認識対象jにおける位置姿勢認識機能と光源情報認識機能の分離について
以上の説明では各認識対象jから特徴情報が抽出可能であり、当該特徴情報によってそのカメラに対する位置姿勢が認識され、当該特徴情報を抽出されたのと同様の領域を対象として光源情報が推定されるものとしたが、これらは以下のように、対応付けたうえで分離してもよい。
(4) Separation of position / orientation recognition function and light source information recognition function for recognition target j In the above description, feature information can be extracted from each recognition target j, and the position / orientation with respect to the camera is recognized based on the feature information. The light source information is estimated for the same region from which the feature information is extracted. However, these may be separated after associating as follows.
すなわち、認識対象jにおいては例えばAR分野において周知の正方マーカ(黒枠)部分を当該認識対象jを特定しその位置姿勢を認識するための領域として設け、当該領域とは別途の領域、例えば当該黒枠としての正方マーカの内部や、当該黒枠を基準としてその位置姿勢が定まる平面状の所定領域を光源情報を推定するための、法線マップN(j)その他が定義された基準画像RP(j)に対応する領域として設けるようにしてもよい。これらの関係は記憶部5に記憶させておけばよい。従って、位置姿勢を推定するのに、必ずしも局所画像特徴量を用いるようにせず、例えば領域の2値化で正方マーカの歪んだ形状及び向きを決定したうえで、以上と同様の平面射影変換行列としての位置姿勢推定を実施してもよい。 That is, in the recognition target j, for example, a square marker (black frame) portion known in the AR field is provided as a region for identifying the recognition target j and recognizing its position and orientation, and a region separate from the region, for example, the black frame Reference image RP (j) in which a normal map N (j) and others are defined for estimating light source information inside a square marker or a planar predetermined region whose position and orientation is determined with reference to the black frame You may make it provide as an area | region corresponding to. These relationships may be stored in the storage unit 5. Accordingly, the local image feature quantity is not necessarily used to estimate the position and orientation. For example, after determining the distorted shape and orientation of the square marker by binarizing the region, the planar projection transformation matrix similar to the above is used. Position / orientation estimation may be performed.
(5)色空間について
以上説明した推定部4の各実施形態の強度計算は、画像がRGB等の所定の色空間で構成されている場合には当該色空間の各成分ごとに実施することができる。また、その他の任意の所定の色空間において各成分またはいずれかの成分において実施することもできる。また、グレースケール画像に変換して当該単一成分において実施することもできる。
(5) About Color Space The intensity calculation of each embodiment of the estimation unit 4 described above may be performed for each component of the color space when the image is configured in a predetermined color space such as RGB. it can. It can also be implemented for each component or any component in any other predetermined color space. Moreover, it can also convert into a gray scale image and can implement in the said single component.
(6)重畳処理について
以上の光源推定装置10による推定結果を用いて、撮像画像Pに所定の仮想物体等を光源情報を反映して重畳処理を行うことができる。図11は当該重畳処理を実現する重畳装置20の機能ブロック図であり、図1で説明した光源推定装置10と同様の各部にさらに、重畳部6及び重畳情報記憶部53が追加されて重畳装置10が構成されている。当該追加構成以外の各部の動作は以上説明したのと同様であるため説明は省略する。
(6) Superimposition Processing Using the above estimation result by the light source estimation device 10, it is possible to perform superimposition processing by reflecting light source information on a predetermined virtual object or the like in the captured image P. FIG. 11 is a functional block diagram of the superimposing device 20 that realizes the superimposing processing. The superimposing device 6 and the superimposing information storage unit 53 are further added to the same units as those of the light source estimating device 10 described in FIG. 10 is configured. Since the operation of each part other than the additional configuration is the same as described above, description thereof is omitted.
重畳部6では、推定部4の推定した光源情報と、重畳情報記憶部53に記憶されている重畳情報と、撮像部1の出力した撮像画像Pと、を入力し、光源情報を反映した重畳情報を生成して撮像画像Pに重畳し、重畳画像として出力する。重畳情報記憶部53においては、認識対象jに対応した重畳情報を記憶しておき、認識部2で認識された認識対象に対応する重畳情報を重畳部6へと出力する。重畳部6における重畳処理は、推定部4で光源情報を推定した際に用いたモデルと同様のモデルを利用することで、既存のレンダリング処理によって実施することができる。Phongモデルを用いる場合、求めた近接光源強度Idを光源の強度として用いて、当該モデルの鏡面反射係数をもとにレンダリングした結果として、鏡面反射強度を得ることができる。 The superimposing unit 6 inputs the light source information estimated by the estimating unit 4, the superimposing information stored in the superimposing information storage unit 53, and the captured image P output from the imaging unit 1, and superimposing the light source information. Information is generated, superimposed on the captured image P, and output as a superimposed image. The superimposition information storage unit 53 stores the superimposition information corresponding to the recognition target j, and outputs the superimposition information corresponding to the recognition target recognized by the recognition unit 2 to the superposition unit 6. The superimposing process in the superimposing unit 6 can be performed by an existing rendering process by using a model similar to the model used when the estimating unit 4 estimates the light source information. When using a Phong model, using near light source intensity I d determined as the intensity of the light source, as a result of rendering on the basis of the specular reflection coefficient of the model, it is possible to obtain a specular reflection intensity.
(7)輝度の上限又は下限値の設定について
推定部4の処理において輝度の上限又は下限に達していることを判断(例えば上限に達することによるハイライト領域Reの判断)基準として用いた。当該上限又は下限は、画素値の所定範囲(例えば8ビットで画素を表現する場合であれば、上限255(白飛びの状態)、下限0(真っ黒の状態))として設定してもよいし、外観情報AP(j)に対する追加情報として、参照画像RP(j)の各画素位置(x,y)ごとに定義される値(法線マップN(j)と同様にマップとして定義される値)として設定しておいてもよい。
(7) Setting of upper limit or lower limit value of luminance In the processing of the estimation unit 4, it is used as a criterion for determining that the upper limit or lower limit of the luminance has been reached (for example, determination of the highlight area Re due to reaching the upper limit). The upper limit or lower limit may be set as a predetermined range of pixel values (for example, when expressing a pixel with 8 bits, upper limit 255 (out-of-white state), lower limit 0 (bright black state)), As additional information for the appearance information AP (j), a value defined for each pixel position (x, y) of the reference image RP (j) (a value defined as a map similar to the normal map N (j)) It may be set as.
(8)ハードウェア構成について
図12は、図1に示す光源推定装置10及び図11に示す重畳装置20をそれぞれ実現可能な機器のハードウェア構成の一例を示す図である。機器30は、CPU(中央演算装置)31、当該CPU31にワークエリアを提供する主記憶装置32、ハードディスクやSSDその他で構成可能な補助記憶装置33、キーボード、マウス、タッチパネルその他といったユーザからの入力を受け取る入力インタフェース34、ネットワークに接続して通信を行うための通信インタフェース35、表示を行うディスプレイ36、カメラ37及びこれらを接続するバスBを備える。
(8) Hardware Configuration FIG. 12 is a diagram illustrating an example of a hardware configuration of devices capable of realizing the light source estimation device 10 illustrated in FIG. 1 and the superimposing device 20 illustrated in FIG. The device 30 receives input from a user such as a CPU (Central Processing Unit) 31, a main storage device 32 that provides a work area for the CPU 31, an auxiliary storage device 33 that can be configured with a hard disk, an SSD, and the like, a keyboard, a mouse, a touch panel, and the like. An input interface 34 for receiving, a communication interface 35 for connecting to a network for communication, a display 36 for displaying, a camera 37, and a bus B for connecting them are provided.
図1に示す光源推定装置10及び図11に示す重畳装置20の各部の処理はそれぞれ、当該処理を実行させるプログラムを読み込んで実行するCPU31によって実現することができるが、任意の一部の処理を図12には不図示の専用回路において実現するようにしてもよい。撮像部1は、当該ハードウェアとしてのカメラ37によって実現できる。 The processing of each unit of the light source estimation device 10 shown in FIG. 1 and the superimposing device 20 shown in FIG. 11 can be realized by the CPU 31 that reads and executes a program for executing the processing. It may be realized in a dedicated circuit not shown in FIG. The imaging unit 1 can be realized by the camera 37 as the hardware.
(9)構成の変形例について
図1に示す光源推定装置10及び図11に示す重畳装置20の各部のうち任意の一部分は、外部機器において実現される機能として実現するようにしてもよい。例えば、重畳装置20の構成において、撮像部1のみをユーザ端末に実装し、その他の機能部をサーバに実装し、ユーザ端末から撮像画像をサーバへと送信し、サーバの重畳部6で得られた重畳画像をユーザ端末1へと返信して、ユーザ端末において重畳画像の表示を行ってもよい。また、光源推定装置10において撮像部1は省略し、撮像画像を認識部2において受信して以降の処理を実現するようにしてもよい。
(9) Modification of Configuration Arbitrary portions of the components of the light source estimation device 10 shown in FIG. 1 and the superimposing device 20 shown in FIG. 11 may be realized as functions realized in an external device. For example, in the configuration of the superimposing device 20, only the imaging unit 1 is mounted on the user terminal, the other functional units are mounted on the server, and the captured image is transmitted from the user terminal to the server. The superimposed image may be returned to the user terminal 1 and the superimposed image may be displayed on the user terminal. Further, the imaging unit 1 in the light source estimation device 10 may be omitted, and the subsequent processing may be realized by receiving the captured image in the recognition unit 2.
10…光源推定装置、1…撮像部、2…認識部、3…補正部、4…推定部、41…環境光推定部、42…近接光源推定部、5…記憶部、51…特徴情報記憶部、52…外観情報記憶部 DESCRIPTION OF SYMBOLS 10 ... Light source estimation apparatus, 1 ... Imaging part, 2 ... Recognition part, 3 ... Correction part, 4 ... Estimation part, 41 ... Ambient light estimation part, 42 ... Proximity light source estimation part, 5 ... Storage part, 51 ... Feature information storage Part, 52 ... Appearance information storage part
Claims (12)
前記認識された位置姿勢で見えている状態から、前記特定された対象を所定位置姿勢のカメラで所定光源状態において撮像した際の所定の基準画像における、当該所定位置姿勢において見えている状態へと、前記撮像画像における前記特定された対象の領域を補正して補正領域を得る補正部と、
前記補正領域と前記所定の基準画像とを対比することにより、前記撮像画像における前記撮像されている対象に対する光源情報を推定する推定部と、を備えることを特徴とする光源推定装置。 A recognition unit that identifies a target imaged from a captured image and recognizes a position and orientation of the identified target with respect to the camera that acquired the captured image;
From the state of being seen in the recognized position and orientation to the state of being seen in the predetermined position and orientation in a predetermined reference image when the identified object is imaged in a predetermined light source state with a camera of the predetermined position and orientation A correction unit that corrects the specified target area in the captured image to obtain a correction area;
A light source estimation device comprising: an estimation unit configured to estimate light source information for the imaged target in the captured image by comparing the correction region with the predetermined reference image.
前記推定部は、前記補正領域と前記所定の基準画像とで位置の対応する画素同士を対比し、前記所定の基準画像の第一画素の値から前記補正領域の第二画素の値への変位量を算出し、当該変位量と前記所定の法線マップとに基づいて、前記撮像画像における環境光及び/若しくは近接光源の強度、または、近接光源の方向を推定することを特徴とする請求項1ないし5のいずれかに記載の光源推定装置。 The estimation unit considers a predetermined normal map in which a surface shape of the identified target is reflected, and compares the correction region with the predetermined reference image, thereby capturing the image in the captured image. The light source information for the target
The estimation unit compares pixels corresponding to positions in the correction area and the predetermined reference image, and shifts from a value of the first pixel of the predetermined reference image to a value of the second pixel of the correction area. The amount of the ambient light and / or the proximity light source in the captured image or the direction of the proximity light source is estimated based on the amount of displacement and the predetermined normal map. The light source estimation apparatus according to any one of 1 to 5.
前記補正領域の第二画素のうち値が所定の上限値に達しているものを、または、
前記補正領域と前記所定の基準画像とで位置の対応する画素同士を対比し、前記所定の基準画像の第一画素の値から前記補正領域の第二画素の値への変位量を求め、当該変位量が所定閾値を超えているものを、
前記撮像画像における近接光源の影響が大きいハイライト領域に属するものとして推定し、当該ハイライト領域に基づいて前記撮像画像における近接光源の強度及び/又は方向を推定する請求項1ないし7のいずれかに記載の光源推定装置。 The estimation unit includes
Among the second pixels in the correction area, the value has reached a predetermined upper limit value, or
The pixels corresponding to the positions in the correction area and the predetermined reference image are compared, and a displacement amount from the value of the first pixel of the predetermined reference image to the value of the second pixel of the correction area is determined. If the amount of displacement exceeds a predetermined threshold,
8. The apparatus according to claim 1, wherein it is estimated that it belongs to a highlight area where the influence of the proximity light source in the captured image is large, and the intensity and / or direction of the proximity light source in the captured image is estimated based on the highlight area. The light source estimation device according to 1.
前記ハイライト領域における前記所定の法線マップの方向と、前記撮像画像を取得したカメラ位置から前記ハイライト領域へと向かう視線方向と、に基づいて前記撮像画像における近接光源の方向を推定する請求項8に記載の光源推定装置。 The estimation unit considers a predetermined normal map in which a surface shape of the identified target is reflected, and compares the correction region with the predetermined reference image, thereby capturing the image in the captured image. The light source information for the target
A direction of a proximity light source in the captured image is estimated based on a direction of the predetermined normal map in the highlight area and a line-of-sight direction from the camera position where the captured image is acquired toward the highlight area. Item 9. The light source estimation device according to Item 8.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016169860A JP6579659B2 (en) | 2016-08-31 | 2016-08-31 | Light source estimation apparatus and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016169860A JP6579659B2 (en) | 2016-08-31 | 2016-08-31 | Light source estimation apparatus and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018036884A true JP2018036884A (en) | 2018-03-08 |
| JP6579659B2 JP6579659B2 (en) | 2019-09-25 |
Family
ID=61567506
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016169860A Active JP6579659B2 (en) | 2016-08-31 | 2016-08-31 | Light source estimation apparatus and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6579659B2 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019207657A (en) * | 2018-05-30 | 2019-12-05 | Kddi株式会社 | Information processing device and program |
| CN112629499A (en) * | 2020-12-03 | 2021-04-09 | 合肥富煌君达高科信息技术有限公司 | Hand-eye calibration repeated positioning precision measuring method and device based on line scanner |
| JP2021107983A (en) * | 2019-12-27 | 2021-07-29 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2023007558A (en) * | 2021-07-02 | 2023-01-19 | トヨタ自動車株式会社 | Apparatus and method for updating learning model for image inspection |
| JP2024003948A (en) * | 2022-06-28 | 2024-01-16 | トヨタ自動車株式会社 | Light source estimation system |
| WO2024214323A1 (en) * | 2023-04-10 | 2024-10-17 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04361386A (en) * | 1991-06-07 | 1992-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Highlight area extraction device of color image |
| JP2001084380A (en) * | 1999-07-12 | 2001-03-30 | Fuji Photo Film Co Ltd | Light source direction estimation method and apparatus, and recording medium |
| JP2011175600A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Recognition apparatus and method thereof, and computer program |
| JP2016072692A (en) * | 2014-09-26 | 2016-05-09 | キヤノン株式会社 | Image processing apparatus and control method thereof |
-
2016
- 2016-08-31 JP JP2016169860A patent/JP6579659B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04361386A (en) * | 1991-06-07 | 1992-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Highlight area extraction device of color image |
| JP2001084380A (en) * | 1999-07-12 | 2001-03-30 | Fuji Photo Film Co Ltd | Light source direction estimation method and apparatus, and recording medium |
| JP2011175600A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Recognition apparatus and method thereof, and computer program |
| JP2016072692A (en) * | 2014-09-26 | 2016-05-09 | キヤノン株式会社 | Image processing apparatus and control method thereof |
Non-Patent Citations (1)
| Title |
|---|
| 河村 拓哉 他: "拡散反射板を用いた光源の放射輝度分布の計測", 情報処理学会研究報告 研究報告 コンピュータビジョンとイメージメディア(CVIM), JPN6019031785, 15 April 2013 (2013-04-15), JP, pages 1 - 5, ISSN: 0004097143 * |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019207657A (en) * | 2018-05-30 | 2019-12-05 | Kddi株式会社 | Information processing device and program |
| JP2021107983A (en) * | 2019-12-27 | 2021-07-29 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP7479840B2 (en) | 2019-12-27 | 2024-05-09 | キヤノン株式会社 | Image processing device, image processing method, and program |
| CN112629499A (en) * | 2020-12-03 | 2021-04-09 | 合肥富煌君达高科信息技术有限公司 | Hand-eye calibration repeated positioning precision measuring method and device based on line scanner |
| CN112629499B (en) * | 2020-12-03 | 2023-01-17 | 合肥中科君达视界技术股份有限公司 | Hand-eye calibration repeated positioning precision measuring method and device based on line scanner |
| JP2023007558A (en) * | 2021-07-02 | 2023-01-19 | トヨタ自動車株式会社 | Apparatus and method for updating learning model for image inspection |
| JP7753695B2 (en) | 2021-07-02 | 2025-10-15 | トヨタ自動車株式会社 | Apparatus and method for updating learning models for image inspection |
| JP2024003948A (en) * | 2022-06-28 | 2024-01-16 | トヨタ自動車株式会社 | Light source estimation system |
| JP7632404B2 (en) | 2022-06-28 | 2025-02-19 | トヨタ自動車株式会社 | Light Source Estimation System |
| WO2024214323A1 (en) * | 2023-04-10 | 2024-10-17 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6579659B2 (en) | 2019-09-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11816829B1 (en) | Collaborative disparity decomposition | |
| JP6579659B2 (en) | Light source estimation apparatus and program | |
| US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
| CN105741346B (en) | Method for calibrating a depth camera | |
| Stamos et al. | Integration of range and image sensing for photo-realistic 3D modeling | |
| AU2017225023A1 (en) | System and method for determining a camera pose | |
| WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
| US9147279B1 (en) | Systems and methods for merging textures | |
| JP6464938B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP6515039B2 (en) | Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image | |
| TW201724031A (en) | Augmented reality method, system and computer-readable non-transitory storage medium | |
| AU2019201822A1 (en) | BRDF scanning using an imaging capture system | |
| Chatterjee et al. | Noise in structured-light stereo depth cameras: Modeling and its applications | |
| CN111553969B (en) | A Gradient Field-Based Texture Mapping Method, Medium, Terminal and Device | |
| TWI595446B (en) | Method for improving the quality of shadowed edges based on depth camera in augmented reality | |
| Novacheva | Building roof reconstruction from LiDAR data and aerial images through plane extraction and colour edge detection | |
| JP7061092B2 (en) | Image processing equipment and programs | |
| JP6835665B2 (en) | Information processing equipment and programs | |
| Paudel et al. | Localization of 2D cameras in a known environment using direct 2D-3D registration | |
| Yin et al. | Improving Depth Maps by Nonlinear Diffusion. | |
| Guan et al. | Estimation of camera pose with respect to terrestrial LiDAR data | |
| Liu et al. | Albedo assisted high-quality shape recovery from 4D light fields | |
| Kirchhof | Linear constraints in two-view multiple homography estimation of uncalibrated scenes | |
| CN121462726A (en) | Projection processing method, computing device and projection system | |
| CN120355794A (en) | Panoramic image posture optimization method, system and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181009 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190807 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190821 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190823 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6579659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |