JP2012191380A - Camera, image conversion apparatus, and image conversion method - Google Patents
Camera, image conversion apparatus, and image conversion method Download PDFInfo
- Publication number
- JP2012191380A JP2012191380A JP2011052391A JP2011052391A JP2012191380A JP 2012191380 A JP2012191380 A JP 2012191380A JP 2011052391 A JP2011052391 A JP 2011052391A JP 2011052391 A JP2011052391 A JP 2011052391A JP 2012191380 A JP2012191380 A JP 2012191380A
- Authority
- JP
- Japan
- Prior art keywords
- image
- spatial model
- model
- conversion unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、魚眼レンズ等の広角レンズを用いて撮像された歪曲画像から、見た目上自然な違和感の少ない画像を得る、カメラ、画像変換装置、及び画像変換方法に関する。 The present invention relates to a camera, an image conversion apparatus, and an image conversion method for obtaining an image with a natural and unnatural feeling from a distorted image captured using a wide-angle lens such as a fisheye lens.
魚眼レンズ等の広角レンズを用いて撮像した画像は、一般に、画像の周縁部ほど歪曲した画像となる。従来、このような歪曲画像に対しては、歪み補正が施される場合が多い。 An image captured using a wide-angle lens such as a fisheye lens is generally an image that is distorted toward the peripheral edge of the image. Conventionally, distortion correction is often applied to such a distorted image.
図1に、従来の歪み補正の様子を示す。図1は、互いに平行な白黒の横縞模様を広角レンズを用いて撮像した画像を示す。図1Aは、歪み補正前の画像を示し、光学歪みが原因となって、周縁部ほど歪曲していることが分かる。図1Bは、歪み補正後の画像を示し、周縁部の歪曲は解消されているが、周縁部が拡大されてしまうので、不自然な画像になってしまう。 FIG. 1 shows a state of conventional distortion correction. FIG. 1 shows an image obtained by capturing a black and white horizontal stripe pattern parallel to each other using a wide-angle lens. FIG. 1A shows an image before distortion correction, and it can be seen that the peripheral portion is distorted due to optical distortion. FIG. 1B shows an image after distortion correction. Distortion at the peripheral portion is eliminated, but the peripheral portion is enlarged, resulting in an unnatural image.
そこで、従来、歪みを補正しつつ、できるだけ自然な画像を得るための歪み補正技術が多数提案されている。 Therefore, conventionally, many distortion correction techniques for obtaining as natural an image as possible while correcting the distortion have been proposed.
例えば、特許文献1には、歪曲画像を所定の投影面に投影し、その投影された画像に対して、原点からの距離に応じた変換を施すことにより、自然な違和感の少ない画像を得る技術が開示されている。 For example, Patent Document 1 discloses a technique for obtaining a natural image with little sense of incongruity by projecting a distorted image onto a predetermined projection surface, and performing conversion according to the distance from the origin on the projected image. Is disclosed.
また、特許文献2には、仮想物体面上の画素位置を補正面上に投影し、補正面上に投影された画素位置をさらに表示面上に再投影することで、左右両端での極端な拡大を防止して、自然な画像を得る技術が開示されている。 In Patent Document 2, the pixel position on the virtual object plane is projected on the correction plane, and the pixel position projected on the correction plane is further reprojected on the display plane. A technology for preventing enlargement and obtaining a natural image is disclosed.
また、特許文献3には、部分的に画像の拡大率を可変させることで、見易い画像を得る技術が開示されている。特許文献3では、例えば、広角レンズを用いたときに小さく表示されることが多い、画像中央部分の画像(人等)の拡大率を大きくすることで、見易い画像を得る。 Patent Document 3 discloses a technique for obtaining an easy-to-see image by partially changing the enlargement ratio of the image. In Patent Document 3, for example, an easy-to-see image is obtained by increasing the enlargement ratio of an image (such as a person) at the center of the image that is often displayed small when a wide-angle lens is used.
ところで、上記特許文献1−3に記載の技術は、いずれも、歪曲画像から自然な違和感の少ない画像を得る点では、ある程度の効果があると考えられる。しかしながら、より一層自然で違和感の少ない表示画像を得ることが望まれる。 By the way, all of the techniques described in Patent Documents 1-3 are considered to have a certain effect in terms of obtaining an image having a natural and uncomfortable feeling from a distorted image. However, it is desired to obtain a display image that is even more natural and less uncomfortable.
本発明は、どのような画像が自然に見えるかを十分に検討した結果、なされたものである。 The present invention has been made as a result of a thorough examination of what kind of images look natural.
本発明は、従来には無かった新規な構成を採用することで、広角レンズを用いて撮像された歪曲画像から、従来に比してより自然でより違和感の少ない(見易い)ディスプレイ画像を得ることができる、カメラ、画像変換装置、及び画像変換方法を提供することを目的とする。 The present invention obtains a display image that is more natural and less uncomfortable (easy to see) than a conventional image from a distorted image captured by using a wide-angle lens by adopting a novel configuration that has never existed before. An object is to provide a camera, an image conversion apparatus, and an image conversion method.
本発明のカメラの一つの態様は、被写体を結像するレンズと、前記レンズにより結像された光学像を電気信号に変換する撮像素子とを有し、撮像画像を得る撮像部と、空間モデルを格納する空間モデル格納部と、前記撮像画像を前記空間モデルに投影するようにマッピングする投影変換部と、前記空間モデルにマッピングされた画像を用いて、ディスプレイ画像を得る平面変換部と、を具備する。 One aspect of the camera of the present invention includes a lens that forms an image of a subject, an image pickup device that converts an optical image formed by the lens into an electric signal, an image pickup unit that obtains a picked-up image, and a spatial model A spatial model storage unit that stores the image, a projection conversion unit that maps the captured image so as to project the captured image onto the spatial model, and a plane conversion unit that obtains a display image using the image mapped to the spatial model. It has.
本発明の画像変換装置の一つの態様は、撮像空間の空間モデルを格納する空間モデル格納部と、撮像画像を前記空間モデルに投影するようにマッピングする投影変換部と、前記空間モデルにマッピングされた画像を用いて、ディスプレイ画像を得る平面変換部と、を具備する。 One aspect of the image conversion apparatus of the present invention is a spatial model storage unit that stores a spatial model of an imaging space, a projection conversion unit that maps so as to project a captured image onto the spatial model, and is mapped to the spatial model. And a plane conversion unit that obtains a display image using the obtained image.
本発明によれば、広角レンズを用いて撮像された歪曲画像から、従来に比してより自然でより違和感の少ないディスプレイ画像を得ることができる。 According to the present invention, it is possible to obtain a display image that is more natural and less uncomfortable than a conventional image, from a distorted image captured using a wide-angle lens.
以下、本発明の実施の形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[1]構成
図2は、本実施の形態におけるカメラの構成を示す。カメラ100は、撮像部101を有する。撮像部101は、魚眼レンズ等の広角レンズ102を有し、この広角レンズ102によって撮像素子103に被写体像を結像させる。撮像素子103は、CCD等からなり、結像された光学像を電気信号に変換することにより、撮像画像信号を得る。カメラ処理部104は、撮像素子103から出力された撮像画像信号に対してγ処理、マトリックス処理等を施す。カメラ処理部104は、処理後の撮像画像信号を球面逆投影変換部105に出力する。
[1] Configuration FIG. 2 shows the configuration of the camera in the present embodiment. The camera 100 has an imaging unit 101. The imaging unit 101 includes a wide-angle lens 102 such as a fisheye lens, and forms an object image on the imaging element 103 by the wide-angle lens 102. The image sensor 103 is composed of a CCD or the like, and obtains a captured image signal by converting the formed optical image into an electric signal. The camera processing unit 104 performs γ processing, matrix processing, and the like on the captured image signal output from the image sensor 103. The camera processing unit 104 outputs the processed captured image signal to the spherical back projection conversion unit 105.
球面逆投影変換部105は、カメラ処理部104から画素座標が2次元である撮像画像信号を入力すると共に、レンズモデル選択部106からレンズモデルを入力する。レンズモデルとは、撮像時に使用された広角レンズ102の焦点距離やレンズの投影変換の特性(fθ、2ftanθ/2、fsinθなど)等を示す情報である。このレンズモデルは、広角レンズ102を交換した場合や、ユーザ操作によって焦点距離等が変更された場合に、変更される。レンズモデル選択部106は、広角レンズ102自体が交換された場合にレンズモデル(投影変換等の情報)を変更する。また、レンズモデル選択部106は、操作入力部107から設定部108を介して入力されるユーザ操作信号に応じて、レンズモデル(焦点距離、投影変換等)を変更する。 The spherical backprojection conversion unit 105 inputs a captured image signal whose pixel coordinates are two-dimensional from the camera processing unit 104 and inputs a lens model from the lens model selection unit 106. The lens model is information indicating the focal length of the wide-angle lens 102 used at the time of imaging, the lens projection conversion characteristics (such as fθ, 2ftanθ / 2, and fsinθ). This lens model is changed when the wide-angle lens 102 is replaced or when the focal length or the like is changed by a user operation. The lens model selection unit 106 changes the lens model (information such as projection conversion) when the wide-angle lens 102 itself is replaced. The lens model selection unit 106 changes the lens model (focal length, projection conversion, etc.) in accordance with a user operation signal input from the operation input unit 107 via the setting unit 108.
操作入力部107は、タッチパネルや操作ボタン等で構成されており、ユーザがカメラ操作を行う部分である。 The operation input unit 107 includes a touch panel, operation buttons, and the like, and is a part where the user operates the camera.
球面逆投影変換部105は、撮像素子103上に投影された2次元画像を、仮想的に広角レンズ102の全面の被写体からレンズへの入射角を保存して半球面に投影する。広角レンズ102が魚眼レンズ等の画角180度のレンズの場合、球面逆投影変換部105は、半球面画像を得る。この変換は、レンズモデルを用いた演算により行う。 The spherical backprojection converter 105 virtually projects the two-dimensional image projected on the image sensor 103 onto the hemisphere while preserving the incident angle from the subject on the entire surface of the wide-angle lens 102 to the lens. When the wide-angle lens 102 is a lens having an angle of view of 180 degrees such as a fisheye lens, the spherical backprojection conversion unit 105 obtains a hemispherical image. This conversion is performed by calculation using a lens model.
そもそも、広角レンズ102を通過した光が2次元の撮像素子103に投影される現象は、幾何学的な現象なので、撮像時に使用された広角レンズ102のレンズモデルを用いれば、撮像素子103の各位置に結像された画像が広角レンズ102のどの位置からのものなのかを計算により容易に求めることができる。 In the first place, the phenomenon in which the light that has passed through the wide-angle lens 102 is projected onto the two-dimensional image sensor 103 is a geometric phenomenon. Therefore, if the lens model of the wide-angle lens 102 used at the time of imaging is used, From which position of the wide-angle lens 102 the image formed at the position can be easily obtained by calculation.
例えば図3に示すように、撮像素子103上に結像された像高rは、正射影(図3A)、等距離射影(図3B)、又は、立体射影(図3C)などのレンズの投影変換の式を用いた計算により、球面上の点に変換できる。なお、図3において、fは焦点距離を示す。例えば、正射影(図3A)を用いる場合、r=f×sinθのうちの、rとfは既に与えられているので、θを算出すれば球面上の点を容易に求めることができる。なお、このような一旦結像された2次元座標上の画像を、球面上に逆投影する計算については、例えば特許文献2にも記載されている。球面逆投影変換部105によって球面上に投影された撮像画像(以下これを球面画像と呼ぶ)は、投影変換部109に送出される。 For example, as shown in FIG. 3, the image height r formed on the image sensor 103 is projected by a lens such as orthographic projection (FIG. 3A), equidistant projection (FIG. 3B), or stereoscopic projection (FIG. 3C). A point on the sphere can be converted by calculation using a conversion formula. In FIG. 3, f indicates the focal length. For example, when orthographic projection (FIG. 3A) is used, since r and f are already given out of r = f × sin θ, a point on the spherical surface can be easily obtained by calculating θ. Note that the calculation for back projecting an image once formed on a two-dimensional coordinate onto a spherical surface is also described in Patent Document 2, for example. The captured image projected on the spherical surface by the spherical back projection conversion unit 105 (hereinafter referred to as a spherical image) is sent to the projection conversion unit 109.
投影変換部109は、空間モデル選択部110から空間モデルを入力し、この空間モデルに撮像画像を投影する。 The projection conversion unit 109 receives a space model from the space model selection unit 110 and projects a captured image on the space model.
空間モデル選択部110は、空間モデル格納部111に格納された複数の空間モデルの中から、設定部108によって設定された空間モデルを選択して、投影変換部109に出力する。空間モデル選択部110によって選択される空間モデルは、操作入力部107からユーザによって選択された空間モデルで、設定部108によって設定される。設定部108によって空間モデルを設定する場合、例えば、撮像部101によって得られた撮像信号を設定部108に入力し、設定部108が撮像信号に最も適した空間モデルを設定するとよい。 The spatial model selection unit 110 selects the spatial model set by the setting unit 108 from among a plurality of spatial models stored in the spatial model storage unit 111 and outputs the selected spatial model to the projection conversion unit 109. The spatial model selected by the spatial model selection unit 110 is a spatial model selected by the user from the operation input unit 107 and is set by the setting unit 108. When the spatial model is set by the setting unit 108, for example, an imaging signal obtained by the imaging unit 101 may be input to the setting unit 108, and the setting unit 108 may set a spatial model most suitable for the imaging signal.
空間モデルは、カメラ100が撮像する撮像空間を近似した3次元空間モデルであり、所謂テンプレートである。例えば撮像空間が室内である場合、空間モデルは、撮像空間内に存在する、床、天井、壁、テーブル等の3次元位置を近似したものである。また、撮像空間が車両前方の場合、空間モデルは、撮像空間の、道路、建物、注目面等の3次元位置を近似したものである。また、撮像空間が監視用途の空間の場合、空間モデルは、前面、側面、天井(上面)、床(下面)を近似したものである。空間モデル格納部111には、想定される撮像空間の空間モデルが予め格納されている。 The space model is a so-called template that is a three-dimensional space model that approximates an imaging space captured by the camera 100. For example, when the imaging space is indoors, the space model approximates a three-dimensional position such as a floor, a ceiling, a wall, and a table existing in the imaging space. When the imaging space is in front of the vehicle, the space model approximates a three-dimensional position of the imaging space such as a road, a building, and a surface of interest. When the imaging space is a monitoring space, the space model approximates the front surface, the side surface, the ceiling (upper surface), and the floor (lower surface). In the space model storage unit 111, a space model of an assumed imaging space is stored in advance.
図4Aに空間モデルの例を示し、図4Bに投影変換部109によって行われる空間モデルへの投影の様子を示す。 FIG. 4A shows an example of a space model, and FIG. 4B shows a state of projection onto the space model performed by the projection conversion unit 109.
図4Aに示した空間モデルの例は、撮像空間が室内であった場合の空間モデルであり、半円柱における上下の半円盤がそれぞれ天井と、床または机とを表し、半円柱が正面と側面(壁など)を表す。 The example of the space model shown in FIG. 4A is a space model when the imaging space is indoors. The upper and lower half disks in the half cylinder represent the ceiling, the floor, or the desk, respectively, and the half cylinder is the front and side surfaces. (For example, a wall).
投影変換部109は、図4Bに示すように、球面逆投影変換部105によって得られた球面画像を空間モデル内に配置し、半球面の中心を投影点として球面画像を空間モデル上に投影(マッピング)する。投影変換部109は、この空間モデル上への投影を行い平面変換部112に出力する。 As shown in FIG. 4B, the projection conversion unit 109 arranges the spherical image obtained by the spherical back projection conversion unit 105 in the spatial model, and projects the spherical image onto the spatial model with the center of the hemisphere as the projection point ( Mapping). The projection conversion unit 109 performs projection on the space model and outputs the result to the plane conversion unit 112.
平面変換部112は、空間モデルにマッピングされた画像に基づいて2次元ディスプレイ画像を得る。本実施の形態では、空間モデルにマッピングされた画像から、2次元ディスプレイ画像を得るための方法として、次の2つの方法を提示する。 The plane conversion unit 112 obtains a two-dimensional display image based on the image mapped to the space model. In the present embodiment, the following two methods are presented as methods for obtaining a two-dimensional display image from an image mapped to a spatial model.
方法(i) : 空間モデルにマッピングされた立体面の画像を平面展開し、平面展開した画像において、2次元ディスプレイ画像に対して画像が存在しない部分は平面展開した画像を拡大縮小して変形することで、2次元ディスプレイ画像を得る、方法。 Method (i): An image of a three-dimensional surface mapped to a spatial model is developed in a plane, and in a plane-developed image, a portion where no image exists in the two-dimensional display image is deformed by enlarging / reducing the plane-developed image. A method for obtaining a two-dimensional display image.
この方法においては、平面変換部112は、図5A、B、Cに示したようにして、3次元の空間モデルを2次元の平面に展開する。 In this method, the plane conversion unit 112 develops a three-dimensional space model on a two-dimensional plane as shown in FIGS.
このように、平面変換部112は、3次元の空間モデルに投影した画像から図5Cに示すような2次元ディスプレイ画像を形成する。この際、図からも明らかなように、展開画像は、上下面と側面との間に隙間が生じるので(つまりディスプレイ画像に対して画像が存在しない部分が生じるので)、図中の矢印で示すように、この隙間を埋めるように上下面及び側面を引き延ばすことにより、図5Cに示すような2次元ディスプレイ画像を得る。 Thus, the plane conversion unit 112 forms a two-dimensional display image as shown in FIG. 5C from the image projected onto the three-dimensional space model. At this time, as is apparent from the drawing, the developed image has a gap between the upper and lower surfaces and the side surface (that is, a portion where no image is present with respect to the display image). Thus, the two-dimensional display image as shown in FIG. 5C is obtained by extending the upper and lower surfaces and the side surfaces so as to fill this gap.
方法(ii) : 平面変換部112は、先ず、図6Aに示すように、空間モデルにマッピングされた画像をある視点から見た場合における、各画素位置への、横方向の視線角度θと、縦方向の視線角度φと、を算出する。次に、平面変換部112は、図6Bに示すように、θ及びφを2次元ディスプレイのx座標及びy座標に対応させるように座標変換することにより、空間モデルにマッピングされた画像から2次元ディスプレイ画像を得る。 Method (ii): First, as shown in FIG. 6A, the plane conversion unit 112, when viewing the image mapped to the spatial model from a certain viewpoint, the horizontal viewing angle θ to each pixel position, The gaze angle φ in the vertical direction is calculated. Next, as shown in FIG. 6B, the plane conversion unit 112 performs two-dimensional conversion from the image mapped to the spatial model by performing coordinate conversion so that θ and φ correspond to the x coordinate and the y coordinate of the two-dimensional display. Get a display image.
[2]空間モデルの例
図7に、カメラ100により得られる2次元ディスプレイ画像の例を示す。
[2] Example of spatial model FIG. 7 shows an example of a two-dimensional display image obtained by the camera 100.
右側上段の2次元ディスプレイ画像は、テレビ会議カメラ用の2次元ディスプレイ画像である。この画像は、テレビ会議カメラ用の空間モデルを用いて得ることができる。つまり、投影変換部109によって半球面逆投影画像をテレビ会議画像用の空間モデルに投影し、平面変換部112によって2次元ディスプレイ画像に変換したものが、右側上段の2次元ディスプレイ画像である。図の例では、2次元ディスプレイ画像は、空間モデルを基に、机部分11、壁部分(人物部分或いは注目部分と言ってもよい)12、天井部分13に分かれている。 The two-dimensional display image on the upper right side is a two-dimensional display image for a video conference camera. This image can be obtained using a spatial model for a video conference camera. That is, the right-side upper two-dimensional display image is obtained by projecting the hemispherical backprojection image onto the space model for the video conference image by the projection conversion unit 109 and converting it into a two-dimensional display image by the plane conversion unit 112. In the example shown in the figure, the two-dimensional display image is divided into a desk part 11, a wall part (may be called a person part or a target part) 12, and a ceiling part 13 based on a spatial model.
右側中段の2次元ディスプレイ画像は、車載カメラ用の2次元ディスプレイ画像である。この画像は、車載カメラ用の空間モデルを用いて得ることができる。つまり、投影変換部109によって半球面逆投影画像を車載カメラ用の空間モデルに投影し、平面変換部112によって2次元ディスプレイ画像に変換したものが、右側中段の2次元ディスプレイ画像である。図の例では、2次元ディスプレイ画像は、空間モデルを基に、道路部分21、建物部分22、空部分23に分かれている。 The two-dimensional display image in the right middle stage is a two-dimensional display image for an in-vehicle camera. This image can be obtained using a space model for an in-vehicle camera. In other words, the right-side middle two-dimensional display image is obtained by projecting the hemispherical backprojection image onto the space model for the vehicle-mounted camera by the projection conversion unit 109 and converting it into a two-dimensional display image by the plane conversion unit 112. In the example of the figure, the two-dimensional display image is divided into a road portion 21, a building portion 22, and an empty portion 23 based on a space model.
右側下段の2次元ディスプレイ画像は、監視カメラ用の2次元ディスプレイ画像である。この画像は、監視カメラ用の空間モデルを用いて得ることができる。つまり、投影変換部109によって半球面逆投影画像を監視カメラ用の空間モデルに投影し、平面変換部112によって2次元ディスプレイ画像に変換したものが、右側下段の2次元ディスプレイ画像である。図の例では、2次元ディスプレイ画像は、空間モデルを基に、正面部分(注目部分と言ってもよい)31、側面部分32、下面部分33、上面部分34に分かれている。 The two-dimensional display image on the lower right side is a two-dimensional display image for a surveillance camera. This image can be obtained using a spatial model for a surveillance camera. That is, the lower right two-dimensional display image is obtained by projecting the hemispherical backprojection image onto the space model for the surveillance camera by the projection conversion unit 109 and converting it into a two-dimensional display image by the plane conversion unit 112. In the example shown in the figure, the two-dimensional display image is divided into a front portion (may be referred to as a portion of interest) 31, a side portion 32, a lower portion 33, and an upper portion 34 based on a spatial model.
図7の右側上段の2次元ディスプレイ画像を形成するための、テレビ会議用の空間モデルは、図4に示した空間モデルと同様である。図4と異なるのは、図4では空間モデルの下面が床であったが、テレビ会議用の空間モデルでは、下面が机である点である。 The spatial model for video conference for forming the two-dimensional display image on the upper right side of FIG. 7 is the same as the spatial model shown in FIG. 4 is different from FIG. 4 in that the lower surface of the space model is a floor in FIG. 4, but the lower surface of the space model for video conference is a desk.
図8に、車載カメラ用の空間モデルの例(図8A)と、その空間モデルを用いて得られる2次元ディスプレイ画像の例(図8B)と、を示す。図8Aの空間モデルは、道路に相当する下面m1と、空に相当する上面m2と、建物に相当する側面m3と、を有する。これに加えて、図8Aの空間モデルは、注目面m4を有する。注目面m4の前面側つまり視点P0側には、図4Bに示したような半球面の逆投影画像が配置される。つまり、逆投影画像は、注目面m4と視点P0との間に配置される。下面m1及び上面m2は、矢印で示す上下方向に調整可能である。側面m3は、矢印で示す左右方向に調整可能である。注目面m4は、視点P0に近づく方向及び視点P0から離れる方向に調整可能である。視点P0は、上下左右前後方向に調整可能である。これらの調整は、例えば投影変換部109によって行えばよい。 FIG. 8 shows an example of a space model for an in-vehicle camera (FIG. 8A) and an example of a two-dimensional display image obtained using the space model (FIG. 8B). The space model in FIG. 8A has a lower surface m1 corresponding to a road, an upper surface m2 corresponding to the sky, and a side surface m3 corresponding to a building. In addition to this, the spatial model of FIG. 8A has a surface of interest m4. A hemispherical backprojection image as shown in FIG. 4B is arranged on the front side of the attention surface m4, that is, the viewpoint P0 side. That is, the backprojected image is arranged between the attention surface m4 and the viewpoint P0. The lower surface m1 and the upper surface m2 can be adjusted in the vertical direction indicated by arrows. The side surface m3 can be adjusted in the left-right direction indicated by the arrow. The attention surface m4 can be adjusted in a direction approaching the viewpoint P0 and a direction away from the viewpoint P0. The viewpoint P0 can be adjusted in the vertical and horizontal directions. These adjustments may be performed by the projection conversion unit 109, for example.
図8Aの空間モデルを用いて得られた、図8Bの2次元ディスプレイ画像においては、実質上、符号25で示す領域が最も注目される領域となる。この領域25の大きさは、視点P0からの注目面m4の距離を調整することで調整可能である。具体的には、注目面m4が視点P0から近くに配置されるほど、注目領域(正面領域と言ってもよい)25の面積は大きくなる。なお、視点P0を上方に移動させるほど、俯瞰した画像を得ることができる。また、ズームで拡大する場合は視点を空間モデルに近づける。 In the two-dimensional display image of FIG. 8B obtained by using the spatial model of FIG. 8A, the region indicated by reference numeral 25 is substantially the most noticeable region. The size of the region 25 can be adjusted by adjusting the distance of the attention surface m4 from the viewpoint P0. Specifically, the area of the attention area (which may be referred to as a front area) 25 increases as the attention surface m4 is arranged closer to the viewpoint P0. Note that as the viewpoint P0 is moved upward, an overhead image can be obtained. When zooming in, the viewpoint is brought closer to the space model.
図9に、監視カメラ用の空間モデルの例(図9A)と、その空間モデルを用いて得られる2次元ディスプレイ画像の例(図9B)と、を示す。図9Aの空間モデルは、床又は地面に相当する下面n1と、天井又は空に相当する上面n2と、壁等に相当する側面n3と、を有する。これに加えて、図9Aの空間モデルは、注目面(正面と言ってもよい)n4を有する。注目面n4の前面側つまり視点P0側には、図4Bに示したような半球面の逆投影画像が配置される。つまり、逆投影画像は、注目面n4と視点P0との間に配置される。下面n1及び上面n2は、矢印で示す上下方向に調整可能である。側面n3は、矢印で示す左右方向に調整可能である。注目面n4は、視点P0に近づく方向及び視点P0から離れる方向に調整可能である。視点P0は、上下左右前後方向に調整可能である。これらの調整は、投影変換部109によって行う。視点を移動させることで、空間モデルに近づいた部分を拡大し、遠ざかる部分を縮小する、変換を行うことができる。 FIG. 9 shows an example of a spatial model for a surveillance camera (FIG. 9A) and an example of a two-dimensional display image obtained using the spatial model (FIG. 9B). 9A has a lower surface n1 corresponding to a floor or the ground, an upper surface n2 corresponding to a ceiling or the sky, and a side surface n3 corresponding to a wall or the like. In addition to this, the spatial model of FIG. 9A has an attention surface (which may be referred to as a front surface) n4. A hemispherical backprojection image as shown in FIG. 4B is arranged on the front side of the attention surface n4, that is, the viewpoint P0 side. That is, the backprojected image is arranged between the attention surface n4 and the viewpoint P0. The lower surface n1 and the upper surface n2 can be adjusted in the vertical direction indicated by arrows. The side surface n3 can be adjusted in the left-right direction indicated by the arrow. The attention surface n4 can be adjusted in a direction approaching the viewpoint P0 and a direction away from the viewpoint P0. The viewpoint P0 can be adjusted in the vertical and horizontal directions. These adjustments are performed by the projection conversion unit 109. By moving the viewpoint, it is possible to perform conversion by enlarging the part that approaches the space model and reducing the part that moves away.
図9Aの空間モデルを用いて得られた、図9Bの2次元ディスプレイ画像においては、正面部分31の大きさは、視点P0からの注目面n4の距離を調整することで調整可能である。具体的には、注目面n4が視点P0から近くに配置されるほど、正面部分31の面積は大きくなる。 In the two-dimensional display image of FIG. 9B obtained using the spatial model of FIG. 9A, the size of the front portion 31 can be adjusted by adjusting the distance of the surface of interest n4 from the viewpoint P0. Specifically, the area of the front portion 31 increases as the attention surface n4 is arranged closer to the viewpoint P0.
[3]ズーム処理、及び、全周囲画像
ここで、空間モデルを構成する面を調整すること、あるいは、空間モデル内に配置する球面画像の位置を調整すること、により、ズーム処理や全周囲画像形成処理などを行うことも可能である。これらの処理について、図10〜図12を用いて説明する。
[3] Zoom processing and omnidirectional image Here, the zoom processing and the omnidirectional image can be performed by adjusting the surface constituting the spatial model or adjusting the position of the spherical image arranged in the spatial model. It is also possible to perform a forming process or the like. These processes will be described with reference to FIGS.
図10に、空間モデルを変形することでズーム処理を行う例を示す。ここで示すのは、図5で説明した、立体の空間モデルを平面に展開する方法を用いたものである。図6で説明した、視点の移動による方法とは異なるものである。図10Aにおいて投影面を投影点から遠くするほど、投影面での投影画像は大きくなり、ズーム処理が実現される。また、図10Aにおいて、空間モデルの下面を矢印で示す上方方向に移動させると、正面と下面の境界部が移動して下面が若干拡大される。この操作は、ズームの目的ではなく、下面と正面の境界を変更するために行う。図10Bは、図10Aの空間モデルを用いて得られた画像を2次元平面に展開した図を示し、図10Cは、図10Bの展開画像から得た2次元ディスプレイ画像を示す。 FIG. 10 shows an example in which zoom processing is performed by deforming a spatial model. Here, the method described in FIG. 5 for developing a three-dimensional space model on a plane is used. This is different from the method of moving the viewpoint described in FIG. In FIG. 10A, the farther the projection plane is from the projection point, the larger the projected image on the projection plane, and the zoom processing is realized. In FIG. 10A, when the lower surface of the space model is moved in the upward direction indicated by the arrow, the boundary between the front surface and the lower surface moves, and the lower surface is slightly enlarged. This operation is performed not for the purpose of zooming but to change the boundary between the lower surface and the front surface. FIG. 10B shows a diagram in which an image obtained using the spatial model of FIG. 10A is developed on a two-dimensional plane, and FIG. 10C shows a two-dimensional display image obtained from the developed image of FIG. 10B.
このように空間モデルを投影点から遠くに移動することにより、投影される画像が拡大され、表示する2次元画像上で部分的なズームを実現することができる。また、空間モデルの面が交差する境界を変更することにより、実写映像の境界部(床と壁の境界)との整合を図り、表示する2次元画像を見やすい画像(実写の被写体の境界で画像が大きく変形するが、実写映像も変化しているので、人は画像の変形に違和感を感じない)とすることができる。 Thus, by moving the space model far from the projection point, the projected image is enlarged, and partial zoom can be realized on the two-dimensional image to be displayed. In addition, by changing the boundary where the planes of the space model intersect, alignment with the boundary part of the live-action image (the boundary between the floor and the wall) is achieved, and an image that is easy to see the two-dimensional image to be displayed (the image at the boundary of the live-action subject) However, since the live-action video has also changed, a person does not feel uncomfortable with the deformation of the image.
図11に、全周囲画像(360度の視野)を形成する例を示す。先ず、図11Aに示すように、球面画像を円柱状の空間モデルの中心に配置する。なお、球面映像は前後向きの2台の魚眼レンズ(180度視野)付きの撮像部で取得する。そして、球面の中心に投影点を定めて、球面画像を円柱に投影する。次に、図11Bに示すように、図11Aの空間モデル11A1、11A2、11A3に投影した画像を2次元平面に展開する。次に、図11Cに示すように、変形(拡大縮小)して図11Bの展開画像から2次元ディスプレイ画像を得る。 FIG. 11 shows an example of forming an all-around image (360-degree field of view). First, as shown in FIG. 11A, a spherical image is arranged at the center of a cylindrical space model. Note that the spherical image is acquired by an imaging unit with two fisheye lenses (180-degree field of view) facing forward and backward. Then, a projection point is set at the center of the spherical surface, and the spherical image is projected onto the cylinder. Next, as shown in FIG. 11B, the images projected on the space models 11A1, 11A2, and 11A3 of FIG. 11A are developed on a two-dimensional plane. Next, as shown in FIG. 11C, deformation (enlargement and reduction) is performed to obtain a two-dimensional display image from the developed image of FIG. 11B.
図12に、全周囲画像にズーム処理を施す例を示す。図12Aに示すように、球面画像を円柱状の空間モデル12A1、12A2、12A3の中心からずれた位置に配置し、球面の中心に投影点を定めて、球面画像を空間モデルの円柱に投影する。このとき、投影点から遠い位置ほど、大きくズームされた投影画像が得られる。図12Aの例では、左側の側面に投影される画像がズームされる。なお、図12Aの例では、空間モデルと球面画像との位置関係に基づいてズーム処理を実現しているが、投影点の位置を変えることでも、同様のズーム処理を実現できる。次に、図12Bに示すように、図12Aの空間モデルを用いて得られた画像を2次元平面に展開変形する。次に、図12Cに示すように、図12Bの展開画像から2次元ディスプレイ画像を得る。 FIG. 12 shows an example in which zoom processing is performed on the entire surrounding image. As shown in FIG. 12A, the spherical image is arranged at a position shifted from the center of the cylindrical space model 12A1, 12A2, 12A3, a projection point is determined at the center of the spherical surface, and the spherical image is projected onto the column of the spatial model. . At this time, a projection image with a larger zoom is obtained as the position is farther from the projection point. In the example of FIG. 12A, the image projected on the left side surface is zoomed. In the example of FIG. 12A, zoom processing is realized based on the positional relationship between the space model and the spherical image, but similar zoom processing can also be realized by changing the position of the projection point. Next, as shown in FIG. 12B, the image obtained using the spatial model of FIG. 12A is expanded and deformed into a two-dimensional plane. Next, as shown in FIG. 12C, a two-dimensional display image is obtained from the developed image of FIG. 12B.
[4]境界の調整
ここで、本実施の形態の画像変換においては、空間モデルにおける物体の境界と、空間モデルに投影される画像における物体の境界とを、一致させることが重要である。この境界を一致させる処理は、図2に示す構成において、ユーザがディスプレイに表示された画像を見ながら、操作入力部107を介して、空間モデル及び又は球面画像をシフトさせることで行ってもよい。
[4] Adjustment of Boundary Here, in the image conversion according to the present embodiment, it is important to match the boundary of the object in the space model with the boundary of the object in the image projected onto the space model. In the configuration shown in FIG. 2, the process of matching the boundaries may be performed by shifting the space model and / or the spherical image via the operation input unit 107 while the user looks at the image displayed on the display. .
また、図13及び図14に示すように、球面画像の境界を検出する境界検出部201、301を設け、その検出結果に基づいて、空間モデル又は球面画像をシフトさせることで、空間モデルにおける面の交差の境界と、空間モデルに投影される画像の中の物体の境界とを、一致させる。 Further, as shown in FIGS. 13 and 14, boundary detection units 201 and 301 for detecting the boundary of the spherical image are provided, and the space model or the spherical image is shifted based on the detection result, so that the surface in the space model And the boundary of the object in the image projected on the space model are matched.
図13の構成について説明する。図2との対応部分に同一符号を付して示す図13のカメラ200は、境界検出部201及び空間モデル調整部202を有する。境界検出部201は、球面逆投影変換部105から出力された球面画像の境界、つまり画像のエッジを検出する。このエッジ検出は公知の技術により容易に実現できる。画像のエッジとは、例えば机と壁との境界である。空間モデル調整部202は、境界検出部201による検出結果に基づいて、空間モデルを変形させる。具体的には、空間モデル調整部202は、投影変換部109における投影時に、空間モデルにおける面の交差の境界に、空間モデルに投影される画像の中の物体の境界が一致するように、空間モデルを変形させる。 The configuration of FIG. 13 will be described. A camera 200 in FIG. 13, in which parts corresponding to those in FIG. 2 are assigned the same reference numerals, has a boundary detection unit 201 and a spatial model adjustment unit 202. The boundary detection unit 201 detects the boundary of the spherical image output from the spherical back projection conversion unit 105, that is, the edge of the image. This edge detection can be easily realized by a known technique. The edge of the image is, for example, a boundary between a desk and a wall. The space model adjustment unit 202 deforms the space model based on the detection result by the boundary detection unit 201. Specifically, the space model adjustment unit 202, when projecting by the projection conversion unit 109, matches the boundary of the object in the image projected on the space model with the boundary of the plane intersection in the space model. Deform the model.
図14の構成について説明する。図2との対応部分に同一符号を付して示す図14のカメラ300は、境界検出部301及び球面画像調整部302を有する。境界検出部301は、球面逆投影変換部105から出力された球面画像の境界、つまり画像のエッジを検出する。球面画像調整部302は、境界検出部301による検出結果に基づいて、球面画像をシフトさせる。具体的には、球面画像調整部302は、投影変換部109における投影時に、空間モデルにおける面の交差の境界に、空間モデルに投影される画像の中の物体の境界が一致するように、球面画像をシフトさせる。 The configuration of FIG. 14 will be described. A camera 300 shown in FIG. 14, in which parts corresponding to those in FIG. The boundary detection unit 301 detects the boundary of the spherical image output from the spherical backprojection conversion unit 105, that is, the edge of the image. The spherical image adjustment unit 302 shifts the spherical image based on the detection result by the boundary detection unit 301. Specifically, the spherical image adjustment unit 302 is configured so that the object boundary in the image projected onto the spatial model coincides with the boundary of the plane intersection in the spatial model when the projection conversion unit 109 projects. Shift the image.
図15に、空間モデルを変形させる例を示す。図15Aにおける空間モデルにおいて、球面画像の物体境界に合わせるように、空間モデルの下面の先端を矢印で示す上下方向に移動させる。図15Bは、図15Aの空間モデルを用いて得られた画像を2次元平面に展開した図を示し、図15Cは、図15Bの展開画像から得た2次元ディスプレイ画像を示す。 FIG. 15 shows an example of deforming the space model. In the space model in FIG. 15A, the tip of the lower surface of the space model is moved in the vertical direction indicated by the arrow so as to match the object boundary of the spherical image. FIG. 15B shows a diagram in which an image obtained using the spatial model in FIG. 15A is developed on a two-dimensional plane, and FIG. 15C shows a two-dimensional display image obtained from the developed image in FIG. 15B.
図16に、空間モデルに球面画像を投影する具体例を示す。 FIG. 16 shows a specific example in which a spherical image is projected onto a space model.
図16A及び図16Bは球面画像の例を示す。図16Aは机が大きく写っている画像例を示し、図16Bは机が普通に写っている画像例を示す。 16A and 16B show examples of spherical images. FIG. 16A shows an example of an image in which a desk is shown large, and FIG. 16B shows an example of an image in which a desk is shown normally.
図16Cは、空間モデルを2次元ディスプレイに表示される形態で表した、空間モデルのイメージを示すものである。人物領域と机領域の境界が、図16A又は図16Bの画像の境界に合うように、シフトする(図15Cで説明と同じもの)。なお、上述したように、球面逆投影画像の境界をシフトさせ、空間モデルを固定した状態で画像を生成させてもよい。球面逆投影画像の境界をシフトさせた場合は、机と人物の境界の位置はディスプレイの表示画面上で同じ位置になる。空間モデルの面の交差位置を変形した場合は、机と人物の境界の位置はディスプレイの表示画面上で上下に移動する。 FIG. 16C shows an image of the space model in a form displayed on the two-dimensional display. Shift so that the boundary between the person area and the desk area matches the boundary of the image in FIG. 16A or 16B (the same as described in FIG. 15C). Note that, as described above, the boundary of the spherical backprojection image may be shifted, and the image may be generated with the spatial model fixed. When the boundary of the spherical backprojection image is shifted, the position of the boundary between the desk and the person is the same position on the display screen of the display. When the intersection position of the plane of the space model is deformed, the position of the boundary between the desk and the person moves up and down on the display screen of the display.
図16Dは、空間モデルに球面画像を投影して得られる、最終的な2次元ディスプレイ画像を示すものである。 FIG. 16D shows a final two-dimensional display image obtained by projecting a spherical image onto a space model.
従来の広角レンズを用いて得られる撮像画像は、広角レンズの特性に起因して、周辺部で大きく歪むことになる。またレンズの射影方式を考慮して歪み補正を行った場合、カメラに正対した平面は正しく補正されるが、正対していないものや、平面でない一般の物体は極端に大きく補正されたり、逆に極端に小さく補正される箇所が存在する。これに対して、本実施の形態では、空間モデルを用いることにより、実際の物体を観察したときと同じような形状や同じような大きさで2次元ディスプレイ画像を得ることができるようになる。つまり、図16Dの例では、人物領域と、机領域とがほぼ実際に観察している形状に近い形で表示される。大きく歪む部分は画像の境界(机領域と人物領域の境界)に発生するが、人間の観察した画像に近いものとなり、違和感が少ない画像として表示することができる。 A captured image obtained using a conventional wide-angle lens is greatly distorted in the peripheral portion due to the characteristics of the wide-angle lens. In addition, when distortion correction is performed in consideration of the lens projection method, the plane facing the camera is corrected correctly, but those that are not facing the camera and general objects that are not facing the plane are corrected to an extremely large level or vice versa. There is a place where the correction is extremely small. In contrast, in the present embodiment, by using a spatial model, a two-dimensional display image can be obtained with the same shape and size as when an actual object is observed. That is, in the example of FIG. 16D, the person area and the desk area are displayed in a shape that is almost similar to the shape actually observed. A greatly distorted portion occurs at the boundary of the image (the boundary between the desk region and the person region), but it is close to an image observed by a human and can be displayed as an image with little discomfort.
[5]効果
以上説明したように、本実施の形態の構成によれば、広角レンズ102を用いて得た撮像画像を空間モデルに投影するようにマッピングし、かつ、このマッピングは空間モデルの面の境界(交差部)と画像に写っている物体の境界を合わせて行うようにし、マッピングされた画像に基づいて2次元ディスプレイ画像を得るようにしたことにより、広角レンズ102を用いて撮像された歪曲画像から、従来に比してより自然でより見易い(人間が観察した形状に近く表示され、歪んだ部分を歪みと感じない)表示画像を得ることができる。
[5] Effect As described above, according to the configuration of the present embodiment, the captured image obtained by using the wide-angle lens 102 is mapped so as to be projected onto the spatial model, and this mapping is a plane of the spatial model. The two-dimensional display image is obtained based on the mapped image by matching the boundary (intersection) of the object and the boundary of the object shown in the image. From the distorted image, it is possible to obtain a display image that is more natural and easier to see than before (displayed close to the shape observed by humans, and the distorted portion does not feel distorted).
つまり、空間モデルを用い、空間モデルの面の境界を実被写体の物体の境界にそうように変形し(画像のシフトや空間モデルの変形)、この空間モデル投影画像を2次元平面に変換する。この方式により空間モデルの各面に投影された画像は、歪みは発生するが発生した歪みは実被写体の境界で発生し、ディスプレイで観察した場合、大きく歪む部分は画像の境界(机領域と人物領域の境界)に発生するようになる。これにより、人間の観察した画像に近い形状になり、違和感が少ない画像として表示することができる。 That is, using the space model, the boundary of the surface of the space model is deformed so as to be the boundary of the object of the real subject (image shift or space model deformation), and this space model projection image is converted into a two-dimensional plane. Images projected on each surface of the spatial model by this method generate distortion, but the generated distortion occurs at the boundary of the actual subject. When observed on the display, the greatly distorted part is the boundary of the image (desk area and person Occurs at the boundary of the region). Thereby, it becomes a shape close | similar to the image which a human observed, and it can display as an image with little discomfort.
また、2次元画像に展開する実施の形態の方法を用いた場合、歪曲成分は、主に、2次元ディスプレイ画像を形成するときに各面の画像を引き延ばす処理(図5A、図5B、図10B、図11B、図12B、図15B参照)によって発生する。つまり、歪曲成分は、物体の境界に集中することになる。しかし、物体の境界は、ある程度画像が歪曲していても見た目上違和感が小さい。この結果、本実施の形態の構成により得られる2次元ディスプレイ画像は、従来に比してより自然でより見易い表示画像となる。 In addition, when the method of the embodiment for developing into a two-dimensional image is used, distortion components are mainly processed by extending the image of each surface when forming a two-dimensional display image (FIGS. 5A, 5B, and 10B). 11B, FIG. 12B, and FIG. 15B). That is, the distortion component is concentrated on the boundary of the object. However, even if the image is distorted to some extent at the boundary of the object, the unnatural appearance is small. As a result, the two-dimensional display image obtained by the configuration of the present embodiment is a display image that is more natural and easier to see than in the past.
また、視点を移動させることにより、正面部と底面部のディスプレイに写る面積の割り合いを変化させることができ、底面部(机領域)を圧縮して正面部(人物領域)を増加させることができ、同時に違和感を感じない変換を実現して見やすい表示を実現することができる。 In addition, by moving the viewpoint, it is possible to change the ratio of the areas shown on the front and bottom display, and to compress the bottom (desk area) and increase the front (person area). At the same time, it is possible to realize an easy-to-see display by realizing a conversion that does not feel uncomfortable.
なお、上述した実施の形態では、球面逆投影変換部105、投影変換部109、平面変換部112、空間モデル格納部111及び空間モデル選択部110を、カメラに設けた場合について説明したが、これらはカメラとは別体に画像変換装置として設けてもよい。 In the above-described embodiment, the case where the spherical back projection conversion unit 105, the projection conversion unit 109, the plane conversion unit 112, the space model storage unit 111, and the space model selection unit 110 are provided in the camera has been described. May be provided as an image conversion device separately from the camera.
また、球面逆投影変換部105は、必ず必要なわけではない。広角レンズ102と撮像素子103との光学的な関係を加味した空間モデルを用意すれば、撮像部101により得られた撮像画像を、球面上に逆投影変換せずに、投影変換部109に入力させてもよい。 Further, the spherical backprojection conversion unit 105 is not necessarily required. If a spatial model that takes into account the optical relationship between the wide-angle lens 102 and the image sensor 103 is prepared, the captured image obtained by the image capturing unit 101 is input to the projection conversion unit 109 without being subjected to back projection conversion on the spherical surface. You may let them.
本発明は、魚眼レンズ等の広角レンズを用いて撮像された歪曲画像から、自然で違和感の少ない表示画像を得ることができ、例えば監視カメラ、車載カメラ、テレビ会議用カメラ等に好適である。 INDUSTRIAL APPLICABILITY The present invention can obtain a natural and less discomfort display image from a distorted image captured using a wide-angle lens such as a fisheye lens, and is suitable for a surveillance camera, an in-vehicle camera, a video conference camera, and the like.
100、200、300 カメラ
101 撮像部
102 広角レンズ
105 球面逆投影変換部
109 投影変換部
110 空間モデル選択部
111 空間モデル格納部
112 平面変換部
201、301 境界検出部
202 空間モデル調整部
302 球面画像調整部
100, 200, 300 Camera 101 Imaging unit 102 Wide angle lens 105 Spherical backprojection conversion unit 109 Projection conversion unit 110 Spatial model selection unit 111 Spatial model storage unit 112 Planar conversion unit 201, 301 Boundary detection unit 202 Spatial model adjustment unit 302 Spherical image Adjustment section
Claims (8)
空間モデルを格納する空間モデル格納部と、
前記撮像画像を前記空間モデルに投影するようにマッピングする投影変換部と、
前記空間モデルにマッピングされた画像を用いて、ディスプレイ画像を得る平面変換部と、
を具備するカメラ。 An imaging unit that has a lens that forms an image of an object and an image sensor that converts an optical image formed by the lens into an electric signal;
A spatial model storage for storing the spatial model;
A projection conversion unit that maps the captured image so as to project the captured image onto the spatial model;
A plane conversion unit that obtains a display image using an image mapped to the spatial model;
A camera comprising:
前記空間モデルにマッピングされた画像を平面展開し、平面展開した画像において、前記ディスプレイ画像に対して画像が存在しない部分は、前記平面展開した画像を拡大及び又は縮小して変形することで、前記ディスプレイ画像を得る、
請求項1に記載のカメラ。 The plane conversion unit is
The image mapped to the spatial model is developed in a plane, and in the image developed in a plane, a portion where no image exists with respect to the display image is obtained by enlarging and / or reducing the deformed image on the plane, Get a display image,
The camera according to claim 1.
前記空間モデルにマッピングされた画像をある視点から見た場合における、各画素位置への、横方向の視線角度をθ、縦方向の視線角度をφとし、このθ及びφを2次元ディスプレイのx座標及びy座標に対応させるように座標変換することにより、前記空間モデルにマッピングされた画像から2次元ディスプレイ画像を得る、
請求項1に記載のカメラ。 The plane conversion unit is
When the image mapped to the spatial model is viewed from a certain viewpoint, the horizontal line-of-sight angle to each pixel position is θ, and the vertical line-of-sight angle is φ, and θ and φ are x of the two-dimensional display. Obtaining a two-dimensional display image from the image mapped to the spatial model by performing coordinate transformation so as to correspond to the coordinate and the y-coordinate;
The camera according to claim 1.
前記境界検出部による検出結果に基づいて、前記撮像画像及び又は前記空間モデルをシフトさせることにより、前記撮像画像の中の物体の境界を前記空間モデルにおける面の交差の境界に合わせる、調整部を、さらに具備する、
請求項1から請求項3のいずれか一項に記載のカメラ。 A boundary detection unit for detecting a boundary of the captured image;
An adjustment unit that adjusts the boundary of an object in the captured image to the boundary of intersection of planes in the spatial model by shifting the captured image and / or the spatial model based on a detection result by the boundary detection unit. Further comprising
The camera according to any one of claims 1 to 3.
前記カメラは、前記複数の空間モデルの中から1つの空間モデルを選択する空間モデル選択部を、さらに具備する、
請求項1から請求項4のいずれか一項に記載のカメラ。 The spatial model storage unit stores a plurality of spatial models,
The camera further includes a space model selection unit that selects one space model from the plurality of space models.
The camera according to any one of claims 1 to 4.
前記投影変換部は、前記逆投影変換部によって仮想的に得られた前記レンズ上の撮像画像を、前記空間モデルに投影するようにマッピングする、
請求項1から請求項5のいずれか一項に記載のカメラ。 A back projection conversion unit that virtually converts the captured image into an image on the lens;
The projection conversion unit maps the captured image on the lens virtually obtained by the back projection conversion unit so as to project the image on the spatial model.
The camera according to any one of claims 1 to 5.
撮像画像を前記空間モデルに投影するようにマッピングする投影変換部と、
前記空間モデルにマッピングされた画像を用いて、ディスプレイ画像を得る平面変換部と、
を具備する画像変換装置。 A spatial model storage unit for storing a spatial model of the imaging space;
A projection conversion unit that maps the captured image so as to project the captured image onto the spatial model;
A plane conversion unit that obtains a display image using an image mapped to the spatial model;
An image conversion apparatus comprising:
前記空間モデルにマッピングされた画像を用いて、ディスプレイ画像を得るステップと、
を含む画像変換方法。 Mapping the captured image to project onto a spatial model of the imaging space;
Obtaining a display image using an image mapped to the spatial model;
An image conversion method including:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011052391A JP2012191380A (en) | 2011-03-10 | 2011-03-10 | Camera, image conversion apparatus, and image conversion method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011052391A JP2012191380A (en) | 2011-03-10 | 2011-03-10 | Camera, image conversion apparatus, and image conversion method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012191380A true JP2012191380A (en) | 2012-10-04 |
Family
ID=47084073
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011052391A Withdrawn JP2012191380A (en) | 2011-03-10 | 2011-03-10 | Camera, image conversion apparatus, and image conversion method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012191380A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014174884A1 (en) * | 2013-04-24 | 2014-10-30 | 住友重機械工業株式会社 | Image to be processed generating device, image to be processed generating method, and operation assistance system |
| JP2016161996A (en) * | 2015-02-26 | 2016-09-05 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2022112695A (en) * | 2021-01-22 | 2022-08-03 | 株式会社明電舎 | CALIBRATION DEVICE AND CALIBRATION METHOD FOR LINE SENSOR CAMERA |
| CN115717865A (en) * | 2022-10-26 | 2023-02-28 | 东南大学 | Method for measuring full-field deformation of annular structure |
-
2011
- 2011-03-10 JP JP2011052391A patent/JP2012191380A/en not_active Withdrawn
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014174884A1 (en) * | 2013-04-24 | 2014-10-30 | 住友重機械工業株式会社 | Image to be processed generating device, image to be processed generating method, and operation assistance system |
| US10621743B2 (en) | 2013-04-24 | 2020-04-14 | Sumitomo Heavy Industries, Ltd. | Processing-target image creating device, processing-target image creating method, and operation assisting system |
| JP2016161996A (en) * | 2015-02-26 | 2016-09-05 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2022112695A (en) * | 2021-01-22 | 2022-08-03 | 株式会社明電舎 | CALIBRATION DEVICE AND CALIBRATION METHOD FOR LINE SENSOR CAMERA |
| JP7517170B2 (en) | 2021-01-22 | 2024-07-17 | 株式会社明電舎 | Calibration device and calibration method for line sensor camera |
| CN115717865A (en) * | 2022-10-26 | 2023-02-28 | 东南大学 | Method for measuring full-field deformation of annular structure |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4257356B2 (en) | Image generating apparatus and image generating method | |
| US9858643B2 (en) | Image generating device, image generating method, and program | |
| TWI535285B (en) | Conference system, surveillance system, image processing device, image processing method and image processing program, etc. | |
| JP4642723B2 (en) | Image generating apparatus and image generating method | |
| KR20180101165A (en) | Frame stitching with panoramic frame | |
| EP2820593A1 (en) | Method and system for adaptive perspective correction of ultra wide-angle lens images | |
| US20170061686A1 (en) | Stage view presentation method and system | |
| JP7378243B2 (en) | Image generation device, image display device, and image processing method | |
| JP2015176559A (en) | information processing method, information processing apparatus, and program | |
| JP2008311890A (en) | Image data conversion device and camera device provided with the same | |
| WO2012060269A1 (en) | Image processing method, image processing device, and imaging device | |
| KR20140090775A (en) | Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof | |
| EP3606059B1 (en) | Projector calibration method and projection system using the same | |
| JP2019029721A (en) | Image processing apparatus, image processing method, and program | |
| JP7512963B2 (en) | Virtual reality simulator and virtual reality simulation program | |
| JP2018109946A (en) | Display device, program, and display method | |
| JP2012191380A (en) | Camera, image conversion apparatus, and image conversion method | |
| JP6700935B2 (en) | Imaging device, control method thereof, and control program | |
| US11928775B2 (en) | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image | |
| JP2019525509A (en) | Horizontal parallax stereo panorama import method | |
| JP2017084422A (en) | Apparatus, method, and program | |
| KR101222153B1 (en) | the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same | |
| CN110060349B (en) | Method for expanding field angle of augmented reality head-mounted display equipment | |
| JP4875887B2 (en) | Image composition system and image composition method | |
| JP2008052589A (en) | Method for correcting distortion of wide angle image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |