JP4479819B2 - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP4479819B2 JP4479819B2 JP2008098646A JP2008098646A JP4479819B2 JP 4479819 B2 JP4479819 B2 JP 4479819B2 JP 2008098646 A JP2008098646 A JP 2008098646A JP 2008098646 A JP2008098646 A JP 2008098646A JP 4479819 B2 JP4479819 B2 JP 4479819B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- presentation
- detection
- unit
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Studio Devices (AREA)
Description
この発明は、撮像装置と撮像方法に関する。詳しくは、撮像画像から提示装置によって提示された提示画像の検出を行い、提示画像の検出結果が予め設定されている条件を満たすとき、撮像モードを提示画像撮像モードに切り換えることで、提示画像の撮像が行われるとき容易に最適な撮像画像を得られるようにするものである。 The present invention relates to an imaging apparatus and an imaging method. Specifically, the presentation image presented by the presentation device is detected from the captured image, and when the detection result of the presentation image satisfies a preset condition, the imaging mode is switched to the presentation image imaging mode. It is intended to easily obtain an optimal captured image when imaging is performed.
近年、コンピュータ装置をプロジェクタに接続して、スクリーンに資料や画像を投射してプレゼンテーションを行うことが頻繁に行われるようになってきている。それに伴い、ビデオカメラ等の撮像装置を用いてその様子を撮像する機会も増えている。撮像の目的には、セミナーやミーティングなどの内容を議事録として保存しておく用途や、会議の参加者がそれぞれ遠く離れた場所で互いにスクリーンを撮像する中継会議などが挙げられる。さらに、スクリーンに投影された画像だけでなく、コンピュータ装置のモニタやテレビジョン装置の表示画面を撮像することもよく行われている。 2. Description of the Related Art In recent years, presentations have been frequently performed by connecting a computer device to a projector and projecting materials and images on a screen. Along with this, there are increasing opportunities to image the state using an imaging device such as a video camera. The purpose of imaging includes the use of saving the contents of seminars and meetings as minutes, and the relay conference in which the participants of the conference take images of each other at a remote location. Further, not only images projected on a screen but also a monitor of a computer device and a display screen of a television device are often imaged.
ここで、例えばプレゼンテーション(以下、プレゼン)を撮像するとき、周囲が暗いとストロボ発光が行われて周囲に迷惑をかけてしまう場合がある。このような問題を解決するため、特許文献1の発明では、プレゼンテーション(以下、プレゼン)を撮像するときの撮像モードを設けて、プレゼンを撮像する際に手動で撮像モードを切り換えることが開示されている。このプレゼンを撮像するときの撮像モードでは、周囲に迷惑がかからないように、ストロボ発光やシャッタ音を禁止したり、ストロボ発光を禁止したことによりシャッタ速度が遅くなっても手ぶれを生じないようにISO感度を高く設定することが行われている。 Here, for example, when imaging a presentation (hereinafter referred to as “presentation”), if the surroundings are dark, strobe light emission may occur and the surroundings may be disturbed. In order to solve such a problem, the invention of Patent Document 1 discloses that an imaging mode for imaging a presentation (hereinafter, presentation) is provided, and the imaging mode is manually switched when imaging a presentation. Yes. In the imaging mode when imaging this presentation, ISO flashing and shutter sound are prohibited so as not to disturb the surroundings, and even if the shutter speed is slowed down by prohibiting flash lighting, ISO is not caused. The sensitivity is set high.
ところで、従来の撮像装置でスクリーンに投影された画像や表示画面等(以下「提示画像」という)を撮像すると、撮像画像における提示画像とその他の画像(以下「背景画像」という)との明るさや色の違いによって、最適な撮像画像を得ることができない場合が生じてしまう。例えば、撮像画像における提示画像の領域で白とびを生じたり、ホワイトバランス調整が正しく行われず変色を生じてしまう場合がある。しかし、撮像モードを切り換えてストロボ発光を禁止したりISO感度を高くするだけでは、白とびや変色等を防止することができない。さらに、撮影モードの切り換えはユーザが手動で行うものとしているので、プレゼンを撮像して動画である撮像画像を得る場合、提示画像を中心とする撮像動作と発表者を中心とする撮像動作を連続して行うとき、撮像モードの切り換えをその都度行わなければならないことから操作が非常に煩雑なものとなってしまう。 By the way, when an image projected on a screen, a display screen or the like (hereinafter referred to as “presentation image”) is captured by a conventional imaging device, the brightness of the presentation image in the captured image and other images (hereinafter referred to as “background image”) Depending on the color difference, an optimal captured image may not be obtained. For example, there may be a case where a whiteout occurs in a region of a presentation image in a captured image, or a color change occurs because white balance adjustment is not performed correctly. However, it is not possible to prevent overexposure, discoloration, or the like simply by switching the imaging mode to prohibit strobe light emission or increasing the ISO sensitivity. Furthermore, since switching of the shooting mode is performed manually by the user, when capturing a presentation and capturing a captured image that is a moving image, an imaging operation centered on the presentation image and an imaging operation centered on the presenter are continuously performed. In this case, since the imaging mode must be switched each time, the operation becomes very complicated.
そこで、この発明では、容易に最適な撮像画像を得ることができる撮像装置と撮像方法を提供するものである。 Accordingly, the present invention provides an imaging apparatus and an imaging method that can easily obtain an optimal captured image.
この発明の概念は、撮像画像から提示装置によって提示された提示画像、例えばプロジェクタによってスクリーンに投影された画像等の検出を行い、提示画像を検出したとき、提示画像の白とびや、ホワイトバランス調整が正しく行われず提示画像が変色を生じてしまうことのないように、撮像モードを自動的に切り換えるものである。 The concept of the present invention is to detect a presentation image presented by a presentation device from a captured image, for example, an image projected on a screen by a projector, and when the presentation image is detected, overexposure of the presentation image and white balance adjustment The imaging mode is automatically switched so that the image is not correctly performed and the presented image does not change color.
この発明に係る撮像装置は、被写体を撮像して撮像画像を得る撮像部と、前記撮像画像における輝度または色の違いに基づいて、前記撮像画像から画像提示装置によって提示された提示画像の検出を行う提示画像検出部と、前記提示画像の検出結果が予め設定されている条件を満たすとき、撮像モードを提示画像撮像モードに切り換えて、少なくとも露出制御に用いる検波値を算出するための検波領域の変更および前記撮像画像における前記提示画像と前記提示画像を除く他の画像の領域に対する領域毎のホワイトバランス調整および前記撮像画像における前記提示画像と前記他の画像の領域に対する領域毎のガンマ補正のいずれかを行わせる制御部とを有するものである。 An imaging apparatus according to the present invention detects an image presented by an image presentation device from the captured image based on an imaging unit that captures an image of a subject and obtains a captured image, and a difference in luminance or color in the captured image. When the detection result of the presentation image to be performed and the detection result of the presentation image satisfy a preset condition, the imaging mode is switched to the presentation image imaging mode, and at least a detection area for calculating a detection value used for exposure control Any of the change and white balance adjustment for each region in the captured image and other image regions excluding the presented image and gamma correction in each region in the captured image for the region of the presented image and the other image And a control unit for performing the above.
また、この発明に係る撮像方法は、被写体を撮像部によって撮像して撮像画像を得る撮像工程と、前記撮像画像における輝度または色の違いに基づいて、前記撮像画像から画像提示装置によって提示された提示画像の検出を行う提示画像検出工程と、前記提示画像の検出結果が予め設定されている条件を満たすとき、撮像モードを提示画像撮像モードに切り換えて、少なくとも露出制御に用いる検波値を算出するための検波領域の変更および前記撮像画像における前記提示画像と前記提示画像を除く他の画像の領域に対する領域毎のホワイトバランス調整および前記撮像画像における前記提示画像と前記他の画像の領域に対する領域毎のガンマ補正のいずれかを行わせる制御工程とを有するものである。 In addition, the imaging method according to the present invention is presented by the image presentation device from the captured image based on an imaging step of capturing an image of a subject by an imaging unit to obtain a captured image and a difference in luminance or color in the captured image. When a presentation image detection step for detecting a presentation image and the detection result of the presentation image satisfy a preset condition, the imaging mode is switched to the presentation image imaging mode, and at least a detection value used for exposure control is calculated. Change of detection area for each region, white balance adjustment for each region of the captured image in the captured image and other image regions excluding the presented image, and for each region in the captured image for the region of the presented image and the other image And a control step for performing any one of the gamma corrections.
この発明においては、撮像装置から提示画像を検出する処理が行われて、提示画像の検出結果が予め設定されている条件を満たすとき、例えば第1の提示画像検出と第1よりも高精度に提示画像を検出する第2の提示画像検出が行われて、第1の提示画像検出が予め設定されている条件を満たすとき、撮像モードが提示画像撮像モードに切り換えられる。また、検波領域の変更が行われる。撮像モードが提示画像撮像モードに切り換えられたときには、第2の提示画像検出で得られた検出結果に基づいて、領域毎のホワイトバランス調整やガンマ補正が行われる。さらに、検出結果が予め設定されている条件を満たさなくなったときや、撮像画像の中央部に顔画像が検出されたとき提示画像撮像モードが終了される。 In the present invention, when the process of detecting the presentation image from the imaging apparatus is performed and the detection result of the presentation image satisfies a preset condition, for example, the first presentation image detection and the first are more accurate than the first. When the second presentation image detection for detecting the presentation image is performed and the first presentation image detection satisfies a preset condition, the imaging mode is switched to the presentation image imaging mode. In addition, the detection area is changed. When the imaging mode is switched to the presentation image imaging mode, white balance adjustment and gamma correction for each region are performed based on the detection result obtained by the second presentation image detection. Furthermore, when the detection result does not satisfy a preset condition or when a face image is detected at the center of the captured image, the presentation image capturing mode is terminated.
この発明によれば、撮像画像から提示装置によって提示された提示画像を検出する処理が行われて、この検出結果が予め設定されている条件を満たすとき、撮像モードが提示画像撮像モードに切り換えられて、少なくとも露出制御に用いる検波値を算出するための検波領域の変更および前記撮像画像における前記提示画像と他の画像の領域に対する領域毎のホワイトバランス調整および前記撮像画像における前記提示画像と他の画像の領域に対する領域毎のガンマ補正のいずれかが行われる。このため、提示画像の撮像が行われるとき容易に最適な撮像画像を得ることができる。 According to the present invention, when the process of detecting the presentation image presented by the presentation device from the captured image is performed, and the detection result satisfies a preset condition, the imaging mode is switched to the presentation image imaging mode. Thus, at least a detection region for calculating a detection value used for exposure control, a white balance adjustment for each region of the presented image and the other image region in the captured image, and the presented image and the other in the captured image One of the gamma corrections for each area of the image area is performed. For this reason, an optimal captured image can be easily obtained when the presentation image is captured.
以下、図を参照しながら、この発明の実施の一形態について説明する。図1は、撮像装置の構成を示している。被写体光は、レンズ部11と絞り機構12を介して撮像部21の撮像素子211例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサに入射される。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows the configuration of the imaging apparatus. The subject light is incident on the imaging element 211 of the imaging unit 21 such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor via the lens unit 11 and the aperture mechanism 12.
撮像素子211は、受光面に結像された被写体像の撮像光を、画素毎に電気信号に変換して三原色の画像信号を生成する。また、生成した画像信号をCDS(Correlated Double Sampling circuit)部212に供給する。 The imaging element 211 converts the imaging light of the subject image formed on the light receiving surface into an electrical signal for each pixel to generate an image signal of three primary colors. Further, the generated image signal is supplied to a CDS (Correlated Double Sampling circuit) unit 212.
CDS部212は、撮像素子から供給された画像信号のノイズ除去を行い、ノイズ除去後の画像信号を増幅部213に供給する。増幅部213は、CDS部212から供給された画像信号のゲイン調整を行い、ゲイン調整後の画像信号SaをA/D(Analog / Digital)変換部23に供給する。 The CDS unit 212 removes noise from the image signal supplied from the image sensor, and supplies the image signal after the noise removal to the amplification unit 213. The amplification unit 213 adjusts the gain of the image signal supplied from the CDS unit 212 and supplies the image signal Sa after gain adjustment to the A / D (Analog / Digital) conversion unit 23.
タイミング信号発生部22は、撮像素子211で画像信号を生成するための駆動信号TDを生成して撮像素子211に供給する。また、タイミング信号発生部22は、駆動信号TDによって、撮像素子211における露光時間(光電変換によって得られた有効電荷の蓄積時間)を制御する。 The timing signal generator 22 generates a drive signal TD for generating an image signal by the image sensor 211 and supplies the drive signal TD to the image sensor 211. The timing signal generation unit 22 controls the exposure time (effective charge accumulation time obtained by photoelectric conversion) in the image sensor 211 by the drive signal TD.
A/D変換部23は、アナログの画像信号Saをディジタルの画像信号DVaに変換して、提示画像検出部31と検波部32および画像処理部35に供給する。 The A / D converter 23 converts the analog image signal Sa into a digital image signal DVa and supplies the digital image signal DVa to the presentation image detector 31, the detector 32, and the image processor 35.
提示画像検出部31は、画像信号DVaに基づく撮像画像から提示画像を検出する処理を行い、検出結果を示す検出信号JAを生成して制御部51に供給する。 The presentation image detection unit 31 performs a process of detecting a presentation image from a captured image based on the image signal DVa, generates a detection signal JA indicating a detection result, and supplies the detection signal JA to the control unit 51.
図2は提示画像検出部31の構成を示している。提示画像検出部31の変換処理部311は、三原色の画像信号DVaを輝度信号DYと色差信号DCに変換して、輝度信号DYを2値化処理部312、色差信号DCを2値化処理部313に供給する。 FIG. 2 shows the configuration of the presentation image detection unit 31. The conversion processing unit 311 of the presentation image detection unit 31 converts the image signal DVa of the three primary colors into a luminance signal DY and a color difference signal DC, the luminance signal DY is converted into a binarization processing unit 312, and the color difference signal DC is converted into a binarization processing unit. 313.
2値化処理部312は、輝度信号DYを2値化する処理を行い、得られた輝度2値化信号BYを信号選択部314に供給する。また、2値化処理部313は、色差信号DCを2値化する処理を行い、得られた色差2値化信号BCを信号選択部314に供給する。2値化処理部312は、輝度信号DYと閾値を比較することで輝度信号DYの2値化を行い、輝度2値化信号BYを生成する。2値化処理部313は、色差信号DCと閾値を比較することで色差信号DCの2値化を行い、色差2値化信号BCを生成する。また、2値化処理部312,313は、予め固定したレベルに閾値を設定しておくものとしてもよく、撮像画像から提示画像を精度よく検出できるように、撮像画像に応じて閾値を設定するものとしてもよい。 The binarization processing unit 312 performs processing for binarizing the luminance signal DY, and supplies the obtained luminance binarized signal BY to the signal selection unit 314. In addition, the binarization processing unit 313 performs processing for binarizing the color difference signal DC and supplies the obtained color difference binarized signal BC to the signal selection unit 314. The binarization processing unit 312 binarizes the luminance signal DY by comparing the luminance signal DY with a threshold value, and generates a luminance binarized signal BY. The binarization processing unit 313 binarizes the color difference signal DC by comparing the color difference signal DC with a threshold value, and generates a color difference binarized signal BC. In addition, the binarization processing units 312 and 313 may set the threshold to a fixed level in advance, and set the threshold according to the captured image so that the presented image can be detected from the captured image with high accuracy. It may be a thing.
信号選択部314は、輝度2値化信号BYまたは色差2値化信号BCを選択して、選択した2値化信号を水平分布取得部315と垂直分布取得部316に供給する。 The signal selection unit 314 selects the luminance binarized signal BY or the color difference binarized signal BC, and supplies the selected binarized signal to the horizontal distribution acquisition unit 315 and the vertical distribution acquisition unit 316.
水平分布取得部315は、2値化信号が輝度2値化信号BYであるとき、ライン毎に輝度2値化信号BYの信号レベルが閾値よりも高い画素をカウントすることで水平方向の分布を求めて、この分布を示す水平分布信号DShを検出処理部317に供給する。また、水平分布取得部315は、2値化信号が色差2値化信号BCであるとき、ライン毎に色差2値化信号BCの信号レベルが閾値よりも高い画素をカウントすることで水平方向の分布を求めて、この分布を示す水平分布信号DShを検出処理部317に供給する。 When the binarized signal is the luminance binarized signal BY, the horizontal distribution acquisition unit 315 counts pixels in which the signal level of the luminance binarized signal BY is higher than a threshold value for each line, thereby calculating the horizontal distribution. Then, a horizontal distribution signal DSh indicating this distribution is supplied to the detection processing unit 317. In addition, when the binarized signal is the color difference binarized signal BC, the horizontal distribution acquisition unit 315 counts pixels in which the signal level of the color difference binarized signal BC is higher than a threshold value for each line. A distribution is obtained, and a horizontal distribution signal DSh indicating this distribution is supplied to the detection processing unit 317.
垂直分布取得部316は、2値化信号が輝度2値化信号BYであるとき、垂直方向に輝度2値化信号BYの信号レベルが閾値よりも高い画素をカウントして、上述の水平方向と直交する垂直方向の分布を求めて、この分布を示す垂直分布信号DSvを検出処理部317に供給する。また、垂直分布取得部316は、2値化信号が色差2値化信号BCであるとき、色差2値化信号BCの信号レベルが閾値よりも高い画素をカウントして垂直方向の分布を求めて、この分布を示す垂直分布信号DSvを検出処理部317に供給する。 When the binarized signal is the luminance binarized signal BY, the vertical distribution acquisition unit 316 counts pixels in which the signal level of the luminance binarized signal BY is higher than the threshold value in the vertical direction, An orthogonal vertical distribution is obtained, and a vertical distribution signal DSv indicating this distribution is supplied to the detection processing unit 317. Further, when the binarized signal is the color difference binarized signal BC, the vertical distribution acquisition unit 316 obtains a vertical distribution by counting pixels whose signal level of the color difference binarized signal BC is higher than a threshold value. The vertical distribution signal DSv indicating this distribution is supplied to the detection processing unit 317.
検出処理部317は、水平分布取得部315から供給された水平分布信号DShに基づき上辺と下辺を検出する処理と、垂直分布取得部316から供給された垂直分布信号DSvに基づき左辺と右辺を検出する処理を行う。さらに、検出処理部317は、検出された上辺,下辺,左辺および右辺が提示画像の各辺に相当するものであることを判別したとき、検出された上辺,下辺,左辺および右辺で囲まれる画像を提示画像と判定して、この提示画像の位置または提示画像が検出されたことを示す検出信号JAを生成して制御部51に供給する。 The detection processing unit 317 detects the upper side and the lower side based on the horizontal distribution signal DSh supplied from the horizontal distribution acquisition unit 315, and detects the left side and the right side based on the vertical distribution signal DSv supplied from the vertical distribution acquisition unit 316. Perform the process. Furthermore, when the detection processing unit 317 determines that the detected upper side, lower side, left side, and right side correspond to each side of the presented image, the image surrounded by the detected upper side, lower side, left side, and right side. Is detected as a presentation image, and a detection signal JA indicating that the position of the presentation image or the presentation image has been detected is generated and supplied to the control unit 51.
また、検出処理部317は、制御信号CNによって信号選択部314の信号選択動作の制御を行い、最初に輝度2値化信号BYを選択させて、輝度2値化信号BYから提示画像を検出できないときは、信号選択部314で色差2値化信号BCを選択させることで、輝度2値化信号BYだけでなく色差2値化信号BCから提示画像を検出する処理を行う。 In addition, the detection processing unit 317 controls the signal selection operation of the signal selection unit 314 by the control signal CN, and first selects the luminance binarized signal BY and cannot detect the presentation image from the luminance binarized signal BY. At this time, by causing the signal selection unit 314 to select the color difference binarized signal BC, a process of detecting a presentation image from the color difference binarized signal BC as well as the luminance binarized signal BY is performed.
検波部32は、供給された画像信号DVaから撮像画像の明るさを示す検波信号JBを生成して制御部51に供給する。検波部32は、例えば撮像画像をm×n個のブロックに分割し、それぞれのブロックにおける各画素の明るさを示す信号の総和を算出する。さらに、検波部32は、算出した総和に対してブロック毎に重み付けを行い、重み付け後の総和の加算値を検波値として、この検波値を示す検波信号JBを制御部51に供給する。また、検波部32は、制御部51からの制御信号CTeに基づき検波領域を変更する。すなわち、重み付けが「0」されたブロックは検波値の算出に用いられず、重み付けを高くされたブロックは、検波値に寄与する割合が高くなる。したがって、重み付けを切り換えることによって検波領域を変更する。 The detection unit 32 generates a detection signal JB indicating the brightness of the captured image from the supplied image signal DVa and supplies the detection signal JB to the control unit 51. For example, the detection unit 32 divides the captured image into m × n blocks, and calculates the sum of signals indicating the brightness of each pixel in each block. Further, the detection unit 32 weights the calculated sum for each block, and supplies the detection signal JB indicating the detection value to the control unit 51 using the addition value of the weighted sum as a detection value. Further, the detection unit 32 changes the detection region based on the control signal CTe from the control unit 51. That is, a block with a weight of “0” is not used for calculation of a detection value, and a block with a high weight has a higher contribution ratio to the detection value. Therefore, the detection area is changed by switching the weighting.
図3は検波部32の構成を示している。検波部32のブロック化処理部321は、撮像画像をm×n個のブロックに分割する処理を行い、画像信号DVaをブロック毎の画像信号DBVとしてブロック別輝度算出部322に供給する。 FIG. 3 shows the configuration of the detection unit 32. The block processing unit 321 of the detection unit 32 performs processing for dividing the captured image into m × n blocks, and supplies the image signal DVa to the block-by-block luminance calculation unit 322 as the image signal DBV for each block.
ブロック別輝度算出部322は、画像信号DBVに基づきブロック内の各画素の輝度を総和したブロック別輝度値信号BTをブロック毎に生成して乗算器324に供給する。 The block-by-block luminance calculation unit 322 generates a block-by-block luminance value signal BT in which the luminance of each pixel in the block is totaled based on the image signal DBV and supplies the block-by-block luminance value signal BT to the multiplier 324.
重み係数設定部323は、制御部51から供給された制御信号CTeに基づき、ブロックのそれぞれに対して重み係数Wを設定して、設定した重み係数Wを乗算器324に供給する。 The weighting factor setting unit 323 sets a weighting factor W for each of the blocks based on the control signal CTe supplied from the control unit 51 and supplies the set weighting factor W to the multiplier 324.
乗算器324は、ブロック別輝度算出部322から供給されたブロック別輝度値信号BTに対して重み係数設定部323で設定された重み係数Wを乗算して、検波値算出部325に供給する。 The multiplier 324 multiplies the block-by-block luminance value signal BT supplied from the block-by-block luminance calculation unit 322 by the weighting factor W set by the weighting factor setting unit 323 and supplies the result to the detection value calculation unit 325.
検波値算出部325は、ブロック別輝度値信号BTと重み係数Wの乗算結果を撮像画像内で加算して、加算結果を検波信号JBとして制御部51に供給する。また、検波値算出部325は、撮像画像毎に検波信号JBの生成を行う。 The detection value calculation unit 325 adds the multiplication result of the block-specific luminance value signal BT and the weighting coefficient W in the captured image, and supplies the addition result to the control unit 51 as the detection signal JB. The detection value calculation unit 325 generates a detection signal JB for each captured image.
画像処理部35は、A/D変換部23から供給された画像信号DVaに対して種々の画像処理を行う。例えばホワイトバランス(WB)調整部351では、撮像画像における白色の被写体が正しく白色として表示されるように、ホワイトバランス調整を行う。またホワイトバランス調整部351は、検出信号JAによって撮像画像を提示画像の領域とその他の画像(以下「背景画像」という)の領域に区分できるとき、検出信号JAに基づき、撮像画像における提示画像に対応したホワイトバランス調整と、背景画像の領域に対応したホワイトバランス調整を領域毎に行う。また、画像処理部35は、ホワイトバランス調整後の画像信号に対してガンマ補正を行う。例えばガンマ補正部352は、提示画像検出部31からの検出信号JAによって撮像画像を提示画像の領域と背景画像の領域に区分できるとき、提示画像の領域に対しては白とびが生じないようにガンマ補正を行い、背景画像の領域に対しては黒つぶれが生じないようにガンマ補正を行う。 The image processing unit 35 performs various image processing on the image signal DVa supplied from the A / D conversion unit 23. For example, the white balance (WB) adjustment unit 351 performs white balance adjustment so that a white subject in the captured image is correctly displayed as white. Further, when the white balance adjustment unit 351 can divide the captured image into a region of the presentation image and a region of other images (hereinafter referred to as “background image”) based on the detection signal JA, the white balance adjustment unit 351 converts the captured image into a presentation image in the captured image based on the detection signal JA. Corresponding white balance adjustment and white balance adjustment corresponding to the background image area are performed for each area. The image processing unit 35 performs gamma correction on the image signal after white balance adjustment. For example, when the gamma correction unit 352 can divide the captured image into the region of the presentation image and the region of the background image based on the detection signal JA from the presentation image detection unit 31, the overexposure does not occur in the region of the presentation image. Gamma correction is performed, and gamma correction is performed so that no blackout occurs in the background image area.
図4は、ホワイトバランス調整部351の構成を示している。ホワイトバランス検波部351aは、画像信号DVaから無彩色領域内の画像信号を抽出して、検波信号JCとしてホワイトバランス補正係数設定部351bに供給する。また、ホワイトバランス検波部351aは、検出信号JAに基づき、提示画像の領域と背景画像の領域とで無彩色領域を切り換える。 FIG. 4 shows the configuration of the white balance adjustment unit 351. The white balance detection unit 351a extracts an image signal in the achromatic region from the image signal DVa, and supplies it as a detection signal JC to the white balance correction coefficient setting unit 351b. The white balance detection unit 351a switches the achromatic color region between the presented image region and the background image region based on the detection signal JA.
ホワイトバランス補正係数設定部351bは、ホワイトバランス検波部351aから供給された検波信号JCからホワイトバランス補正係数Kを決定して補正処理部351cに供給する。 The white balance correction coefficient setting unit 351b determines the white balance correction coefficient K from the detection signal JC supplied from the white balance detection unit 351a and supplies the white balance correction coefficient K to the correction processing unit 351c.
補正処理部351cは、画像信号DVaに対してホワイトバランス補正係数Kを乗算することでホワイトバランス調整を行い、ホワイトバランス調整後の画像信号DVbを図1に示すガンマ補正部352に供給する。 The correction processing unit 351c performs white balance adjustment by multiplying the image signal DVa by the white balance correction coefficient K, and supplies the image signal DVb after the white balance adjustment to the gamma correction unit 352 shown in FIG.
さらに、画像処理部35は、例えばホワイトバランス調整やガンマ補正等が行われた三原色の画像信号を、静止画像または動画像の画像符号化技術に応じた画像信号例えば輝度信号や色差信号等に変換して圧縮伸長処理を行い、得られた静止画像または動画像の圧縮符号化信号GDaを記録再生部37出力する。さらに、圧縮伸長処理が行われていない静止画像や動画像の画像信号および/または圧縮符号化信号を外部機器(図示せず)に出力する処理を行う。画像処理部35は、圧縮符号化信号GDbが記録再生部37から供給されたとき、圧縮符号化信号GDbを圧縮符号化処理前の画像信号に戻す処理を行う。さらに、画像処理部35は、画像信号DVaから表示画像信号HGを生成して表示部38に供給する。また、画像処理部35は、制御部51から供給された表示信号HEに基づき、提示画像撮像モードに設定されたことを示す情報等がオンスクリーン表示されている表示画像信号HGの生成等も行う。 Further, the image processing unit 35 converts, for example, an image signal of three primary colors subjected to white balance adjustment, gamma correction, and the like into an image signal such as a luminance signal or a color difference signal according to an image encoding technique of a still image or a moving image. Then, compression / decompression processing is performed, and the obtained still image or moving image compression-encoded signal GDa is output to the recording / reproducing unit 37. Furthermore, a process of outputting an image signal and / or a compression-coded signal of a still image or a moving image that has not been subjected to compression / decompression processing to an external device (not shown) is performed. When the compressed encoded signal GDb is supplied from the recording / reproducing unit 37, the image processing unit 35 performs processing to return the compressed encoded signal GDb to the image signal before the compression encoding process. Further, the image processing unit 35 generates a display image signal HG from the image signal DVa and supplies it to the display unit 38. The image processing unit 35 also generates a display image signal HG in which information indicating that the presentation image capturing mode is set is displayed on the screen based on the display signal HE supplied from the control unit 51. .
記録再生部37は、画像処理部35から供給された圧縮符号化信号GDaを、記録媒体例えば半導体メモリや光ディスクあるいは磁気テープ等の記録媒体に記録する。また、記録媒体に記録されている圧縮符号化信号GDbを読み出して画像処理部35に供給する。 The recording / reproducing unit 37 records the compressed encoded signal GDa supplied from the image processing unit 35 on a recording medium such as a semiconductor memory, an optical disk, or a magnetic tape. Further, the compressed encoded signal GDb recorded on the recording medium is read and supplied to the image processing unit 35.
表示部38は、例えば液晶表示素子等を用いて構成されており、画像処理部35から供給された表示画像信号HGに基づいて画像表示を行う。 The display unit 38 is configured using, for example, a liquid crystal display element or the like, and performs image display based on the display image signal HG supplied from the image processing unit 35.
レンズ駆動部41は、撮像素子211の受光面に被写体像が焦点の合った状態で結像されるようにレンズ部11のフォーカスレンズ(図示せず)を駆動する。また、撮像素子211の受光面に結像される被写体像の大きさが所望の大きさとなるようにレンズ部11のズームレンズ(図示せず)を駆動する。 The lens driving unit 41 drives a focus lens (not shown) of the lens unit 11 so that the subject image is focused on the light receiving surface of the image sensor 211. Further, the zoom lens (not shown) of the lens unit 11 is driven so that the size of the subject image formed on the light receiving surface of the image sensor 211 becomes a desired size.
絞り駆動部42は、絞り機構12を駆動して、撮像素子211の受光面に結像される被写体像の光量を調整する。 The aperture driving unit 42 drives the aperture mechanism 12 to adjust the amount of light of the subject image formed on the light receiving surface of the image sensor 211.
ストロボ45は、所望の明るさの撮像画像が得られるように、ストロボ光の照射を行う。また、顔検出部46は、画像信号DVaを用いて顔検出を行い顔検出信号FEを制御部51に供給する。 The strobe 45 emits strobe light so that a captured image with a desired brightness can be obtained. The face detection unit 46 performs face detection using the image signal DVa and supplies the face detection signal FE to the control unit 51.
制御部51には、ユーザインタフェース部52や動き検出部53が接続されている。ユーザインタフェース部52は、操作キーや外部からの遠隔操作信号を入力するためのインタフェース等で構成されており、ユーザ操作に応じた操作信号PSを生成して制御部51に供給する。動き検出部53は、撮像装置10の動きによって生じる撮像画像の移動を検出するためのものであり、例えば加速度センサやジャイロセンサ等を用いて構成されている。動き検出部53は、撮像装置10の動きを検出して、動き検出結果を示すセンサ信号SSを制御部51に供給する。 A user interface unit 52 and a motion detection unit 53 are connected to the control unit 51. The user interface unit 52 includes an operation key and an interface for inputting a remote operation signal from the outside. The user interface unit 52 generates an operation signal PS corresponding to a user operation and supplies the operation signal PS to the control unit 51. The motion detection unit 53 is for detecting the movement of the captured image caused by the motion of the imaging device 10, and is configured using, for example, an acceleration sensor or a gyro sensor. The motion detection unit 53 detects the motion of the imaging device 10 and supplies a sensor signal SS indicating the motion detection result to the control unit 51.
制御部51は、CPU(Central Processing Unit)511や、ROM(Read Only Memory)512、RAM(Random Access Memory)513等で構成されている。CPU511は、ROM512に格納されているプログラムを実行して、操作信号PSに応じた制御信号を生成して各部に供給することで、撮像装置の動作がユーザ操作に応じて動作となるように制御する。なお、RAMは、種々の制御を行う際に情報を一時記憶しておくためのワーキングエリア等として用いられる。 The control unit 51 includes a CPU (Central Processing Unit) 511, a ROM (Read Only Memory) 512, a RAM (Random Access Memory) 513, and the like. The CPU 511 executes a program stored in the ROM 512, generates a control signal corresponding to the operation signal PS, and supplies the control signal to each unit, thereby controlling the operation of the imaging device according to a user operation. To do. The RAM is used as a working area for temporarily storing information when performing various controls.
また、制御部51は、検波部32から供給された検波信号JBによって示された検波値が予め設定されている基準値となるように制御信号を生成して制御信号を生成して露出調整部に供給することで、撮像画像における所望の被写体を最適な明るさとする。露出調整部は、少なくとも撮像部21に入射する光量と撮像部21から出力する画像信号Saのゲインと撮像部21で画像信号Saを得る際の露光時間のいずれかを調整するものであり、絞り機構12と絞り駆動部42、タイミング信号発生部22、増幅部213が露出調整部に相当する。例えば、制御部51は、検波信号JBに基づき制御信号CTbを生成して絞り駆動部42に供給することで、撮像画像における所望の被写体が最適な明るさとなるように撮像部21に入射する光量を調整する。また、制御部51は、検波信号JBに基づき制御信号CTcを生成してタイミング信号発生部22に供給することで、撮像画像における所望の被写体が最適な明るさとなるように露光時間を調整する。また、制御部51は、検波信号JBに基づき制御信号CTdを生成して増幅部213に供給することで、撮像画像における所望の被写体が最適な明るさとなるように画像信号Saのゲインを調整する。 Further, the control unit 51 generates a control signal so that the detection value indicated by the detection signal JB supplied from the detection unit 32 becomes a preset reference value, generates a control signal, and generates an exposure adjustment unit. The desired brightness in the captured image is set to the optimum brightness. The exposure adjustment unit adjusts at least one of the amount of light incident on the imaging unit 21, the gain of the image signal Sa output from the imaging unit 21, and the exposure time when the imaging unit 21 obtains the image signal Sa. The mechanism 12, the aperture driving unit 42, the timing signal generating unit 22, and the amplifying unit 213 correspond to an exposure adjusting unit. For example, the control unit 51 generates a control signal CTb based on the detection signal JB and supplies the control signal CTb to the aperture driving unit 42, so that the amount of light incident on the imaging unit 21 so that a desired subject in the captured image has optimum brightness. Adjust. In addition, the control unit 51 generates a control signal CTc based on the detection signal JB and supplies the control signal CTc to the timing signal generation unit 22, thereby adjusting the exposure time so that a desired subject in the captured image has optimum brightness. In addition, the control unit 51 generates the control signal CTd based on the detection signal JB and supplies the control signal CTd to the amplification unit 213, thereby adjusting the gain of the image signal Sa so that a desired subject in the captured image has an optimal brightness. .
また、制御部51は、動き検出部53からのセンサ信号SSに応じて提示画像の検出動作の制御や、提示画像検出部31から供給された検出信号JAに基づき、提示画像が検出されたことを判別したとき、撮像画像における提示画像等を最適な画像とする提示画像撮像モードに切り換える処理を行う。また、制御部51は、顔検出信号FEに基づいた撮像モードの切り換え処理を行う。さらに、制御部51は、どのような撮像モードに設定されているかを制御信号CTeによって検波部32と画像処理部35に通知する。また、制御部51は、ユーザによって提示画像の領域の指示が行われたとき、この指示された領域を示す情報を制御信号CTfとして提示画像検出部31に供給する。 In addition, the control unit 51 controls the detection operation of the presentation image in accordance with the sensor signal SS from the motion detection unit 53 and detects that the presentation image is detected based on the detection signal JA supplied from the presentation image detection unit 31. Is determined, a process of switching to a presentation image imaging mode in which the presentation image in the captured image is an optimal image is performed. In addition, the control unit 51 performs imaging mode switching processing based on the face detection signal FE. Furthermore, the control unit 51 notifies the detection unit 32 and the image processing unit 35 of what imaging mode is set by using the control signal CTe. Further, when the user designates a region of the presentation image, the control unit 51 supplies information indicating the designated region to the presentation image detection unit 31 as a control signal CTf.
ここで、制御部51によって提示画像撮像モードに設定されたとき、検波部32は、撮像画像における提示画像が最適な明るさとなるように検波領域の切り換えを行う。画像処理部35は、提示画像と背景画像の色再現をそれぞれ正しくするホワイトバランス調整や、提示画像に対しては白とびが生じないようにガンマ補正を行い、背景画像と判別された画像に対しては黒つぶれが生じないようにガンマ補正を行う。 Here, when the presentation image capturing mode is set by the control unit 51, the detection unit 32 switches the detection region so that the presented image in the captured image has an optimum brightness. The image processing unit 35 performs white balance adjustment that corrects the color reproduction of the presentation image and the background image, and performs gamma correction so that the presentation image is not overexposed. Gamma correction is performed to prevent blackout.
なお、制御部51は、制御信号CTaを生成してレンズ駆動部41に供給して、撮像素子211の受光面に被写体像が焦点の合った状態で結像されるようにフォーカスレンズを駆動させる処理や、所望の画角の撮像画像を得ることができるようにズームレンズを駆動させる処理等を行わせる。また、制御部51は、制御信号CThを生成してストロボ45に供給して、ストロボ発光の制御を行う。 The control unit 51 generates a control signal CTa and supplies the control signal CTa to the lens driving unit 41 to drive the focus lens so that the subject image is focused on the light receiving surface of the image sensor 211. Processing or processing for driving the zoom lens so as to obtain a captured image having a desired angle of view is performed. The control unit 51 also generates a control signal CTh and supplies it to the strobe 45 to control strobe light emission.
次に、撮像装置の動作について図5のフローチャートを用いて説明する。ステップST1で制御部51は、提示画像検出部31で提示画像検出を行わせる。 Next, the operation of the imaging apparatus will be described using the flowchart of FIG. In step ST <b> 1, the control unit 51 causes the presentation image detection unit 31 to perform presentation image detection.
図6は、提示画像検出動作を示すフローチャートである。ステップST101で提示画像検出部31は変換処理を行う。提示画像検出部31は、三原色の画像信号DVaから輝度信号DYと色差信号DCを生成してステップST102に進む。 FIG. 6 is a flowchart showing the presentation image detection operation. In step ST101, the presentation image detection unit 31 performs a conversion process. The presentation image detection unit 31 generates a luminance signal DY and a color difference signal DC from the three primary color image signals DVa, and proceeds to step ST102.
ステップST102で提示画像検出部31は2値化処理を行う。提示画像検出部31は、輝度信号DYと色差信号DCを2値化して、輝度2値化信号と色差2値化信号を生成してステップST103に進む。 In step ST102, the presentation image detection unit 31 performs binarization processing. The presented image detection unit 31 binarizes the luminance signal DY and the color difference signal DC, generates a luminance binarized signal and a color difference binarized signal, and proceeds to step ST103.
2値化処理では、上述のように、輝度信号DYや色差信号DCと閾値を比較することで輝度信号DYや色差信号DCの2値化を行い、輝度2値化信号BYや色差2値化信号BCを生成する。2値化処理に用いる閾値は、予め固定したレベルに設定しておくものとしてもよく、撮像画像から提示画像を精度よく検出できるように、撮像画像に応じて閾値を設定するものとしてもよい。 In the binarization process, as described above, the luminance signal DY and the color difference signal DC are binarized by comparing the luminance signal DY and the color difference signal DC with the threshold value, and the luminance binarized signal BY and the color difference binarization are performed. A signal BC is generated. The threshold used for the binarization process may be set at a fixed level in advance, or may be set according to the captured image so that the presented image can be detected from the captured image with high accuracy.
ここで、撮像画像に応じて閾値を設定する場合、例えば統計的手法を用いて閾値の設定を行う。統計的手法としてはモード法や判別分析法等を用いるものとする。モード法は、撮像画像の輝度レベルのヒストグラムが双峰性を有しており、提示画像の部分と他の画像(以下「背景画像」という)の部分が区分されるとき、谷の位置を閾値として設定する方法である。また、判別分析法は、ヒストグラムを輝度レベルに応じて2つに区分してグループ分けを行い、このグループ間の分散が最大となる区分レベルを閾値として設定する方法である。 Here, when setting a threshold value according to a captured image, for example, the threshold value is set using a statistical method. As a statistical method, a mode method, a discriminant analysis method, or the like is used. In the mode method, the brightness level histogram of the captured image has bimodality, and when the portion of the presented image is separated from the portion of another image (hereinafter referred to as “background image”), the valley position is set as a threshold value. It is a method to set as. The discriminant analysis method is a method in which the histogram is divided into two groups according to the luminance level, and the division level that maximizes the variance between the groups is set as a threshold value.
ステップST103で提示画像検出部31は、輝度2値化信号BYを選択してステップST104に進む。 In step ST103, the presented image detection unit 31 selects the luminance binarized signal BY and proceeds to step ST104.
ステップST104で提示画像検出部31は、水平分布を取得してステップST105に進む。また、ステップST105で提示画像検出部31は、垂直分布を取得してステップST106に進む。 In step ST104, the presentation image detection unit 31 acquires a horizontal distribution and proceeds to step ST105. In step ST105, the presentation image detection unit 31 acquires the vertical distribution and proceeds to step ST106.
図7は、水平分布と垂直分布の取得処理を示している。図7の(A)は撮像画像を示しており、図7の(B)は2値化処理後の撮像画像を示している。提示画像検出部31は、ライン毎に輝度信号DYの信号レベルが閾値よりも高い画素をカウントすることで、図7の(C)に示す水平分布を得る。また、垂直方向に輝度信号DYの信号レベルが閾値よりも高い画素をカウントすることで、図7の(D)に示すように、上述の水平方向と直交する垂直方向の分布を得る。 FIG. 7 shows a process for acquiring a horizontal distribution and a vertical distribution. FIG. 7A shows a captured image, and FIG. 7B shows a captured image after binarization processing. The presentation image detection unit 31 obtains a horizontal distribution shown in FIG. 7C by counting pixels in which the signal level of the luminance signal DY is higher than the threshold value for each line. Further, by counting pixels in which the signal level of the luminance signal DY is higher than the threshold value in the vertical direction, as shown in FIG. 7D, a distribution in the vertical direction perpendicular to the horizontal direction is obtained.
ステップST106で提示画像検出部31は、提示画像の上辺と下辺の検出処理を行ってステップST107に進む。 In step ST <b> 106, the presented image detection unit 31 performs processing for detecting the upper side and the lower side of the presented image, and proceeds to step ST <b> 107.
図8,図9は、提示画像の上辺と下辺の検出処理を示している。図8の(A)は2値化処理後の撮像画像を示しており、図8の(B)はステップST104で取得した水平分布を示している。ここで、提示画像検出部31は、水平分布を複数領域に区分して、領域毎に対象画素の総和を求める。例えば領域REh1,REh2,REh3,REh4,REh5に区分して、領域毎に対象画素の総和を求める。次に、提示画像検出部31は、撮像画像の上端から下端方向に順次領域を選択して、選択した領域における対象画素の総和と閾値を比較して、総和が閾値を超える領域を検出する。このような処理を行うことで、提示画像の上辺を含む領域を検出することが可能となる。同様に、提示画像検出部31は、撮像画像の下端から上端方向に順次領域を選択して、選択した領域における対象画素の総和と閾値を比較して、総和が閾値を超える領域を検出する。このような処理を行うことで、提示画像の下辺を含む領域を検出することが可能となる。 8 and 9 show the detection processing of the upper side and the lower side of the presented image. 8A shows a captured image after binarization processing, and FIG. 8B shows the horizontal distribution acquired in step ST104. Here, the presentation image detection unit 31 divides the horizontal distribution into a plurality of regions, and obtains the sum of target pixels for each region. For example, the region is divided into regions REh1, REh2, REh3, REh4, and REh5, and the sum of target pixels is obtained for each region. Next, the presented image detection unit 31 sequentially selects areas from the upper end to the lower end of the captured image, compares the sum of the target pixels in the selected area with a threshold value, and detects an area where the sum exceeds the threshold value. By performing such processing, it is possible to detect a region including the upper side of the presented image. Similarly, the presented image detection unit 31 sequentially selects areas from the lower end to the upper end of the captured image, compares the sum of the target pixels in the selected area with the threshold, and detects an area where the sum exceeds the threshold. By performing such processing, it is possible to detect a region including the lower side of the presented image.
ところで、提示画像の辺が領域の境界に近接していると、領域内の対象画素の総和が大きく異なり、提示画像の辺を含む領域の検出が困難となる場合がある。例えば、提示画像の上辺が領域REh(n)内であって領域REh(n+1)に近接していると、領域内の対象画素の総和が大きな値とならない。ここで、総和が閾値を超える領域の検出が行われると、提示画像の上辺は領域REh(n+1)に含まれると誤って判断されてしまうおそれがある。したがって、水平分布を複数領域に区分する際に、他の領域と重なる部分を有するように領域を設ける。例えば領域REh1〜REh5,REh1s〜REh4sに示すように領域を設ける。この場合、提示画像の上辺が領域REh1と領域REh2の境界付近であって、領域REh1または領域REh2のいずれの位置であっても、領域REh1sにおける対象画素の総和は大きく変動することがない。したがって、このときの領域REh1sにおける対象画素の総和と閾値を比較したとき、提示画像の上辺が領域REh1sに含まれていると判別されるように閾値を設定すれば、提示画像の辺を含む領域を正しく検出することができる。なお、閾値は、予め固定して設けておくものとしてもよく、上述のように統計的手法を用いて各領域における対象画素の総和から閾値を設定するものとしてもよい。 By the way, when the side of the presentation image is close to the boundary of the region, the sum of the target pixels in the region is greatly different, and it may be difficult to detect the region including the side of the presentation image. For example, if the upper side of the presentation image is in the region REh (n) and close to the region REh (n + 1), the sum of the target pixels in the region does not become a large value. Here, if a region where the sum exceeds the threshold value is detected, there is a possibility that the upper side of the presented image is erroneously determined to be included in the region REh (n + 1). Therefore, when the horizontal distribution is divided into a plurality of regions, the regions are provided so as to have portions overlapping with other regions. For example, regions are provided as shown in regions REh1 to REh5 and REh1s to REh4s. In this case, even if the upper side of the presented image is near the boundary between the region REh1 and the region REh2, and the position is in either the region REh1 or the region REh2, the total sum of the target pixels in the region REh1s does not vary greatly. Therefore, if the threshold is set so that the upper side of the presentation image is included in the region REh1s when the total sum of the target pixels in the region REh1s at this time is compared with the threshold, the region including the side of the presentation image Can be detected correctly. The threshold value may be fixed in advance, or may be set from the sum of target pixels in each region using a statistical method as described above.
次に、提示画像検出部31は、検出した提示画像の辺を含む領域例えば上辺を含む領域REh1sにおいて、水平分布におけるライン毎の対象画素の総和を撮像画像の上端から下端方向にライン毎に順次用いて閾値と比較して、総和が閾値を超えるラインを提示画像の上辺Laとする。同様に、提示画像検出部31は、下辺を含む領域REh4sにおいて、水平分布におけるライン毎の対象画素の総和を撮像画像の下端から上端方向にライン毎に順次用いて閾値と比較して、総和が閾値を超えるラインを提示画像の下辺Lbとする。図9の(A)は2値化処理後の撮像画像を示しており、図9の(B)は水平分布を示している。ここで、領域REh1sが上辺を含む領域として判別されたとき、領域REh1sにおけるライン毎の対象画素の総和を撮像画像の上端から下端方向にライン毎に順次用いて閾値と比較して、総和が閾値を超えるラインを提示画像の上辺Laとする。同様に、領域REh4sが下辺を含む領域として判別されたとき、領域REh4sにおけるライン毎の対象画素の総和を撮像画像の下端から上端方向にライン毎に順次用いて閾値と比較して、総和が閾値を超えるラインを提示画像の下辺Lbとする。 Next, in the region REh1s including the side of the detected presentation image, for example, the region REh1s including the upper side, the presented image detection unit 31 sequentially calculates the sum of the target pixels for each line in the horizontal distribution for each line from the upper end to the lower end of the captured image. The line whose sum exceeds the threshold is used as the upper side La of the presentation image. Similarly, in the region REh4s including the lower side, the presented image detection unit 31 sequentially uses the sum of the target pixels for each line in the horizontal distribution from the lower end to the upper end of the captured image for each line and compares it with the threshold value. A line exceeding the threshold is set as the lower side Lb of the presentation image. FIG. 9A shows a captured image after binarization processing, and FIG. 9B shows a horizontal distribution. Here, when the region REh1s is determined as the region including the upper side, the sum of the target pixels for each line in the region REh1s is sequentially used for each line from the upper end to the lower end of the captured image and compared with the threshold value. A line exceeding the upper limit La is set as the upper side La of the presentation image. Similarly, when the region REh4s is determined as the region including the lower side, the sum of the target pixels for each line in the region REh4s is sequentially used for each line from the lower end to the upper end of the captured image and compared with the threshold value. A line that exceeds is set as the lower side Lb of the presentation image.
このように、上辺や下辺を含む領域を検出して、検出した領域から提示画像の上辺や下辺を検出することで、例えばノイズ等によって一つのラインの総和が大きくなってしまっても、このラインが提示画像の上辺と誤って判断されてしまうことを防止できる。 In this way, even if the total of one line becomes large due to noise or the like by detecting the area including the upper side and the lower side and detecting the upper side and the lower side of the presentation image from the detected area, this line Can be prevented from being erroneously determined as the upper side of the presented image.
ステップST107で提示画像検出部31は、提示画像の左辺と右辺の検出処理を行ってステップST108に進む。 In step ST107, the presentation image detection unit 31 performs detection processing of the left side and the right side of the presentation image, and proceeds to step ST108.
図10,図11は、提示画像の左辺と右辺の検出処理を示している。図10の(A)は2値化処理後の撮像画像を示しており、図10の(B)はステップST105で取得した垂直分布を示している。ここで、提示画像検出部31は、垂直分布を複数領域例えば領域REv1〜REv6,REv1s〜REv5sに区分して、領域毎に対象画素の総和を求める。次に、提示画像検出部31は、撮像画像の左端から右端方向に順次領域を選択して、選択した領域における対象画素の総和と閾値を比較して、総和が閾値を超える領域を検出する。このような処理を行うことで、提示画像の左辺を含む領域REv2を検出することが可能となる。同様に、提示画像検出部31は、撮像画像の右端から左端方向に順次領域を選択して、選択した領域における対象画素の総和と閾値を比較して、総和が閾値を超える領域を検出する。このような処理を行うことで、提示画像の右辺を含む領域REv5を検出することが可能となる。なお、このときの閾値は、予め固定して設けておくものとしてもよく、上述のように統計的手法を用いて各領域における対象画素の総和から閾値を設定するものとしてもよい。 10 and 11 show the processing for detecting the left and right sides of the presented image. 10A shows a captured image after binarization processing, and FIG. 10B shows the vertical distribution acquired in step ST105. Here, the presentation image detection unit 31 divides the vertical distribution into a plurality of regions, for example, regions REv1 to REv6 and REv1s to REv5s, and obtains the sum of the target pixels for each region. Next, the presented image detection unit 31 sequentially selects areas from the left end to the right end of the captured image, compares the sum of the target pixels in the selected area with a threshold value, and detects an area where the sum exceeds the threshold value. By performing such processing, the region REv2 including the left side of the presented image can be detected. Similarly, the presented image detection unit 31 sequentially selects regions from the right end to the left end of the captured image, compares the sum of the target pixels in the selected region with a threshold value, and detects a region where the sum exceeds the threshold value. By performing such processing, the region REv5 including the right side of the presented image can be detected. The threshold value at this time may be fixed in advance, or may be set from the sum of target pixels in each region using a statistical method as described above.
次に、提示画像検出部31は、検出した領域例えば左辺を含む領域REv2において、垂直分布における画素位置毎の対象画素の総和を撮像画像の左端から右端方向に画素位置毎に順次用いて閾値と比較して、総和が閾値を超える画素位置を提示画像の左辺Lcとする。同様に、提示画像検出部31は、右辺を含む領域REv5において、垂直分布における画素位置毎の対象画素の総和を撮像画像の右端から左端方向に画素位置毎に順次用いて閾値と比較して、総和が閾値を超える画素位置を提示画像の右辺Ldとする。 Next, the presented image detection unit 31 sequentially uses the sum of the target pixels for each pixel position in the vertical distribution in the detected region, for example, the region REv2 including the left side, sequentially from the left end to the right end of the captured image for each pixel position. In comparison, the pixel position where the sum exceeds the threshold value is defined as the left side Lc of the presentation image. Similarly, in the region REv5 including the right side, the presented image detection unit 31 sequentially uses the sum of the target pixels for each pixel position in the vertical distribution for each pixel position in the direction from the right end to the left end of the captured image and compares it with the threshold value. The pixel position where the sum exceeds the threshold is defined as the right side Ld of the presented image.
図11の(A)は2値化処理後の撮像画像を示しており、図11の(B)は垂直分布を示している。ここで、領域REv2が左辺を含む領域として判別されたとき、領域REv2における画素位置毎の対象画素の総和を撮像画像の左端から右端方向に順次用いて閾値と比較して、総和が閾値を超える画素位置を提示画像の左辺Lcとする。同様に、領域REv5が右辺を含む領域として判別されたとき、領域REv5における画素位置毎の対象画素の総和を撮像画像の右端から左端方向にライン毎に順次用いて閾値と比較して、総和が閾値を超えるラインを提示画像の右辺Ldとする。 FIG. 11A shows a captured image after binarization processing, and FIG. 11B shows a vertical distribution. Here, when the region REv2 is determined as a region including the left side, the sum of the target pixels for each pixel position in the region REv2 is sequentially used from the left end to the right end of the captured image and compared with the threshold, and the sum exceeds the threshold. Let the pixel position be the left side Lc of the presentation image. Similarly, when the region REv5 is determined as the region including the right side, the sum of the target pixels for each pixel position in the region REv5 is sequentially used for each line from the right end to the left end of the captured image and compared with the threshold value. A line exceeding the threshold is set as the right side Ld of the presentation image.
ステップST108で提示画像検出部31は、提示画像であるか否か判別する。提示画像検出部31は、ステップST106,ST107で検出した上辺と下辺および左辺と右辺からアスペクト比を判別して、このアスペクト比が提示画像のアスペクト比例えばテレビジョン放送で用いられているアスペクト比「4:3」,「16:9」等に近似しているとき、すなわち、判別したアスペクト比が「4:3±α」,「16:9±β」であるとき、ステップST106とステップST107で検出した辺によって囲まれる領域を提示画像と判別して提示画像検出処理を終了して図5のステップST2に進む。なお「α」「β」は、提示画像であると判別するための許容範囲を示す定数であり、予め設定しておくものとする。このように、アスペクト比が所望のアスペクト比に近似しているか否かを判別することで、予め規定されているアスペクト比の提示画像を撮像したとき、撮像画像から提示画像の領域を容易に判別することが可能となる。 In step ST108, the presentation image detection unit 31 determines whether or not the presentation image is present. The presented image detection unit 31 determines the aspect ratio from the upper and lower sides and the left and right sides detected in steps ST106 and ST107, and this aspect ratio is the aspect ratio of the presented image, for example, the aspect ratio “used in television broadcasting”. When approximate to "4: 3", "16: 9", or the like, that is, when the determined aspect ratio is "4: 3 ± α", "16: 9 ± β", in steps ST106 and ST107 The area surrounded by the detected sides is determined as a presentation image, the presentation image detection process is terminated, and the process proceeds to step ST2 in FIG. “Α” and “β” are constants indicating an allowable range for determining that the image is a presentation image, and are set in advance. In this way, by determining whether or not the aspect ratio approximates the desired aspect ratio, it is possible to easily determine the area of the presentation image from the captured image when a presentation image with a predetermined aspect ratio is captured. It becomes possible to do.
また、提示画像検出部31は、提示画像の上辺と下辺および左辺と右辺を検出できないときや、検出した上辺と下辺および左辺と右辺に基づいて判別したアスペクト比が所望のアスペクト比に近似していないとき、提示画像を検出していないものとしてステップST109に進む。 In addition, when the presented image detection unit 31 cannot detect the upper and lower sides and the left and right sides of the presented image, the aspect ratio determined based on the detected upper and lower sides and the left and right sides approximates the desired aspect ratio. If not, the process proceeds to step ST109 assuming that the presented image is not detected.
図12は、提示画像であるか否かの判別動作を説明するための図である。例えば、図12の(A)や(B)に示すように上辺Laと下辺Lbおよび左辺Lcと右辺Ldが検出されて、この検出された上辺,下辺,左辺および右辺で囲まれる画像が、提示画像のアスペクト比に近似していないとき、提示画像でないものと判別してステップST109に進む。 FIG. 12 is a diagram for explaining a determination operation as to whether or not the image is a presentation image. For example, as shown in FIGS. 12A and 12B, the upper side La and the lower side Lb, the left side Lc and the right side Ld are detected, and an image surrounded by the detected upper side, lower side, left side and right side is presented. When the aspect ratio of the image is not approximated, it is determined that the image is not a presentation image, and the process proceeds to step ST109.
ステップST109で提示画像検出部31は、提示画像の検出が1度目であるか否かを判別する。提示画像検出部31は、輝度2値化信号を用いて提示画像の検出を行ったとき、提示画像の検出が1度目であるからステップST110に進む。 In step ST109, the presentation image detection unit 31 determines whether the presentation image is detected for the first time. When the presentation image is detected using the luminance binarized signal, the presentation image detection unit 31 proceeds to step ST110 because the presentation image is detected for the first time.
ステップST110で提示画像検出部31は、色差2値化信号を選択してステップST104に戻り、ステップST104からの処理を繰り返す。 In step ST110, the presentation image detection unit 31 selects the color difference binarized signal, returns to step ST104, and repeats the processing from step ST104.
提示画像検出部31は、ステップST104からの処理を繰り返すことで、色差2値化信号に基づいた提示画像の検出を行う。なお、提示画像検出部31は、提示画像の上辺と下辺および左辺と右辺を検出できないときや、検出した上辺と下辺および左辺と右辺に基づいて判別したアスペクト比が所望のアスペクト比に近似していないとき、ステップST108からステップST109に進む。 The presentation image detection unit 31 detects the presentation image based on the color difference binarized signal by repeating the processing from step ST104. The presented image detection unit 31 cannot detect the upper and lower sides and the left and right sides of the presented image, or the aspect ratio determined based on the detected upper and lower sides and the left and right sides approximates the desired aspect ratio. If not, the process proceeds from step ST108 to step ST109.
このように、輝度2値化信号だけでなく色差2値信号を用いて提示画像の検出を行うものとすれば、例えば提示画像と背景画像との輝度差が少ないため、輝度2値化信号に基づいて提示画像と背景画像を区分することが困難な場合でも、提示画像が背景画像とは異なる色を基調とした画像であるとき、色の違いから提示画像を検出できるようになる。この提示画像は、自然風景に比べ大きな輝度値を持つという特徴と色が濃いという特徴を持っている。ここで、色の濃さはYCC空間やLab空間の色空間における色差成分の大きさやHSV空間における彩度の大きさを用いて表すことができる。したがって、色差成分の強度や彩度の大きさを用いて提示画像の検出を行うものとすれば、輝度差に基づいて提示画像と背景画像の区分が困難な場合でも、提示画像と背景画像を区分することが可能となり、精度よく提示画像を検出できるようになる。 In this way, if the presentation image is detected using not only the luminance binarized signal but also the color difference binary signal, for example, the luminance difference between the presented image and the background image is small. Even when it is difficult to distinguish between the presentation image and the background image based on this, when the presentation image is an image based on a color different from the background image, the presentation image can be detected from the difference in color. This presented image has a feature that it has a larger luminance value and a darker color than natural scenery. Here, the color density can be expressed using the magnitude of the color difference component in the color space of the YCC space or Lab space or the magnitude of the saturation in the HSV space. Therefore, if the presentation image is detected using the intensity of the color difference component and the magnitude of the saturation, the presentation image and the background image can be detected even if it is difficult to distinguish the presentation image and the background image based on the luminance difference. It becomes possible to classify, and a presentation image can be detected with high accuracy.
ステップST109で提示画像検出部31は、提示画像の検出が1度目であるか否かを判別する。提示画像検出部31は、輝度2値化信号と色差2値化信号を用いて提示画像の検出を行っており、提示画像の検出が1度目でないことから処理を終了して図5のステップST2に進む。 In step ST109, the presentation image detection unit 31 determines whether the presentation image is detected for the first time. The presentation image detection unit 31 detects the presentation image using the luminance binarization signal and the color difference binarization signal. Since the presentation image is not detected for the first time, the process ends and step ST2 in FIG. 5 is performed. Proceed to
なお、提示画像の検出は、図6に示す処理に限られるものではない。例えば、撮像画像のエッジ検出を行うことで、提示画像と背景画像の境界を示す輪郭を取得して、この輪郭情報から提示画像の4つの頂点や4つの辺を示す直線を求めて、提示画像を検出するものとしてもよい。 The detection of the presented image is not limited to the process shown in FIG. For example, by performing edge detection of the captured image, a contour indicating the boundary between the presentation image and the background image is acquired, and straight lines indicating four vertices and four sides of the presentation image are obtained from the contour information, and the presentation image is obtained. It is good also as what detects.
図5のステップST2で制御部51は、提示画像撮像モードへの切換条件を満たしているか否かの判別を行う。制御部51は、提示画像撮像モードへの切換条件を満たしていると判別したときステップST3に進み、満たしていないと判別したときステップST5に進む。 In step ST2 of FIG. 5, the control unit 51 determines whether or not the condition for switching to the presentation image capturing mode is satisfied. When it is determined that the condition for switching to the presentation image capturing mode is satisfied, the control unit 51 proceeds to step ST3, and when it is determined that the condition is not satisfied, the control unit 51 proceeds to step ST5.
制御部51は、提示画像が検出されたフレームの発生状況に応じて、提示画像撮像モードへの切換条件を満たしているか否か判別する。例えば、制御部51は、提示画像が検出されたフレームを生ずる毎にカウントアップを行い、提示画像が検出されていないフレームが生ずる毎にカウントダウンを行う。なお、カウント値の範囲は「0」〜「数十程度」に設定する。ここで、カウント値が撮像モード判定のために予め設定されている閾値(以下「モード判定閾値」という)以上となったときにはステップST3に進み、カウント値がモード判定閾値未満であるときはステップST5に進む。 The control unit 51 determines whether or not the condition for switching to the presentation image capturing mode is satisfied according to the generation state of the frame in which the presentation image is detected. For example, the control unit 51 counts up every time a frame in which a presentation image is detected is generated, and counts down every time a frame in which a presentation image is not detected occurs. Note that the range of the count value is set to “0” to “about several tens”. Here, when the count value becomes equal to or larger than a threshold value set in advance for imaging mode determination (hereinafter referred to as “mode determination threshold value”), the process proceeds to step ST3. When the count value is less than the mode determination threshold value, step ST5 is performed. Proceed to
また、制御部51は、提示画像が検出されたフレームの連続数や、提示画像が検出されていないフレームの連続数に基づいて撮像モードの設定を行うものとしてもよい。例えば、提示画像が検出されたフレームの連続数が所定数となったとき、撮像モードを通常撮像モードから提示画像撮像モードに切り換える。また、提示画像が検出されていないフレームの連続数が所定数となったとき、撮像モードを提示画像撮像モードから通常撮像モードに切り換えるものとしてもよい。このようにすれば、提示画像の検出状況に応じた撮像モードの切り換えを安定して行うことができる。 Moreover, the control part 51 is good also as what sets the imaging mode based on the continuous number of the frames from which the presentation image was detected, or the continuous number of the frames from which the presentation image was not detected. For example, when the number of consecutive frames in which the presentation image is detected reaches a predetermined number, the imaging mode is switched from the normal imaging mode to the presentation image imaging mode. The imaging mode may be switched from the presentation image imaging mode to the normal imaging mode when the number of consecutive frames in which no presentation image is detected reaches a predetermined number. In this way, it is possible to stably switch the imaging mode according to the detection state of the presented image.
ステップST3で制御部51は、提示画像撮像モード通知処理を行いステップST4に進む。制御部51は、撮像モードを提示画像撮像モードに設定して、撮像装置が提示画像撮像モードに設定されていることをユーザに通知する。例えば、制御部51は、提示画像撮像モードに設定されているとき、表示信号HEを生成して画像処理部35に供給して、画像信号DVaと表示信号HEから表示画像信号HGを生成させることで、表示部38の画面上に撮像画像と提示画像撮像モードに設定されたことを示す情報を表示させる。なお、図13は、表示部38で表示されている撮像画像上に、提示画像撮像モードに設定されたことを示すアイコン表示MHを設けた場合を示している。 In step ST3, the control unit 51 performs a presentation image capturing mode notification process and proceeds to step ST4. The control unit 51 sets the imaging mode to the presentation image imaging mode, and notifies the user that the imaging device is set to the presentation image imaging mode. For example, when the presentation image capturing mode is set, the control unit 51 generates the display signal HE and supplies the display signal HE to the image processing unit 35 to generate the display image signal HG from the image signal DVa and the display signal HE. Thus, information indicating that the captured image and the presentation image capturing mode are set is displayed on the screen of the display unit 38. FIG. 13 shows a case where an icon display MH indicating that the presentation image imaging mode is set is provided on the captured image displayed on the display unit 38.
ステップST4で制御部51は、提示画像撮像モード動作設定を行いステップST7に進む。例えば、制御部51は検波部32を制御して、露出制御を行うときに用いる検波値を算出するための検波領域を、提示画像の影響の少ない位置に切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352を制御して、提示画像と背景画像の領域毎にホワイトバランス調整やガンマ補正を行わせる。 In step ST4, the control unit 51 sets the presentation image capturing mode operation setting, and proceeds to step ST7. For example, the control unit 51 controls the detection unit 32 to switch the detection region for calculating the detection value used when performing exposure control to a position where the influence of the presented image is small. The control unit 51 also controls the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction for each region of the presentation image and the background image.
ステップST5で制御部51は、提示画像撮像モードとは異なる撮像モードの通知、例えば通常撮像モード通知処理を行ってステップST6に進む。制御部51は、撮像モードを他の撮像モードである例えば通常撮像モードに設定して、撮像装置が通常撮像モードに設定されていることをユーザに通知する。例えば、制御部51は、提示画像撮像モードに設定されているとき、表示信号HEを画像処理部35に供給して、提示画像撮像モードに設定されたことを示すアイコン表示MHを行う場合、表示信号HEの供給を停止してアイコン表示MHを消去することで、通常撮像モードに設定されていることをユーザが識別できるようにする。 In step ST5, the control unit 51 performs notification of an imaging mode different from the presentation image imaging mode, for example, normal imaging mode notification processing, and proceeds to step ST6. The control unit 51 sets the imaging mode to another imaging mode, for example, the normal imaging mode, and notifies the user that the imaging apparatus is set to the normal imaging mode. For example, when the display image HE is set in the presentation image capturing mode, the control unit 51 supplies the display signal HE to the image processing unit 35 to perform icon display MH indicating that the presentation image capturing mode is set. The supply of the signal HE is stopped and the icon display MH is deleted, so that the user can identify that the normal imaging mode is set.
ステップST6で制御部51は、通常撮像モード動作設定を行いステップST7に進む。例えば、制御部51は検波部32を制御して、撮像画像の中央を重視した露出制御を行うように検波領域を切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352を制御して、提示画像または背景画像のいずれの領域であるかによらず撮像画像毎のホワイトバランス調整やガンマ補正を行わせる。 In step ST6, the control unit 51 performs normal imaging mode operation setting and proceeds to step ST7. For example, the control unit 51 controls the detection unit 32 to switch the detection region so as to perform exposure control that places importance on the center of the captured image. In addition, the control unit 51 controls the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to adjust the white balance for each captured image regardless of the region of the presented image or the background image. Enable gamma correction.
図14は、検波部32の動作を説明するための図である。検波部32は、撮像画像を図14の(A)に示すように複数のブロック例えば(m×n)に分割する。また、検波部32は、撮像モードが提示画像撮像モードとされたとき、提示画像の影響が少なくなるように、撮像画像における端部のブロックの重み付けを図14の(B)に示すように高くする。また、検波部32は、撮像モードが通常撮像モードとされたとき、図14の(C)に示すように撮像画像における中央部のブロックの重みが高くなるように重み係数の設定を行う。 FIG. 14 is a diagram for explaining the operation of the detection unit 32. The detector 32 divides the captured image into a plurality of blocks, for example (m × n), as shown in FIG. In addition, when the imaging mode is set to the presentation image imaging mode, the detection unit 32 increases the weight of the end block in the captured image as shown in FIG. 14B so that the influence of the presentation image is reduced. To do. In addition, when the imaging mode is set to the normal imaging mode, the detection unit 32 sets a weighting factor so that the weight of the central block in the captured image becomes higher as illustrated in FIG.
撮像モードに応じて重み係数の設定が行われると、検波部32は、撮像画像に検波領域を設けて、検波領域の画像信号から検波信号JBを生成する。すなわち、検波部32は、撮像画像をブロックに分割して、ブロックにおける各画素の明るさを示す信号の総和に対して重み係数Wの重み付けを行い、重み付け後の総和を加算して検波値Vjbを算出して、この検波値Vjbを示す検波信号JBを生成する。 When the weighting factor is set according to the imaging mode, the detection unit 32 provides a detection area in the captured image and generates a detection signal JB from the image signal in the detection area. That is, the detection unit 32 divides the captured image into blocks, weights the sum of the signals indicating the brightness of each pixel in the block, weights the weight coefficient W, adds the sum after weighting, and detects the detected value Vjb. , And a detection signal JB indicating the detection value Vjb is generated.
ここで、座標(a,b)のブロック内に含まれる画素の輝度信号の総和をBT(a,b)、座標(a,b)のブロックに対する重み係数をW(a,b)としたとき、検波部32は、式(1)に基づき検波値Vjbを生成する。 Here, when the sum of the luminance signals of the pixels contained in the block of coordinates (a, b) is BT (a, b) and the weighting factor for the block of coordinates (a, b) is W (a, b) The detection unit 32 generates a detection value Vjb based on the equation (1).
なお、重み係数の総和を1に正規化することで、正規化された検波値Vjbを得ることができる。 It should be noted that the normalized detection value Vjb can be obtained by normalizing the sum of the weight coefficients to 1.
制御部51は、検波部32で生成された検波信号JBに基づき露出制御を行う。すなわち、制御部51は、少なくとも制御信号CTb,CTc,CTdのいずれかを生成して、生成した制御信号CTbを絞り駆動部42、制御信号CTcをタイミング信号発生部22、制御信号CTdを増幅部213に供給して、適正露出となるように絞り機構12の絞り設定やタイミング信号発生部22による露光時間の調整、増幅部213による画像信号Saのゲイン調整を行う。 The control unit 51 performs exposure control based on the detection signal JB generated by the detection unit 32. That is, the control unit 51 generates at least one of the control signals CTb, CTc, and CTd, the generated control signal CTb is the diaphragm drive unit 42, the control signal CTc is the timing signal generation unit 22, and the control signal CTd is the amplification unit. Then, the aperture setting of the aperture mechanism 12 is adjusted, the exposure time is adjusted by the timing signal generation unit 22, and the gain of the image signal Sa is adjusted by the amplification unit 213 so as to obtain an appropriate exposure.
図15は、ホワイトバランス検波を行って得られた無彩色の位置と無彩色の定義範囲(以下「無彩色領域」という)を示している。ここで、ホワイトバランス検波を行うことにより得られた検波信号から検出した(R/G)−(B/G)平面上における提示画像の無彩色が位置ACpaとなり、背景画像の無彩色が位置ACpbとなったとき、ホワイトバランス調整部351は、撮像モードが提示画像撮像モードとされた場合、提示画像の無彩色の位置ACpaからホワイトバランス補正係数を求めて、このホワイトバランス補正係数を用いて提示画像の領域に対してホワイトバランス調整を行う。また、背景画像の無彩色の位置ACpbからホワイトバランス補正係数を求めて、このホワイトバランス補正係数を用いて背景画像の領域に対してホワイトバランス調整を行う。なお、図15において、領域ACSは一般的な光源(例えば太陽光や白熱灯)下で撮像した画像における無彩色領域、領域ACRはスクリーンに投影された画像から実験的に得た無彩色領域を示している。 FIG. 15 shows the position of the achromatic color and the definition range of the achromatic color (hereinafter referred to as “achromatic color region”) obtained by performing the white balance detection. Here, the achromatic color of the presented image on the (R / G)-(B / G) plane detected from the detection signal obtained by performing the white balance detection is the position ACpa, and the achromatic color of the background image is the position ACpb. In such a case, when the imaging mode is the presentation image imaging mode, the white balance adjustment unit 351 obtains a white balance correction coefficient from the achromatic position ACpa of the presentation image and presents it using the white balance correction coefficient. White balance adjustment is performed on the image area. Further, a white balance correction coefficient is obtained from the achromatic color position ACpb of the background image, and white balance adjustment is performed on the background image region using the white balance correction coefficient. In FIG. 15, an area ACS is an achromatic area in an image captured under a general light source (for example, sunlight or incandescent lamp), and an area ACR is an achromatic area experimentally obtained from an image projected on a screen. Show.
ホワイトバランス調整部351は、撮像モードが通常撮像モードとされたとき、撮像画像から領域ACSに含まれる無彩色の位置を検出して、この検出した無彩色の位置からホワイトバランス補正係数を求めて、このホワイトバランス補正係数を用いて撮像画像のホワイトバランス調整を行う。すなわち、撮像モードが通常撮像モードとされたとき、ホワイトバランス調整部351は、提示画像の領域と背景画像の領域とで区別することなくホワイトバランス調整を行う。 When the imaging mode is set to the normal imaging mode, the white balance adjustment unit 351 detects the position of the achromatic color included in the region ACS from the captured image, and obtains a white balance correction coefficient from the detected position of the achromatic color. The white balance adjustment of the captured image is performed using the white balance correction coefficient. That is, when the imaging mode is set to the normal imaging mode, the white balance adjustment unit 351 performs white balance adjustment without distinguishing between the region of the presentation image and the region of the background image.
図16は、ガンマ補正部352の補正特性を示している。ガンマ補正部352は、撮像モードが通常撮像モードとされたとき、図16の(A)に示すように、通常撮像モードで用いるガンマカーブCBaに比べて高輝度部分の輝度レベルを圧縮するように補正された特性のガンマカーブCBbを用いて提示画像の領域に対するガンマ補正を行う。また、ガンマ補正部352は、図16の(B)に示すように、通常のガンマカーブCBaに比べて低輝度部分の輝度レベルを伸長するように補正された特性のガンマカーブCBcを用いて背景画像の領域に対するガンマ補正を行う。さらに、ガンマ補正部352は、撮像モードが通常撮像モードとされたとき、図16の(A)(B)に示す通常のガンマカーブCBaを用いて、提示画像の領域と背景画像の領域とを区別することなくガンマ補正を行う。 FIG. 16 shows the correction characteristics of the gamma correction unit 352. When the imaging mode is set to the normal imaging mode, the gamma correction unit 352 compresses the luminance level of the high luminance part as compared with the gamma curve CBa used in the normal imaging mode, as shown in FIG. Gamma correction is performed on the region of the presentation image using the gamma curve CBb having the corrected characteristics. Further, as shown in FIG. 16B, the gamma correction unit 352 uses the gamma curve CBc having the characteristics corrected so as to extend the luminance level of the low luminance portion compared to the normal gamma curve CBa. Perform gamma correction on the image area. Further, when the imaging mode is set to the normal imaging mode, the gamma correction unit 352 uses the normal gamma curve CBa shown in FIGS. 16A and 16B to convert the region of the presentation image and the region of the background image. Perform gamma correction without distinction.
ステップST7で制御部51は、撮像動作の終了であるか否かを判別する。制御部51は、例えば撮像装置10の電源オフ操作が行われたり、撮像モードから記録画像を再生する再生モードに切り換える操作が行われたとき動作を終了する。また、電源オフ操作や再生モードへの切り換え操作が行われていないときステップST1に戻る。 In step ST7, the control unit 51 determines whether or not the imaging operation is finished. The control unit 51 ends the operation when, for example, a power-off operation of the imaging apparatus 10 is performed or an operation of switching from the imaging mode to the reproduction mode for reproducing the recorded image is performed. When the power-off operation or the switching operation to the reproduction mode is not performed, the process returns to step ST1.
このように、撮像装置10は、提示画像の検出結果に応じて撮像モードが提示画像撮像モードまたは通常撮像モードに自動的に設定される。ここで、提示画像が検出されて撮像モードが提示画像撮像モードに設定されると、撮像画像における提示画像や背景画像が良好な画像となるように露出制御やホワイトバランス調整,ガンマ補正が行われる。また、提示画像が検出されず撮像モードが通常撮像モードに設定されると、提示画像と背景画像の領域を区別することなく撮像画像に応じた露出制御やホワイトバランス調整,ガンマ補正が行われる。 As described above, in the imaging device 10, the imaging mode is automatically set to the presentation image imaging mode or the normal imaging mode according to the detection result of the presentation image. Here, when the presentation image is detected and the imaging mode is set to the presentation image imaging mode, exposure control, white balance adjustment, and gamma correction are performed so that the presentation image and the background image in the captured image become a good image. . Further, when the presented image is not detected and the imaging mode is set to the normal imaging mode, exposure control, white balance adjustment, and gamma correction are performed according to the captured image without distinguishing between the region of the presented image and the background image.
したがって、撮像モードを手動で切り換えなくとも、撮像モードを自動的に切り換えることができる。また、提示画像撮像モードに設定したときの動作設定をその都度個々に設定する必要がないので、提示画像等が良好な画像とされている撮像画像を容易に得ることができる。例えば、提示画像における白とびや変色および背景画像における黒つぶれ等がない良好な撮像画像を容易に得ることができる。また、提示画像の撮像時に不要なストロボ発光が行われることも防止できる。さらに、提示画像撮像モードの終了を撮像装置で判断して自動的に終了できるので、ユーザが例えばメニューボタンを操作して提示画像撮像モードを終了させる手間を省くことができる。 Therefore, the imaging mode can be automatically switched without manually switching the imaging mode. In addition, since it is not necessary to individually set the operation setting when the presentation image capturing mode is set, a captured image in which the presented image is a good image can be easily obtained. For example, it is possible to easily obtain a good captured image that is free from whiteout and discoloration in the presented image and blackout in the background image. Further, it is possible to prevent unnecessary strobe light emission when the presentation image is captured. Furthermore, since the end of the presentation image capturing mode can be determined automatically by the imaging device, it is possible to save the user from having to end the presentation image capturing mode by operating a menu button, for example.
なお、提示画像の検出は、上述のように2値化画像から水平分布や垂直分布を求めて提示画像の辺を検出する場合に限られるものではなく、特開2007−148612号公報のように輪郭抽出を行い、抽出した輪郭から提示画像の領域を検出するなど、種々の方法用いるものとしてもよい。 The detection of the presentation image is not limited to the case where the horizontal and vertical distributions are obtained from the binarized image and the sides of the presentation image are detected as described above, as disclosed in JP-A-2007-148612. Various methods may be used such as performing contour extraction and detecting the region of the presentation image from the extracted contour.
ところで、提示画像を撮像する場合、例えば予定されていたプレゼンテーションなどのイベントを撮像する場合、撮像装置を三脚などに装着して設置しておき、固定の画角で撮像が行われることが多い。したがって、このような撮像装置の状態を考慮して撮像モードの切り換えを行うこともできる。 By the way, when capturing a presentation image, for example, when capturing a scheduled event such as a presentation, an imaging device is often mounted on a tripod or the like and imaged at a fixed angle of view. Therefore, the imaging mode can be switched in consideration of the state of the imaging apparatus.
図17は、撮像装置の他の動作として、撮像装置の状態を考慮して撮像モードの切り換えを行う場合の動作を示すフローチャートである。ステップST11で制御部51は、ステップST1と同様に提示画像検出部31で提示画像検出を行わせてステップST12に進む。 FIG. 17 is a flowchart showing another operation of the imaging apparatus when switching the imaging mode in consideration of the state of the imaging apparatus. In step ST11, the control unit 51 causes the presentation image detection unit 31 to perform presentation image detection in the same manner as in step ST1, and proceeds to step ST12.
ステップST12で制御部51は、提示画像撮像モードへの切換条件を満たしているか否かの判別を行う。制御部51は、提示画像撮像モードへの切換条件を満たしていると判別したときステップST13に進み、満たしていないと判別したとき撮像モードを通常撮像モードに設定してステップST16に進む。なお、制御部51は、上述のように、提示画像が検出されたフレームの発生状況に応じて提示画像撮像モードへの切換条件を満たしているか否か判別する。 In step ST12, the control unit 51 determines whether or not the condition for switching to the presentation image capturing mode is satisfied. When it is determined that the condition for switching to the presentation image imaging mode is satisfied, the control unit 51 proceeds to step ST13, and when it is determined that the condition is not satisfied, the imaging mode is set to the normal imaging mode and the process proceeds to step ST16. Note that, as described above, the control unit 51 determines whether or not the condition for switching to the presentation image imaging mode is satisfied according to the generation state of the frame in which the presentation image is detected.
ステップST13で制御部51は、撮像画像における提示画像が安定状態であるか否かを判別する。制御部51は、撮像画像における提示画像の位置やサイズに変動がなく安定している状態であると判別したとき撮像モードを提示画像撮像モードに設定してステップST14に進み、安定状態でないと判別したときステップST18に進む。 In step ST13, the control unit 51 determines whether or not the presented image in the captured image is in a stable state. When the control unit 51 determines that the position and size of the presented image in the captured image are stable and does not change, the control unit 51 sets the imaging mode to the presented image imaging mode, proceeds to step ST14, and determines that the present state is not stable. If so, the process proceeds to step ST18.
ここで、撮像画像における提示画像の位置やサイズの変動は、例えば撮像装置10の撮像方向が変化したりズーム動作が行われたとき生じる。このため、制御部51は、動き検出部53からのセンサ信号SSに基づき、撮像装置10の動きの大きさが予め設定した所定値以上であるか否か判別して、動きが予め設定した所定量未満であるときは安定状態であると判別し、動きが予め設定した所定量以上であるときは安定状態ではないと判別する。また、制御部51は、ユーザインタフェース部52からの操作信号PSに基づき、ズーム操作が行われているときには、安定状態ではないと判別し、ズーム操作が行われていないときには、安定状態であると判別する。 Here, the change in the position and size of the presented image in the captured image occurs, for example, when the imaging direction of the imaging device 10 changes or a zoom operation is performed. For this reason, the control unit 51 determines whether or not the magnitude of the motion of the imaging device 10 is equal to or larger than a predetermined value based on the sensor signal SS from the motion detection unit 53, and the motion is set in advance. When it is less than the fixed amount, it is determined that the state is stable, and when the movement is equal to or greater than a predetermined amount, it is determined that the state is not stable. Further, based on the operation signal PS from the user interface unit 52, the control unit 51 determines that the zoom operation is being performed and that the control unit 51 is not in a stable state, and when the zoom operation is not being performed, the control unit 51 is in a stable state. Determine.
ステップST14で制御部51は、ステップST3と同様に提示画像撮像モード通知処理を行ってステップST15に進む。 In step ST14, the control unit 51 performs a presentation image capturing mode notification process in the same manner as in step ST3, and proceeds to step ST15.
ステップST15で制御部51は、ステップST4と同様に提示画像撮像モード動作設定を行いステップST18に進む。例えば、制御部51は検波部32を制御して、露出制御を行うときに用いる検波値を算出するための検波領域を提示画像の影響の少ない位置に切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352で、提示画像と背景画像の領域毎にホワイトバランス調整やガンマ補正を行わせる。 In step ST15, the control unit 51 performs the presentation image capturing mode operation setting similarly to step ST4, and proceeds to step ST18. For example, the control unit 51 controls the detection unit 32 to switch the detection area for calculating the detection value used when performing exposure control to a position where the influence of the presented image is small. In addition, the control unit 51 causes the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction for each region of the presentation image and the background image.
ステップST16で制御部51は、ステップST5と同様に通常撮像モード通知処理を行ってステップST17に進む。 In step ST16, the control unit 51 performs normal imaging mode notification processing in the same manner as in step ST5, and proceeds to step ST17.
ステップST17で制御部51は、ステップST6と同様に通常撮像モード動作設定を行いステップST18に進む。例えば、制御部51は検波部32を制御して、例えば撮像画像の中央を重視した露出制御を行うように検波領域を切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352で、提示画像または背景画像のいずれの領域であるかによらずホワイトバランス調整やガンマ補正を行わせる。 In step ST17, the control unit 51 performs normal imaging mode operation setting similarly to step ST6, and proceeds to step ST18. For example, the control unit 51 controls the detection unit 32 to switch the detection region so as to perform exposure control that places importance on the center of the captured image, for example. In addition, the control unit 51 causes the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction regardless of the region of the presentation image or the background image.
ステップST18で制御部51は、撮像動作の終了であるか否かを判別する。制御部51は、例えば撮像装置10の電源オフ操作が行われたり、撮像モードから記録画像を再生する再生モードに切り換える操作が行われたとき動作を終了する。また、電源オフ操作や再生モードへの切り換え操作が行われていないときステップST11に戻る。 In step ST18, the control unit 51 determines whether or not the imaging operation is finished. The control unit 51 ends the operation when, for example, a power-off operation of the imaging apparatus 10 is performed or an operation of switching from the imaging mode to the reproduction mode for reproducing the recorded image is performed. When the power-off operation or the switching operation to the reproduction mode is not performed, the process returns to step ST11.
このように、提示画像が安定状態でないと提示画像撮像モードとされることがないので、モード切換が頻繁に行われることを防止できる。また、提示画像が不安定状態で提示画像撮像モードに切り換えられてしまうことを防止できる。 Thus, since the presentation image capturing mode is not set unless the presentation image is in a stable state, frequent mode switching can be prevented. Further, it is possible to prevent the presented image from being switched to the presented image capturing mode in an unstable state.
また、撮像装置10は、検出された提示画像の位置に応じて撮像モードを切り換えるものとしてもよい。図18は、撮像装置の他の動作として、検出された提示画像の位置に応じて撮像モードを切り換える場合の動作を示すフローチャートである。ステップST21で制御部51は、ステップST1と同様に提示画像検出部31で提示画像検出を行わせてステップST22に進む。 The imaging device 10 may switch the imaging mode according to the detected position of the presented image. FIG. 18 is a flowchart illustrating another operation of the imaging apparatus when switching the imaging mode according to the detected position of the presented image. In step ST21, the control unit 51 causes the presentation image detection unit 31 to perform presentation image detection in the same manner as in step ST1, and proceeds to step ST22.
ステップST22で制御部51は、提示画像撮像モードへの切換条件を満たしているか否かの判別を行う。制御部51は、提示画像撮像モードへの切換条件を満たしていると判別したときステップST23に進み、満たしていないと判別したとき撮像モードを通常撮像モードに設定してステップST27に進む。なお、制御部51は、上述のように、提示画像が検出されたフレームの発生状況に応じて提示画像撮像モードへの切換条件を満たしているか否か判別する。 In step ST22, the control unit 51 determines whether or not the condition for switching to the presentation image capturing mode is satisfied. When it is determined that the condition for switching to the presentation image imaging mode is satisfied, the control unit 51 proceeds to step ST23, and when it is determined that the condition is not satisfied, the imaging mode is set to the normal imaging mode and the process proceeds to step ST27. Note that, as described above, the control unit 51 determines whether or not the condition for switching to the presentation image imaging mode is satisfied according to the generation state of the frame in which the presentation image is detected.
ステップST23で制御部51は、ステップST13と同様に提示画像が安定状態であるか否かを判別する。制御部51は、提示画像が安定状態であると判別したときステップST24に進み、安定状態でないと判別したときステップST29に進む。 In step ST23, the control unit 51 determines whether or not the presented image is in a stable state as in step ST13. When it is determined that the presented image is in a stable state, the control unit 51 proceeds to step ST24, and when it is determined that the presented image is not in a stable state, the control unit 51 proceeds to step ST29.
ステップST24で制御部51は、ステップST21で検出した提示画像の位置が撮像画像の端部に移動したか判別する。制御部51は、提示画像の位置が撮像画像の端部に移動していないと判別したときステップST25に進み、端部に移動していると判別したときステップST27に進む。 In step ST24, the control unit 51 determines whether the position of the presentation image detected in step ST21 has moved to the end of the captured image. The control unit 51 proceeds to step ST25 when determining that the position of the presented image has not moved to the end of the captured image, and proceeds to step ST27 when determining that the position of the presentation image has moved to the end.
図19は、提示画像の移動を示している。ここで、例えば撮像装置10の動きが予め設定した所定値よりも小さく、提示画像の例えば中心位置GPaが撮像画像の端部方向に移動して位置GPbとなると、提示画像が撮像画像の端部に移動したと判別される。このように、提示画像が撮像画像の端部に移動したときは、ユーザの注目している被写体が提示画像から他の被写体に移動したものとして、ステップST27に進む。また、制御部51は提示画像が撮像画像の端部に移動していないと判別したときステップST25に進む。 FIG. 19 shows the movement of the presented image. Here, for example, when the movement of the imaging device 10 is smaller than a predetermined value set in advance, and the center position GPa of the presented image moves in the direction toward the edge of the captured image to become the position GPb, the presented image becomes the end of the captured image. It is determined that it has moved to. As described above, when the presented image moves to the end of the captured image, the process proceeds to step ST27 on the assumption that the subject focused on by the user has moved from the presented image to another subject. When the control unit 51 determines that the presented image has not moved to the end of the captured image, the control unit 51 proceeds to step ST25.
ステップST25で制御部51は、ステップST3と同様に提示画像撮像モード通知処理を行ってステップST26に進む。 In step ST25, the control unit 51 performs a presentation image capturing mode notification process in the same manner as in step ST3, and proceeds to step ST26.
ステップST26で制御部51は、ステップST4と同様に提示画像撮像モード動作設定を行いステップST29に進む。例えば、制御部51は検波部32を制御して、露出制御を行うときに用いる検波値を算出するための検波領域を提示画像の影響の少ない位置に切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352で、提示画像と背景画像の領域毎にホワイトバランス調整やガンマ補正を行わせる。 In step ST26, the control unit 51 sets the presentation image capturing mode operation setting in the same manner as in step ST4, and proceeds to step ST29. For example, the control unit 51 controls the detection unit 32 to switch the detection area for calculating the detection value used when performing exposure control to a position where the influence of the presented image is small. In addition, the control unit 51 causes the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction for each region of the presentation image and the background image.
ステップST27で制御部51は、ステップST5と同様に通常撮像モード通知処理を行ってステップST28に進む。 In step ST27, the control unit 51 performs normal imaging mode notification processing in the same manner as in step ST5, and proceeds to step ST28.
ステップST28で制御部51は、ステップST6と同様に通常撮像モード動作設定を行いステップST29に進む。例えば、制御部51は検波部32を制御して、例えば撮像画像の中央を重視した露出制御を行うように検波領域を切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352で、提示画像または背景画像のいずれの領域であるかによらずホワイトバランス調整やガンマ補正を行わせる。 In step ST28, the control unit 51 performs the normal imaging mode operation setting in the same manner as in step ST6, and proceeds to step ST29. For example, the control unit 51 controls the detection unit 32 to switch the detection region so as to perform exposure control that places importance on the center of the captured image, for example. In addition, the control unit 51 causes the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction regardless of the region of the presentation image or the background image.
ステップST29で制御部51は、撮像動作の終了であるか否かを判別する。制御部51は、例えば撮像装置10の電源オフ操作が行われたり、撮像モードから記録画像を再生する再生モードに切り換える操作が行われたとき動作を終了する。また、電源オフ操作や再生モードへの切り換え操作が行われていないときステップST21に戻る。 In step ST29, the control unit 51 determines whether or not the imaging operation is finished. The control unit 51 ends the operation when, for example, a power-off operation of the imaging apparatus 10 is performed or an operation of switching from the imaging mode to the reproduction mode for reproducing the recorded image is performed. When the power-off operation or the switching operation to the reproduction mode is not performed, the process returns to step ST21.
このように、提示画像が安定状態であるか否か、また、提示画像が撮像画像の端部に移動したか否かに応じて撮像モードを切り換えることで、ユーザがどのような被写体に着目して撮像を行っているかを考慮して撮像モードを自動的に切り換えることもできる。 In this way, by switching the imaging mode according to whether or not the presented image is in a stable state and whether or not the presented image has moved to the end of the captured image, the user focuses on what subject. The imaging mode can be automatically switched in consideration of whether or not the imaging is performed.
さらに、撮像モードの切り換えは、提示画像の検出結果とユーザによる指示に基づいて行うものとしてもよい。 Further, the switching of the imaging mode may be performed based on the detection result of the presented image and an instruction from the user.
図20は、撮像装置の他の動作として、提示画像の検出結果とユーザによる指示に基づいて撮像モードの切り換えを行う場合の動作を示すフローチャートである。ステップST31で制御部51は、ステップST1と同様に提示画像検出部31で提示画像検出を行わせてステップST32に進む。 FIG. 20 is a flowchart illustrating an operation when the imaging mode is switched based on the detection result of the presented image and an instruction from the user as another operation of the imaging apparatus. In step ST31, the control unit 51 causes the presentation image detection unit 31 to perform presentation image detection in the same manner as in step ST1, and proceeds to step ST32.
ステップST32で制御部51は、提示画像撮像モードへの切換条件を満たしているか否かの判別を行う。制御部51は、提示画像撮像モードへの切換条件を満たしていると判別したときステップST33に進み、満たしていないと判別したとき撮像モードを通常撮像モードに設定してステップST37に進む。なお、制御部51は、上述のように、提示画像が検出されたフレームの発生状況に応じて提示画像撮像モードへの切換条件を満たしているか否か判別する。 In step ST32, the control unit 51 determines whether or not the condition for switching to the presentation image capturing mode is satisfied. When it is determined that the condition for switching to the presentation image imaging mode is satisfied, the control unit 51 proceeds to step ST33, and when it is determined that the condition is not satisfied, the imaging mode is set to the normal imaging mode and the process proceeds to step ST37. Note that, as described above, the control unit 51 determines whether or not the condition for switching to the presentation image imaging mode is satisfied according to the generation state of the frame in which the presentation image is detected.
ステップST33で制御部51は、提示画像の検出結果をユーザに通知してステップST34に進む。 In step ST33, the control unit 51 notifies the user of the detection result of the presented image, and proceeds to step ST34.
ステップST34で制御部51は、ユーザによる提示画像の指示操作が行われたか否か判別する。制御部51は、ユーザによる提示画像の指示操作が行われたと判別したときステップST35に進む。また、提示画像とは異なる背景画像の指示操作がユーザによって行われたときはステップST37に進む。 In step ST <b> 34, the control unit 51 determines whether or not the user has performed an instruction operation on the presented image. When it is determined that the user has performed an instruction operation on the presented image, the control unit 51 proceeds to step ST35. Further, when the user performs an instruction operation for a background image different from the presented image, the process proceeds to step ST37.
図21は、提示画像の検出結果とユーザ指示操作を説明するための図である。制御部51は、検出信号JAに基づき表示信号HEを生成する。さらに、制御部51は、生成した表示信号HEを画像処理部35に供給して、画像信号DVaと表示信号HEから表示画像信号HGを生成させることで、図21の(A)に示すように、表示部38の画面上に撮像画像と、検出された提示画像の領域を識別可能とする表示例えば検出枠MDを表示させる。ここで、制御部51は、検出枠MDの枠内がユーザによって指示したとき、例えば図21の(B)に示すようにユーザによって押圧された領域OPが検出枠MDの内部であることを検出したとき、ユーザによる提示画像の指示操作が行われたと判別してステップST35に進む。また、制御部51は、検出枠MDの枠外がユーザによって指示したとき、例えば図21の(C)に示すように提示画像撮像モードとされている場合、図21の(D)に示すようにユーザによって押圧された領域OPが検出枠MDの内部であることを検出したとき、ユーザによる背景画像の指示操作が行われたと判別してステップST37に進む。 FIG. 21 is a diagram for explaining the detection result of the presented image and the user instruction operation. The control unit 51 generates a display signal HE based on the detection signal JA. Further, the control unit 51 supplies the generated display signal HE to the image processing unit 35 to generate the display image signal HG from the image signal DVa and the display signal HE, as shown in FIG. Then, on the screen of the display unit 38, a display capable of identifying the captured image and the area of the detected presentation image, for example, a detection frame MD is displayed. Here, when the inside of the detection frame MD is instructed by the user, the control unit 51 detects that the area OP pressed by the user is inside the detection frame MD, for example, as shown in FIG. When this is done, it is determined that the user has performed an instruction operation on the presented image, and the process proceeds to step ST35. Further, when the user indicates that the detection frame MD is out of the frame, for example, as shown in (C) of FIG. 21, the control unit 51, as shown in FIG. When it is detected that the area OP pressed by the user is within the detection frame MD, it is determined that the background image instruction operation by the user has been performed, and the process proceeds to step ST37.
ステップST35で制御部51は、ステップST3と同様に提示画像撮像モード通知処理を行ってステップST36に進む。 In step ST35, the control unit 51 performs a presentation image capturing mode notification process in the same manner as in step ST3, and proceeds to step ST36.
ステップST36で制御部51は、ステップST4と同様に提示画像撮像モード動作設定を行いステップST39に進む。例えば、制御部51は検波部32を制御して、露出制御を行うときに用いる検波値を算出するための検波領域を提示画像の影響の少ない位置に切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352で、提示画像と背景画像の領域毎にホワイトバランス調整やガンマ補正を行わせる。 In step ST36, the control unit 51 performs the presentation image capturing mode operation setting similarly to step ST4, and proceeds to step ST39. For example, the control unit 51 controls the detection unit 32 to switch the detection area for calculating the detection value used when performing exposure control to a position where the influence of the presented image is small. In addition, the control unit 51 causes the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction for each region of the presentation image and the background image.
ステップST37で制御部51は、ステップST5と同様に通常撮像モード通知処理を行ってステップST38に進む。 In step ST37, the control unit 51 performs normal imaging mode notification processing in the same manner as in step ST5, and proceeds to step ST38.
ステップST38で制御部51は、ステップST6と同様に通常撮像モード動作設定を行いステップST39に進む。例えば、制御部51は検波部32を制御して、例えば撮像画像の中央を重視した露出制御を行うように検波領域を切り換える。また、制御部51は、画像処理部35のホワイトバランス調整部351やガンマ補正部352で、提示画像または背景画像のいずれの領域であるかによらずホワイトバランス調整やガンマ補正を行わせる。 In step ST38, the control unit 51 performs normal imaging mode operation setting similarly to step ST6, and proceeds to step ST39. For example, the control unit 51 controls the detection unit 32 to switch the detection region so as to perform exposure control that places importance on the center of the captured image, for example. In addition, the control unit 51 causes the white balance adjustment unit 351 and the gamma correction unit 352 of the image processing unit 35 to perform white balance adjustment and gamma correction regardless of the region of the presentation image or the background image.
ステップST39で制御部51は、撮像動作の終了であるか否かを判別する。制御部51は、例えば撮像装置10の電源オフ操作が行われたり、撮像モードから記録画像を再生する再生モードに切り換える操作が行われたとき動作を終了する。また、電源オフ操作や再生モードへの切り換え操作が行われていないときステップST31に戻る。 In step ST39, the control unit 51 determines whether or not the imaging operation is finished. The control unit 51 ends the operation when, for example, a power-off operation of the imaging apparatus 10 is performed or an operation of switching from the imaging mode to the reproduction mode for reproducing the recorded image is performed. When the power-off operation or the switching operation to the reproduction mode is not performed, the process returns to step ST31.
このように、提示画像の検出結果をユーザに通知して、ユーザによって提示画像の指示操作がなされたとき提示画像撮像モードとされるので、提示画像の検出が誤りを生じても、誤りを生じた検出結果に基づいて、露出制御やホワイトバランス調整,ガンマ補正等が行われてしまうことを防止できる。また、通知された検出結果に対して指示を行うだけで提示画像撮像モードに切り換えることができるので、従来のように、操作メニューを表示させる操作や、操作メニューから撮像モードの切り換えメニューを選択する操作、撮像モードの切り換えメニューから提示画像撮像モードを選択する操作等を行うことなく、容易に提示画像撮像モードに切り換えることができる。さらに、提示画像が検出されたときには検出枠MDが表示されるので、ユーザは提示画像撮像モードへの切り換えが可能であることを容易に把握できるようになる。 In this way, the user is notified of the detection result of the presentation image, and when the presentation image is instructed by the user, the presentation image capturing mode is set. Therefore, even if the detection of the presentation image causes an error, an error occurs. Based on the detected result, exposure control, white balance adjustment, gamma correction, and the like can be prevented. In addition, since it is possible to switch to the presented image capturing mode simply by giving an instruction to the notified detection result, the operation menu display operation or the imaging mode switching menu is selected from the operation menu as in the past. It is possible to easily switch to the presentation image imaging mode without performing an operation of selecting the presentation image imaging mode from the operation and imaging mode switching menu. Furthermore, since a detection frame MD is displayed when a presentation image is detected, the user can easily grasp that switching to the presentation image imaging mode is possible.
ところで、提示画像撮像モードの終了は、提示画像の検出結果を用いることなく被写体の変化に応じて行うものとしてもよい。例えば、撮像対象とする被写体が提示画像から人物に変化したとき、提示画像撮像モードを終了する。 By the way, the end of the presentation image capturing mode may be performed according to a change in the subject without using the detection result of the presentation image. For example, when the subject to be imaged changes from a presented image to a person, the presented image capturing mode is terminated.
図22は、顔検出結果に応じて撮像モードの切り換えを行う場合のフローチャートを示している。ステップST41で制御部51は、顔検出を行いステップST42に進む。顔検出では、顔の形状や肌色領域に着目して顔検出を行う。例えば撮像画像に対して遺伝的アルゴリズムを適用して顔形状を探索するものや、機械学習により顔検出のための識別器を構成するものや、その他一般的に用いられている手法を用いて顔画像を検出する。 FIG. 22 shows a flowchart in the case of switching the imaging mode in accordance with the face detection result. In step ST41, the control unit 51 performs face detection and proceeds to step ST42. In face detection, face detection is performed by focusing on the face shape and skin color area. For example, using a genetic algorithm on a captured image to search for a face shape, configuring a classifier for face detection by machine learning, or other commonly used techniques Detect images.
ステップST42で制御部51は、顔が検出されたか否かを判別する。制御部51は、顔が検出されたと判別したときステップST43に進み、顔を検出していないときはステップST46に進む。 In step ST42, the control unit 51 determines whether a face is detected. When it is determined that a face has been detected, the control unit 51 proceeds to step ST43, and when it has not detected a face, the control unit 51 proceeds to step ST46.
ステップST43で制御部51は、検出した顔の位置が撮像画像の中央に位置するか否かを判別する。制御部51は、検出した顔の位置が撮像画像の中央であるとき、提示画像撮像モードから他の撮像モード、例えば人物撮像モードに切り換えてステップST44に進み、中央でないときはステップST46に進む。 In step ST43, the control unit 51 determines whether or not the detected face position is located at the center of the captured image. When the detected face position is in the center of the captured image, the control unit 51 switches from the presentation image capturing mode to another image capturing mode, for example, the human image capturing mode, and proceeds to step ST44.
ステップST44で制御部51は、人物撮像モード通知処理を行ってステップST45に進む。制御部51は、撮像モードを人物撮像モードに設定して、撮像装置10が人物撮像モードに設定されていることをユーザに通知する。例えば、制御部51は、人物撮像モードに設定したとき、表示信号HEを生成して画像処理部35に供給して、画像信号DVaと表示信号HEから表示画像信号HGを生成させることで、表示部38の画面上に撮像画像と人物撮像モードに設定されたことを示す情報を表示させる。なお、図23は、表示部38の画面上に、人物撮像モードに設定されたことを示すアイコン表示MMを設けた場合を示している。また、図23では、検出した顔の位置を示す枠表示MEも合わせて表示した場合を示している。 In step ST44, the control unit 51 performs a person imaging mode notification process and proceeds to step ST45. The control unit 51 sets the imaging mode to the person imaging mode, and notifies the user that the imaging apparatus 10 is set to the person imaging mode. For example, when the human imaging mode is set, the control unit 51 generates the display signal HE and supplies the display signal HE to the image processing unit 35 to generate the display image signal HG from the image signal DVa and the display signal HE. Information indicating that the captured image and the person imaging mode are set are displayed on the screen of the unit 38. FIG. 23 shows a case where an icon display MM indicating that the person imaging mode is set is provided on the screen of the display unit 38. FIG. 23 shows a case where a frame display ME indicating the position of the detected face is also displayed.
ステップST45で制御部51は、人物撮像モード動作設定を行いステップST46に進む。制御部51は、撮像した顔が最適に表示されるように、露出制御やホワイトバランス調整,ガンマ補正を行わせる。例えば、制御部51は、露出制御を行うときに用いる検波値を算出するための検波領域を検出された顔の位置に切り換えるものとしたり、人物の顔が適正な色となるようにホワイトバランス調整を行わせたり、顔が白くとんでしまうことがないようにガンマ補正等を行わせる。 In step ST <b> 45, the control unit 51 performs the person imaging mode operation setting and proceeds to step ST <b> 46. The control unit 51 performs exposure control, white balance adjustment, and gamma correction so that the captured face is optimally displayed. For example, the control unit 51 switches the detection area for calculating the detection value used when performing exposure control to the detected face position, or adjusts the white balance so that the human face has an appropriate color. Gamma correction or the like so that the face does not fade out.
ステップST46で制御部51は、撮像動作の終了であるか否かを判別する。制御部51は、例えば撮像装置10の電源オフ操作が行われたり、撮像モードから記録画像を再生する再生モードに切り換える操作が行われたとき、動作を終了する。また、電源オフ操作や再生モードへの切り換え操作が行われていないときステップST41に戻る。このように、ユーザが注目する被写体が提示画像から人物に変更されたことを検出して、自動的に撮像モードを切り換えることもできる。 In step ST46, the control unit 51 determines whether or not the imaging operation is finished. The control unit 51 ends the operation when, for example, a power-off operation of the imaging apparatus 10 is performed or an operation of switching from the imaging mode to the reproduction mode for reproducing the recorded image is performed. When the power-off operation or the switching operation to the reproduction mode is not performed, the process returns to step ST41. In this way, it is possible to automatically switch the imaging mode by detecting that the subject that the user is interested in has been changed from a presented image to a person.
図24,図25は、上述の撮像装置の動作をまとめたものであり、図24は、提示画像撮像モードの開始、検波領域の変更、領域毎のホワイトバランス調整および領域毎のガンマ補正と、提示画像の検出方法の関係を示している。 24 and 25 summarize the operation of the above-described imaging apparatus. FIG. 24 illustrates the start of the presentation image imaging mode, the detection area change, the white balance adjustment for each area, and the gamma correction for each area. The relationship of the detection method of a presentation image is shown.
簡単な提示画像検出、例えば図6に示すように2値化処理を行って得られた2値化信号から水平分布と垂直分布を取得して上辺と下辺および左辺と右辺を検出する方法では、高精度な提示画像検出、例えば撮像画像のエッジ検出を行うことで提示画像と背景画像の境界を示す輪郭を取得して、この輪郭情報から提示画像の4つの頂点や4つの辺を示す直線を求めて提示画像を検出する方法に比べて、提示画像の検出を速やかに行うことができる。一方、高精度な提示画像検出では、簡単な提示画像検出に比べて、撮像画像における提示画像の領域を精度よく検出できる。 Simple presentation image detection, for example, a method of acquiring a horizontal distribution and a vertical distribution from a binarized signal obtained by performing a binarization process as shown in FIG. 6 and detecting an upper side and a lower side, and a left side and a right side, A contour indicating the boundary between the presentation image and the background image is obtained by performing highly accurate presentation image detection, for example, edge detection of the captured image, and straight lines indicating four vertices and four sides of the presentation image are obtained from the contour information. Compared to the method of obtaining and detecting the presented image, the presented image can be detected quickly. On the other hand, in the highly accurate presentation image detection, the region of the presentation image in the captured image can be detected with higher accuracy than the simple presentation image detection.
ここで、提示画像撮像モードの開始や検波領域の切換では提示画像の領域を高精度に検出する必要はなく、領域毎のホワイトバランス調整および領域毎のガンマ補正では提示画像の領域を高精度に検出することが望ましい。したがって、図24に示すように、提示画像撮像モードの開始や検波領域の切換では簡単な提示画像検出を用いることが望ましく、領域毎のホワイトバランス調整および領域毎のガンマ補正では高精度な提示画像検出を用いることが好ましい。 Here, it is not necessary to detect the area of the presentation image with high accuracy when starting the presentation image imaging mode or switching the detection area, and with high accuracy the white balance adjustment for each area and gamma correction for each area. It is desirable to detect. Therefore, as shown in FIG. 24, it is desirable to use simple presentation image detection when starting the presentation image imaging mode or switching the detection area, and highly accurate presentation images are used for white balance adjustment for each area and gamma correction for each area. It is preferred to use detection.
さらに、上述の簡単な提示画像検出では、提示画像を正面から撮像する場合、撮像画像における提示画像の各辺は、ほぼ水平方向と垂直方向となることから提示画像を精度よく検出できる。しかし、提示画像を斜め方向から撮像すると、撮像画像における提示画像の各辺は水平方向や垂直方向に対して傾きを持つ場合が生じるため提示画像の検出精度が低下する。したがって、領域毎のホワイトバランス調整および領域毎のガンマ補正では、提示画像を正面から撮像していないとき、簡単な提示画像検出は好ましくないものとなる。なお、図24では、好ましい場合を「○」、好ましくない場合を「×」として示している。また、条件付きで好ましくない場合を「△」で示している。 Further, in the above-described simple presentation image detection, when the presentation image is captured from the front, each side of the presentation image in the captured image is substantially in the horizontal direction and the vertical direction, so that the presentation image can be detected with high accuracy. However, if the presentation image is captured from an oblique direction, each side of the presentation image in the captured image may have an inclination with respect to the horizontal direction or the vertical direction, so that the detection accuracy of the presentation image decreases. Therefore, in the white balance adjustment for each region and the gamma correction for each region, simple presentation image detection is not preferable when the presentation image is not captured from the front. In FIG. 24, the case where it is preferable is indicated by “◯”, and the case where it is not preferable is indicated by “X”. In addition, a case where conditions are not preferable is indicated by “Δ”.
図25は、検波領域の変更、領域毎のホワイトバランス調整および領域毎のガンマ補正と、撮像時の動作との関係を示している。制御部51は、提示画像が撮像画像の端部の位置に移動したとき、検波領域の切換を終了して例えば撮像画像の中央部の重み付けを高くして露出制御を行う。また、提示画像が撮像画像の端部の位置に移動しても、領域毎にホワイトバランス調整とガンマ補正を行う動作を維持させる。 FIG. 25 shows the relationship between the detection area change, the white balance adjustment for each area, the gamma correction for each area, and the operation during imaging. When the presented image moves to the position of the end of the captured image, the control unit 51 ends the switching of the detection region and performs exposure control by increasing the weight of the central portion of the captured image, for example. Further, even when the presented image moves to the position of the edge of the captured image, the operation of performing white balance adjustment and gamma correction for each region is maintained.
制御部51は、撮像装置が大きく動いたときやズーム動作が行われたとき、撮像画像の端部の重み付けを高くした露出制御、および領域毎にホワイトバランス調整とガンマ補正を行う動作を維持させる。 The control unit 51 maintains the exposure control in which the weight of the edge of the captured image is increased and the operation of performing the white balance adjustment and the gamma correction for each region when the imaging apparatus is moved greatly or when the zoom operation is performed. .
また、制御部51は、顔検出で検出された顔の位置が撮像画像の中央であるとき、および提示画像が検出されないとき、撮像画像の端部の重み付けを高くした露出制御、および領域毎にホワイトバランス調整とガンマ補正を行う動作を終了させる。すなわち、制御部51は、撮像画像の中央部の重み付けを高くした露出制御、および撮像画像の領域を区別することなくホワイトバランス調整とガンマ補正を行わせる。 In addition, the control unit 51 performs exposure control in which the weight of the edge of the captured image is increased when the position of the face detected by the face detection is the center of the captured image and when the presentation image is not detected, and for each region. Ends the operations for white balance adjustment and gamma correction. That is, the control unit 51 performs exposure control in which the weight of the central portion of the captured image is increased, and white balance adjustment and gamma correction without distinguishing the region of the captured image.
さらに、撮像時の複数の動作に応じて、検波領域の変更、領域毎のホワイトバランス調整および領域毎のガンマ補正を行うものとしてもよい。図26は、撮像時の複数の動作に応じて、検波領域の変更、領域毎のホワイトバランス調整および領域毎のガンマ補正を行う場合を例示したものである。 Further, the detection area may be changed, white balance adjustment for each area, and gamma correction for each area may be performed in accordance with a plurality of operations during imaging. FIG. 26 illustrates a case where the detection area is changed, the white balance is adjusted for each area, and the gamma correction is performed for each area in accordance with a plurality of operations during imaging.
制御部51は、提示画像が撮像画像の端部の位置に移動したとき、検波領域の切換を終了して例えば撮像画像の中央部の重み付けを高くして露出制御を行う。また、提示画像が撮像画像の端部の位置に移動しても、ホワイトバランス調整とガンマ補正は前の状態を維持させる。ここで、撮像装置が大きく動いたりズーム動作が行われた場合は、領域毎にホワイトバランス調整とガンマ補正を行う動作を終了させる。 When the presented image moves to the position of the end of the captured image, the control unit 51 ends the switching of the detection region and performs exposure control by increasing the weight of the central portion of the captured image, for example. Even if the presented image moves to the position of the end of the captured image, the white balance adjustment and gamma correction are maintained in the previous state. Here, when the image pickup apparatus largely moves or a zoom operation is performed, the operation of performing white balance adjustment and gamma correction for each region is ended.
また、制御部51は、例えばズーム動作が行われたときやズーム動作が行われたときに撮像装置が大きく動いたとき、検波領域の切り換えやホワイトバランス調整およびガンマ補正は前の状態を維持させる。ここで、提示画像が撮像画像の端部の位置に移動したときは、検波領域の切換や領域毎にホワイトバランス調整とガンマ補正を行う動作を終了させる。すなわち、制御部51は、撮像画像の中央部の重み付けを高くした露出制御、および撮像画像の領域を区別することなくホワイトバランス調整とガンマ補正を行わせる。 The control unit 51 also maintains the previous state of detection area switching, white balance adjustment, and gamma correction when the imaging apparatus moves greatly, for example, when the zoom operation is performed or when the zoom operation is performed. . Here, when the presented image moves to the position of the edge of the captured image, the operation of switching the detection area and performing white balance adjustment and gamma correction for each area is ended. That is, the control unit 51 performs exposure control in which the weight of the central portion of the captured image is increased, and white balance adjustment and gamma correction without distinguishing the region of the captured image.
このようにすれば、種々の条件を考慮して、提示画像撮像モードに適した状態で撮像モードを提示画像撮像モードに設定することができる。例えば、プレゼンテーションなどの提示画像を撮像する場合と人物を撮像する場合が混在したような撮像シーンに対して、顔検出結果や動き検出結果を用いることによって、ユーザが何に注視して撮影しているかを自動で判断して撮影モードの切り換えが行われるので、ユーザの意図に沿った撮像モードで良好な撮像画像を得ることができる。 In this way, the imaging mode can be set to the presentation image imaging mode in a state suitable for the presentation image imaging mode in consideration of various conditions. For example, by using the face detection result and the motion detection result for an imaging scene in which a presentation image such as a presentation is captured and a person is captured, what the user gazes at and shoots Therefore, the shooting mode is switched automatically, so that a good captured image can be obtained in the imaging mode in accordance with the user's intention.
10・・・撮像装置、11・・・レンズ部、12・・・絞り機構、21・・・撮像部、22・・・タイミング信号発生部、23・・・A/D変換部、31・・・提示画像検出部、32・・・検波部、35・・・画像処理部、37・・・記録再生部、38・・・表示部、41・・・レンズ駆動部、42・・・絞り駆動部、45・・・ストロボ、51・・・制御部、52・・・ユーザインタフェース部、53・・・動き検出部、211・・・撮像素子、212・・・CDS部、213・・・増幅部、311・・・変換処理部、312,313・・・2値化処理部、314・・・信号選択部、315・・・水平分布取得部、316・・・垂直分布取得部、317・・・検出処理部、321・・・ブロック化処理部、322・・・ブロック別輝度算出部、323・・・係数設定部、324・・・乗算器、325・・・検波値算出部、351・・・ホワイトバランス(WB)調整部、351a・・・ホワイトバランス検波部、351b・・・ホワイトバランス補正係数設定部、351c・・・補正処理部、352・・・ガンマ補正部 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 11 ... Lens part, 12 ... Diaphragm mechanism, 21 ... Imaging part, 22 ... Timing signal generation part, 23 ... A / D conversion part, 31 ... Presentation image detection unit, 32 ... detection unit, 35 ... image processing unit, 37 ... recording / reproducing unit, 38 ... display unit, 41 ... lens driving unit, 42 ... stop driving 45, strobe, 51 ... control unit, 52 ... user interface unit, 53 ... motion detection unit, 211 ... imaging device, 212 ... CDS unit, 213 ... amplification , 311 ... conversion processing unit, 312, 313 ... binarization processing unit, 314 ... signal selection unit, 315 ... horizontal distribution acquisition unit, 316 ... vertical distribution acquisition unit, 317 ..Detection processing unit, 321... Blocking processing unit, 322. 323 ... Coefficient setting unit, 324 ... Multiplier, 325 ... Detection value calculation unit, 351 ... White balance (WB) adjustment unit, 351a ... White balance detection unit, 351b ... White balance correction coefficient setting unit, 351c ... correction processing unit, 352 ... gamma correction unit
Claims (7)
前記撮像画像における輝度または色の違いに基づいて、前記撮像画像から画像提示装置によって提示された提示画像の検出を行う提示画像検出部と、
前記提示画像の検出結果が予め設定されている条件を満たすとき、撮像モードを提示画像撮像モードに切り換えて、少なくとも露出制御に用いる検波値を算出するための検波領域の変更および前記撮像画像における前記提示画像と前記提示画像を除く他の画像の領域に対する領域毎のホワイトバランス調整および前記撮像画像における前記提示画像と前記他の画像の領域に対する領域毎のガンマ補正のいずれかを行わせる制御部と
を有する撮像装置。 An imaging unit that images a subject and obtains a captured image;
A presentation image detection unit that detects a presentation image presented by the image presentation device from the captured image based on a difference in luminance or color in the captured image;
When the detection result of the presentation image satisfies a preset condition, the imaging mode is switched to the presentation image imaging mode, and at least the detection area for calculating the detection value used for exposure control is changed, and the imaging image A control unit that performs either white balance adjustment for each region with respect to a region of the presentation image and other image regions excluding the presentation image and gamma correction for each region with respect to the region of the presentation image and the other image in the captured image; An imaging apparatus having
前記制御部は、前記第1の提示画像検出で得られた検出結果に基づいて前記撮像モードの切り換えと前記検波領域の変更を行い、前記第2の提示画像検出で得られた検出結果に基づいて前記領域毎のホワイトバランス調整とガンマ補正を行わせる、請求項1記載の撮像装置。 The presentation image detection unit performs first presentation image detection and second presentation image detection for detecting the presentation image with higher accuracy than the first,
The control unit switches the imaging mode and changes the detection area based on the detection result obtained by the first presentation image detection, and based on the detection result obtained by the second presentation image detection. The imaging apparatus according to claim 1, wherein white balance adjustment and gamma correction are performed for each region.
前記制御部は、前記顔画像検出部で検出された顔画像の位置が前記撮像画像の中央部であるとき、前記提示画像撮像モードを終了させる、請求項3記載の撮像装置。 A face image detection unit for detecting a face image from the captured image;
The imaging apparatus according to claim 3, wherein the control unit terminates the presentation image imaging mode when the position of the face image detected by the face image detection unit is a central part of the captured image.
前記制御部は、前記表示された撮像画像において、前記提示画像の領域を指示するユーザ操作が行われたとき、前記提示画像の検出結果が予め設定されている条件を満たすものとして、前記撮像モードを提示画像撮像モードに切り換える、請求項2記載の撮像装置。 A display unit that displays the captured image as an identifiable region of the presentation image detected by the presentation image detection unit;
In the captured image displayed, the control unit assumes that a detection result of the presented image satisfies a preset condition when a user operation for designating a region of the presented image is performed. The imaging device according to claim 2, wherein the imaging device is switched to a presentation image imaging mode.
前記撮像画像における輝度または色の違いに基づいて、前記撮像画像から画像提示装置によって提示された提示画像の検出を行う提示画像検出工程と、
前記提示画像の検出結果が予め設定されている条件を満たすとき、撮像モードを提示画像撮像モードに切り換えて、少なくとも露出制御に用いる検波値を算出するための検波領域の変更および前記撮像画像における前記提示画像と前記提示画像を除く他の画像の領域に対する領域毎のホワイトバランス調整および前記撮像画像における前記提示画像と前記他の画像の領域に対する領域毎のガンマ補正のいずれかを行わせる制御工程と
を有する撮像方法。 An imaging step of capturing an image of an object by an imaging unit to obtain a captured image;
A presentation image detection step of detecting a presentation image presented by an image presentation device from the captured image based on a difference in luminance or color in the captured image;
When the detection result of the presentation image satisfies a preset condition, the imaging mode is switched to the presentation image imaging mode, and at least the detection area for calculating the detection value used for exposure control is changed, and the imaging image A control step of performing either white balance adjustment for each region for the region of the presentation image and other image regions excluding the presentation image and gamma correction for each region for the region of the presentation image and the other image in the captured image; An imaging method comprising:
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008098646A JP4479819B2 (en) | 2008-04-04 | 2008-04-04 | Imaging apparatus and imaging method |
| US12/414,187 US8144241B2 (en) | 2008-04-04 | 2009-03-30 | Imaging apparatus, image processing apparatus, and exposure control method |
| EP09156807A EP2107798B1 (en) | 2008-04-04 | 2009-03-31 | Imaging apparatus, image processing apparatus, and exposure control method |
| DE602009000430T DE602009000430D1 (en) | 2008-04-04 | 2009-03-31 | Imaging apparatus, image processing apparatus and exposure control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008098646A JP4479819B2 (en) | 2008-04-04 | 2008-04-04 | Imaging apparatus and imaging method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2009253635A JP2009253635A (en) | 2009-10-29 |
| JP4479819B2 true JP4479819B2 (en) | 2010-06-09 |
Family
ID=41313881
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008098646A Active JP4479819B2 (en) | 2008-04-04 | 2008-04-04 | Imaging apparatus and imaging method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4479819B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8144241B2 (en) | 2008-04-04 | 2012-03-27 | Sony Corporation | Imaging apparatus, image processing apparatus, and exposure control method |
| JP2009251902A (en) * | 2008-04-04 | 2009-10-29 | Sony Corp | Imaging processing apparatus, image processing method, and imaging device |
-
2008
- 2008-04-04 JP JP2008098646A patent/JP4479819B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2009253635A (en) | 2009-10-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4479843B2 (en) | Imaging apparatus and exposure control method | |
| US8144241B2 (en) | Imaging apparatus, image processing apparatus, and exposure control method | |
| US7982791B2 (en) | Controlling operations of a camera to improve backlit scenes | |
| JP4720810B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
| US8421899B2 (en) | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program | |
| US8385607B2 (en) | Imaging apparatus, image processing apparatus, image processing method and computer program | |
| TWI444041B (en) | Image processing device, image processing method, and recording medium | |
| US20120133797A1 (en) | Imaging apparatus, imaging method and computer program | |
| US11812144B2 (en) | Focus adjustment apparatus and method, and image capturing apparatus | |
| JP2009219020A (en) | Imaging apparatus, control method of imaging device, and control program of imaging device | |
| US8471953B2 (en) | Electronic camera that adjusts the distance from an optical lens to an imaging surface | |
| JP4127521B2 (en) | Digital camera and control method thereof | |
| WO2010116715A1 (en) | Image pickup device, image pickup method, program and integrated circuit | |
| JP4479820B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| JP2010028608A (en) | Image processor, image sensing device, reproducer and method for processing image | |
| JP5655668B2 (en) | Imaging apparatus, image processing method, and program | |
| JP4479819B2 (en) | Imaging apparatus and imaging method | |
| JP4557036B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| JP5569361B2 (en) | Imaging apparatus and white balance control method | |
| JP5159756B2 (en) | Image processing method, image processing apparatus, and imaging apparatus | |
| JP4842919B2 (en) | Display device, photographing device, and display method | |
| KR20110090610A (en) | Digital photographing apparatus, control method thereof, and computer readable medium | |
| JP5398562B2 (en) | Tracking frame initial position setting device and operation control method thereof | |
| JP2010072121A (en) | Imaging apparatus and control method therefor | |
| EP2107798B1 (en) | Imaging apparatus, image processing apparatus, and exposure control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090911 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20091110 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100212 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100223 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100308 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 3 |