JP2002133400A - Object extraction image processor - Google Patents
Object extraction image processorInfo
- Publication number
- JP2002133400A JP2002133400A JP2000323565A JP2000323565A JP2002133400A JP 2002133400 A JP2002133400 A JP 2002133400A JP 2000323565 A JP2000323565 A JP 2000323565A JP 2000323565 A JP2000323565 A JP 2000323565A JP 2002133400 A JP2002133400 A JP 2002133400A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- image
- illumination
- unit
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 53
- 238000003384 imaging method Methods 0.000 claims abstract description 55
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000005286 illumination Methods 0.000 claims description 301
- 238000000034 method Methods 0.000 claims description 100
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 55
- 235000019557 luminance Nutrition 0.000 description 44
- 238000005259 measurement Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 7
- 239000005357 flat glass Substances 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、対象物体抽出画像
処理装置に関するものである。[0001] 1. Field of the Invention [0002] The present invention relates to a target object extraction image processing apparatus.
【0002】[0002]
【従来の技術】従来、画像から対象物体を抽出するため
の対象物体抽出画像処理装置においては、一般に、照明
部に近い物体が照明部から遠い物体より明るくなるとい
う特性を利用するようになっている(特開平9−259
278号公報参照)。2. Description of the Related Art Conventionally, a target object extraction image processing apparatus for extracting a target object from an image generally uses a characteristic that an object close to an illumination unit is brighter than an object far from the illumination unit. (Japanese Patent Laid-Open No. 9-259)
No. 278).
【0003】図2は従来の対象物体抽出画像処理装置に
おける背景と対象物体との位置関係を示す図である。FIG. 2 is a diagram showing a positional relationship between a background and a target object in a conventional target object extraction image processing apparatus.
【0004】図に示されるように、背景12より撮像部
13に近い位置に対象物体11を配設し、照明部14を
点灯することによって対象物体11及び背景12を照ら
し、照明部14の近くにある撮像部13によって対象物
体11及び背景12を撮影し、照明部14によって照ら
された対象物体11の明るさと、照明部14によって照
らされた背景12の明るさとを比較することによって、
対象物体11を抽出するようにしている。As shown in the figure, a target object 11 is disposed at a position closer to an image pickup unit 13 than a background 12, and the illumination unit 14 is turned on to illuminate the target object 11 and the background 12. By photographing the target object 11 and the background 12 by the imaging unit 13 located in, and comparing the brightness of the target object 11 illuminated by the illumination unit 14 and the brightness of the background 12 illuminated by the illumination unit 14,
The target object 11 is extracted.
【0005】そのために、例えば、照明部14を点灯し
て対象物体11及び背景12を撮影することによって得
られた照明画像、並びに照明部14を消灯して対象物体
11及び背景12を撮影することによって得られた無照
明画像に基づいて、差分処理及び閾(しきい)値処理か
ら成る差分・閾値処理を行うことによって、照明部14
を消灯した状態と点灯した状態とで明るさが大きく変化
した画像上の領域が対象物体11として抽出される。For this purpose, for example, an illumination image obtained by turning on the illumination unit 14 and photographing the target object 11 and the background 12, and photographing the target object 11 and background 12 by turning off the illumination unit 14. By performing a difference / threshold process including a difference process and a threshold value process based on the non-illuminated image obtained by the
An area on the image where the brightness has greatly changed between the state where the light is turned off and the state where the light is turned on is extracted as the target object 11.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、前記従
来の対象物体抽出画像処理装置においては、対象物体抽
出画像処理装置の制御方法、差分・閾値処理において設
定された閾値、差分・閾値処理が行われた後の対象物体
11の抽出方法等によって、どのような環境においても
常に安定して、かつ、高速に対象物体11を抽出するこ
とができるとは限らない。However, in the conventional target object extraction image processing apparatus, the control method of the target object extraction image processing apparatus, the threshold set in the difference / threshold processing, and the difference / threshold processing are performed. Depending on the method of extracting the target object 11 after the above, it is not always possible to always stably and quickly extract the target object 11 in any environment.
【0007】また、ある照明の強度で対象物体11を照
らして撮影した場合、対象物体11が撮像部13から遠
い場合は対象物体11は暗く写り、対象物体11が撮像
部13から近い場合は対象物体11は明るく写ることに
なる。したがって、差分・閾値処理を行うと、例えば、
対象物体11が暗く写る場合、対象物体11の一部又は
全部を抽出することができなくなってしまう。[0007] When the target object 11 is photographed by illuminating the target object 11 with a certain illumination intensity, when the target object 11 is far from the imaging unit 13, the target object 11 is dark, and when the target object 11 is close to the imaging unit 13, the target object is dark. The object 11 appears bright. Therefore, when the difference / threshold processing is performed, for example,
When the target object 11 appears dark, it becomes impossible to extract part or all of the target object 11.
【0008】そこで、照明画像と無照明画像との差分・
閾値処理を行って得られた結果に基づいて、照明の強度
を制御するようにしている。Therefore, the difference between the illuminated image and the non-illuminated image
The intensity of the illumination is controlled based on the result obtained by performing the threshold processing.
【0009】ところが、このような制御を行うと、照明
の強度が不適切である場合、対象物体11を抽出するま
でに照明画像及び無照明画像の撮影、並びに差分・閾値
処理を少なくとも2回行う必要が生じ、処理時間が長く
なってしまう。However, when such control is performed, if the illumination intensity is inappropriate, the illumination image and the non-illumination image are photographed and the difference / threshold processing is performed at least twice before the target object 11 is extracted. This necessitates a longer processing time.
【0010】また、対象物体11が背景12に近い場
合、照明部14を点灯すると背景12もある程度明るく
なるので、差分・閾値処理において適切な閾値が設定さ
れていないと、対象物体11を正しく抽出することがで
きない。例えば、閾値が低い場合、明るく変化した背景
部分も対象物体11として抽出されてしまい、一方、閾
値が高い場合、対象物体11の一部又は全部を抽出する
ことができない。In addition, when the target object 11 is close to the background 12, when the illumination unit 14 is turned on, the background 12 also becomes bright to some extent. Therefore, if an appropriate threshold is not set in the difference / threshold processing, the target object 11 is correctly extracted. Can not do it. For example, if the threshold value is low, the brightly changed background portion is also extracted as the target object 11, while if the threshold value is high, part or all of the target object 11 cannot be extracted.
【0011】本発明は、前記従来の対象物体抽出画像処
理装置の問題点を解決して、常に安定して、かつ、高速
で対象物体を抽出することができる対象物体抽出画像処
理装置を提供することを目的とする。The present invention solves the problems of the conventional target object extraction image processing apparatus and provides a target object extraction image processing apparatus capable of constantly and stably extracting a target object at high speed. The purpose is to:
【0012】[0012]
【課題を解決するための手段】そのために、本発明の対
象物体抽出画像処理装置においては、対象物体及び背景
を照らす照明部と、前記対象物体及び背景を撮影する撮
像部と、前記対象物体及び背景を照らしたときの最適な
照明の強度を算出する最適照明パラメータ算出処理手段
と、前記最適な照明の強度より低い照明の強度で対象物
体及び背景のうちの少なくとも一方を照らしたときの画
像、又は照明部を消灯して対象物体及び背景のうちの少
なくとも一方を撮影した画像、並びに最適な照明の強度
で対象物体及び背景のうちの少なくとも一方を照らした
ときの画像に基づいて、最適な閾値を算出する最適閾値
算出処理手段と、前記最適な照明の強度より低い照明の
強度で対象物体及び背景を照らしたときの画像、又は照
明部を消灯して対象物体及び背景を撮影した画像、前記
最適な照明の強度で対象物体及び背景を照らしたときの
画像、並びに前記最適な閾値に基づいて差分処理及び閾
値処理を行う差分・閾値処理部と、前記差分処理及び閾
値処理の結果に基づいて対象物体を抽出する対象物体抽
出部とを有する。In order to achieve the object, a target object extraction image processing apparatus according to the present invention comprises: a lighting unit for illuminating a target object and a background; an imaging unit for photographing the target object and the background; An optimal illumination parameter calculation processing means for calculating an optimal illumination intensity when illuminating the background, and an image when illuminating at least one of the target object and the background with an illumination intensity lower than the optimal illumination intensity, Or, based on an image obtained by photographing at least one of the target object and the background by turning off the lighting unit, and an image obtained by illuminating at least one of the target object and the background with the optimal illumination intensity, An optimal threshold value calculation processing means for calculating an image when the target object and the background are illuminated with an illumination intensity lower than the optimal illumination intensity, or the illumination unit is turned off. An image obtained by photographing an object and a background, an image obtained when the target object and the background are illuminated with the optimum illumination intensity, and a difference / threshold processing unit that performs a difference process and a threshold process based on the optimum threshold. A target object extracting unit for extracting a target object based on a result of the processing and the threshold processing.
【0013】[0013]
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0014】図1は本発明の第1の実施の形態における
対象物体抽出画像処理装置のブロック図である。FIG. 1 is a block diagram of a target object extraction image processing apparatus according to a first embodiment of the present invention.
【0015】図において、10は対象物体抽出画像処理
装置、11は対象物体、12は背景、201は前記対象
物体11及び背景12を照らす照明部、202は該照明
部201に近い位置に配設され、前記対象物体11及び
背景12を撮影する撮像部、203は該撮像部202か
ら前記対象物体11までの距離を測定する測距部、21
は前記照明部201の照明の強度(明るさ)を制御する
照明制御部、22は前記撮像部202の制御を行う撮像
制御部、23は前記測距部203の制御を行う測距制御
部である。そして、前記照明制御部21、撮像制御部2
2及び測距制御部23によって機器制御部204が構成
される。In FIG. 1, reference numeral 10 denotes a target object extraction image processing apparatus, 11 denotes a target object, 12 denotes a background, 201 denotes a lighting unit for illuminating the target object 11 and the background 12, and 202 denotes a position close to the lighting unit 201. An imaging unit 203 for photographing the target object 11 and the background 12; a distance measuring unit 203 for measuring a distance from the imaging unit 202 to the target object 11;
Is an illumination control unit that controls the intensity (brightness) of the illumination of the illumination unit 201, 22 is an imaging control unit that controls the imaging unit 202, and 23 is a distance measurement control unit that controls the distance measurement unit 203. is there. Then, the illumination control unit 21 and the imaging control unit 2
The device control unit 204 is configured by the 2 and the distance measurement control unit 23.
【0016】また、205は前記測距部203によって
測定された撮像部202から対象物体11までの距離が
記録される距離記録部、206は前記照明制御部21に
よって制御された照明の強度が記録される照明パラメー
タ記録部、207は前記撮像部202によって撮像され
た少なくとも2枚分の画像が記録される画像記録部であ
る。A distance recording unit 205 records the distance from the imaging unit 202 to the target object 11 measured by the distance measuring unit 203, and a 206 records the intensity of the illumination controlled by the illumination control unit 21. An illumination parameter recording unit 207 is an image recording unit that records at least two images captured by the imaging unit 202.
【0017】そして、208は前記画像記録部207に
記録された画像、照明パラメータ記録部206に記録さ
れた照明の強度、及び最適閾値記録手段としての最適閾
値データベース25から読み出された最適な閾値に基づ
いて差分・閾値処理を行う差分・閾値処理部、209は
該差分・閾値処理部208による差分・閾値処理の結
果、及び対象物体モデルデータベース210から読み出
された対象物体11のモデルに基づいて対象物体11を
抽出し、抽出結果を出力する対象物体抽出部であり、前
記対象物体モデルデータベース210には抽出すべき対
象物体11のモデルデータが記録される。Reference numeral 208 denotes an image recorded in the image recording unit 207, illumination intensity recorded in the illumination parameter recording unit 206, and an optimal threshold read from the optimal threshold database 25 as optimal threshold recording means. A difference / threshold processing unit 209 that performs difference / threshold processing based on the result of the difference / threshold processing by the difference / threshold processing unit 208 and the model of the target object 11 read from the target object model database 210 A target object extracting unit that extracts the target object 11 and outputs an extraction result. The target object model database 210 records model data of the target object 11 to be extracted.
【0018】また、211は最適パラメータデータベー
スであり、該最適パラメータデータベース211は、撮
像部202から対象物体11までの距離に対する第1の
最適パラメータとしての最適な照明の強度が記録される
最適照明パラメータ記録手段としての最適照明パラメー
タデータベース24、及び差分・閾値処理部208で使
用される各照明パラメータに対する第2の最適パラメー
タとしての最適な閾値が記録される最適閾値データベー
ス25から成り、最適な照明の強度は照明制御部21
に、最適な閾値は差分・閾値処理部208に送られる。
そして、212は最適な照明の強度及び最適な閾値を算
出する最適パラメータ算出部、213は該最適パラメー
タ算出部212において異常値が検出された場合に警告
を出力する警告出力部である。Reference numeral 211 denotes an optimal parameter database. The optimal parameter database 211 stores an optimal illumination intensity as an optimal illumination intensity as a first optimal parameter with respect to a distance from the imaging unit 202 to the target object 11. An optimal illumination parameter database 24 as a recording unit and an optimal threshold database 25 in which an optimal threshold as a second optimal parameter for each illumination parameter used in the difference / threshold processing unit 208 are recorded. The intensity is the illumination control unit 21
Then, the optimum threshold is sent to the difference / threshold processing unit 208.
Reference numeral 212 denotes an optimum parameter calculation unit that calculates an optimum illumination intensity and an optimum threshold, and 213 denotes a warning output unit that outputs a warning when the optimum parameter calculation unit 212 detects an abnormal value.
【0019】次に、前記構成の対象物体抽出画像処理装
置10の動作について説明する。Next, the operation of the target object extraction image processing apparatus 10 having the above configuration will be described.
【0020】本実施の形態における対象物体抽出画像処
理装置10の動作には、パラメータデータ設定フェーズ
及び対象物体抽出フェーズの二つのフェーズ(処理の流
れ)がある。The operation of the target object extraction image processing apparatus 10 in the present embodiment has two phases (processing flow): a parameter data setting phase and a target object extraction phase.
【0021】前記パラメータデータ設定フェーズは、最
適な照明の強度及び最適な閾値を記録する二つのデータ
ベースを設定するためのものであり、対象物体抽出フェ
ーズの前に行う必要がある。The parameter data setting phase is for setting two databases for recording the optimum illumination intensity and the optimum threshold value, and needs to be performed before the target object extraction phase.
【0022】また、対象物体抽出フェーズは、画像から
対象物体11を抽出するためのものであり、対象物体抽
出画像処理装置10における主たるフェーズになる。な
お、パラメータデータ設定フェーズについては、撮影環
境及び対象物体11に対して既に設定された最適パラメ
ータデータベース211を利用することができる場合、
必ずしも行う必要はない。The target object extraction phase is for extracting the target object 11 from the image, and is a main phase in the target object extraction image processing apparatus 10. Note that, in the parameter data setting phase, when the optimal parameter database 211 already set for the imaging environment and the target object 11 can be used,
You don't have to.
【0023】前記対象物体抽出フェーズにおいては、ま
ず、測距部203によって撮像部202から対象物体1
1までの距離が測定され、測定された距離が距離記録部
205に記録される。次に、照明制御部21は、距離記
録部205に記録された距離に基づいて、最適照明パラ
メータデータベース24から最適な照明の強度を読み出
し、該最適な照明の強度で照明部210を点灯し、照明
の強度を高くする。また、照明制御部21は、そのとき
の最適な照明の強度を照明パラメータ記録部206に記
録する。なお、前記最適な照明の強度によって、対象物
体11が誤検出されるのを抑制することができ、安定し
て対象物体11を抽出することができる。In the target object extraction phase, first, the distance measuring unit 203 sends the target object 1
The distance to 1 is measured, and the measured distance is recorded in the distance recording unit 205. Next, the illumination control unit 21 reads out the optimal illumination intensity from the optimal illumination parameter database 24 based on the distance recorded in the distance recording unit 205, and turns on the illumination unit 210 at the optimal illumination intensity. Increase the lighting intensity. Further, the illumination control unit 21 records the optimal illumination intensity at that time in the illumination parameter recording unit 206. In addition, it is possible to prevent the target object 11 from being erroneously detected by the optimum illumination intensity, and to stably extract the target object 11.
【0024】次に、最適な照明の強度で照明部201を
点灯し、撮像部202によって対象物体11及び背景1
2を撮影し、撮影された対象物体11及び背景12の照
明画像を画像記録部207に記録する。そして、照明画
像を撮影した直後に、照明部201を消灯することによ
って照明の強度を低くして、撮像部202によって対象
物体11及び背景12を撮影し、撮影された対象物体1
1及び背景12の無照明画像を画像記録部207に記録
する。続いて、該画像記録部207に記録された照明画
像及び無照明画像は差分・閾値処理部208に送られ、
対象物体11を抽出するための候補領域(以下「対象物
体候補領域」という。)が設定される。そのために、前
記差分・閾値処理部208は、照明画像、無照明画像、
照明の強度及び最適な閾値に基づいて差分・閾値処理を
行う。Next, the illumination unit 201 is turned on with the optimum illumination intensity, and the object unit 11 and the background 1 are illuminated by the imaging unit 202.
2, and the captured illumination images of the target object 11 and the background 12 are recorded in the image recording unit 207. Immediately after capturing the illumination image, the illumination unit 201 is turned off to reduce the intensity of illumination, and the imaging unit 202 captures the target object 11 and the background 12, and the captured target object 1
1 and the non-illuminated image of the background 12 are recorded in the image recording unit 207. Subsequently, the illumination image and the non-illumination image recorded in the image recording unit 207 are sent to the difference / threshold processing unit 208,
A candidate area for extracting the target object 11 (hereinafter referred to as “target object candidate area”) is set. To this end, the difference / threshold processing unit 208 includes an illumination image, a non-illumination image,
Difference / threshold processing is performed based on the illumination intensity and the optimal threshold.
【0025】なお、本実施の形態においては、無照明画
像を撮影する際に照明部201を消灯することによって
照明の強度を低くするようにしているが、照明部201
を消灯することなく、照明画像を撮影する際より照明の
強度を低くすることもできる。ただし、照明画像を撮影
する際の照明の強度と、無照明画像を撮影する際の照明
の強度との差は大きいほどよい。In this embodiment, the illumination unit 201 is turned off when a non-illuminated image is taken to reduce the intensity of illumination.
Without turning off the light, the intensity of illumination can be made lower than when an illumination image is taken. However, it is better that the difference between the illumination intensity when capturing the illumination image and the illumination intensity when capturing the non-illumination image is larger.
【0026】次に、対象物体11を抽出するための基本
原理について説明する。Next, the basic principle for extracting the target object 11 will be described.
【0027】図3は本発明の第1の実施の形態における
無照明画像の例を示す図、図4は本発明の第1の実施の
形態における照明画像の例を示す図、図5は本発明の第
1の実施の形態における差分画像の例を示す図、図6は
本発明の第1の実施の形態における差分画像の輝度ヒス
トグラムを示す図、図7は本発明の第1の実施の形態に
おける対象物体候補領域の第1の例を示す図、図8は本
発明の第1の実施の形態における対象物体候補領域の第
2の例を示す図、図9は本発明の第1の実施の形態にお
ける対象物体候補領域の第3の例を示す図、図10は本
発明の第1の実施の形態における背景に反射率の高い物
体が存在する場合の背景画像を示す図、図11は本発明
の第1の実施の形態における背景の前に対象物体が存在
する場合の照明画像を示す図、図12は本発明の第1の
実施の形態における対象物体候補領域の第4の例を示す
図である。なお、図6において、横軸に輝度差を、縦軸
に度数を採ってある。FIG. 3 is a diagram showing an example of a non-illuminated image according to the first embodiment of the present invention, FIG. 4 is a diagram showing an example of an illuminated image according to the first embodiment of the present invention, and FIG. FIG. 6 is a diagram illustrating an example of a difference image according to the first embodiment of the present invention, FIG. 6 is a diagram illustrating a luminance histogram of the difference image according to the first embodiment of the present invention, and FIG. 7 is a diagram illustrating a first embodiment of the present invention. FIG. 8 is a diagram showing a first example of a target object candidate region in the embodiment, FIG. 8 is a diagram showing a second example of a target object candidate region in the first embodiment of the present invention, and FIG. 9 is a first example of the present invention. FIG. 10 is a diagram illustrating a third example of a target object candidate region according to the embodiment; FIG. 10 is a diagram illustrating a background image in the case where an object having a high reflectance exists in the background according to the first embodiment of the present invention; Is an illumination image when a target object is present in front of the background according to the first embodiment of the present invention. Diagram showing, FIG. 12 is a diagram showing a fourth example of the target object candidate area in the first embodiment of the present invention. In FIG. 6, the luminance difference is plotted on the horizontal axis and the frequency is plotted on the vertical axis.
【0028】対象物体11(図1)が背景12から離れ
ていて撮像部202に近い位置に存在する場合に、照明
部201を点灯すると、一般に、照明部201に近い物
体の方が背景12より明るくなるので、無照明画像は図
3に示されるように、照明画像は図4に示されるように
なる。When the illuminating unit 201 is turned on when the target object 11 (FIG. 1) is located away from the background 12 and close to the imaging unit 202, generally, the object closer to the illuminating unit 201 is better than the background 12. Since it becomes bright, the non-illuminated image is as shown in FIG. 3 and the illuminated image is as shown in FIG.
【0029】そして、差分・閾値処理のうちの差分処理
を行い、照明画像の輝度から無照明画像の輝度を減算す
ることによって、図5に示されるような差分画像が生成
され、該差分画像は、通常、図6に示されるような輝度
ヒストグラムで表される。図6において、部分Aは主に
背景12の領域を表し、部分Bは主に対象物体11の領
域を表す。この場合、照明部201から遠い背景12の
部分は点灯時と消灯時とでの輝度変化が小さくなり、照
明部201に近い対象物体11の部分は点灯時と消灯時
とでの輝度変化が大きくなる。そこで、前記差分画像に
対して所定の閾値で差分・閾値処理のうちの閾値処理を
行うと、図7〜9に示されるような画像が得られ、それ
ぞれ、白く変化した領域が対象物体候補領域となる。そ
して、適切な閾値T1で閾値処理を行うと、図7に示さ
れるように、対象物体候補領域が対象物体11のシルエ
ットとして形成されることになるので、対象物体11を
容易に抽出することができる。これに対して、閾値T2
(<T1)で閾値処理を行うと、図8に示されるよう
に、背景12が含まれた対象物体候補領域が形成され、
閾値T3(>T1)で閾値処理を行うと、図9に示され
るように、対象物体11が欠けた対象物体候補領域が形
成されるので、対象物体11を抽出するのが困難になっ
てしまう。Then, the difference processing of the difference / threshold processing is performed, and the luminance of the non-illuminated image is subtracted from the luminance of the illuminated image to generate a differential image as shown in FIG. , Usually represented by a luminance histogram as shown in FIG. In FIG. 6, part A mainly represents the area of the background 12, and part B mainly represents the area of the target object 11. In this case, the portion of the background 12 far from the illumination unit 201 has a small change in luminance between when it is turned on and when it is turned off, and the portion of the target object 11 that is close to the illumination unit 201 has a large change in luminance when it is turned on and when it is turned off. Become. Therefore, when threshold processing of the difference / threshold processing is performed on the difference image with a predetermined threshold, images as shown in FIGS. 7 to 9 are obtained, and the areas that have changed to white are the target object candidate areas. Becomes Then, when the threshold processing is performed at an appropriate threshold T1, the target object candidate area is formed as a silhouette of the target object 11, as shown in FIG. 7, so that the target object 11 can be easily extracted. it can. On the other hand, the threshold T2
When the threshold processing is performed in (<T1), a target object candidate area including the background 12 is formed as shown in FIG.
When the threshold processing is performed at the threshold value T3 (> T1), as shown in FIG. 9, a target object candidate region lacking the target object 11 is formed, so that it becomes difficult to extract the target object 11. .
【0030】そこで、本実施の形態においては、閾値T
1のような最適な閾値を各照明の強度に対応させて最適
閾値データベース25にあらかじめ記録しておき、閾値
処理を行うときに、前記最適閾値データベース25から
そのときの照明の強度に対応する最適な閾値を決定する
ようにしている。したがって、どのような環境において
も最適な対象物体候補領域を形成することができる。な
お、閾値処理において利用される最適閾値データベース
25はパラメータデータ設定フェーズにおいて設定され
る。Therefore, in the present embodiment, the threshold T
An optimal threshold value such as 1 is recorded in advance in the optimal threshold database 25 in association with the intensity of each illumination, and when performing threshold processing, the optimal threshold corresponding to the intensity of the illumination at that time is obtained from the optimal threshold database 25. The appropriate threshold value is determined. Therefore, an optimum target object candidate area can be formed in any environment. The optimal threshold database 25 used in the threshold processing is set in the parameter data setting phase.
【0031】ところで、前述されたような処理を行うこ
とによって、図7に示されるような対象物体候補領域が
そのまま対象物体11のシルエットとして形成されるこ
ともあるが、特殊な状況、例えば、背景12に対象物体
11より反射率の高い物体がある場合には、対象物体候
補領域が必ずしも対象物体11のシルエットとして形成
されない。例えば、図10に示されるように、背景12
に反射率の高い物体としての窓ガラスがあり、図11に
示されるように、対象物体11が前記窓ガラスの前に立
つ人である場合、照明部201を点灯すると、対象物体
11より背景12の方が明るくなってしまう。その結
果、前述されたような照明画像及び無照明画像について
差分・閾値処理を行うと、図12に示されるような対象
物体候補領域が形成され、背景12の窓ガラスも対象物
体11として誤って抽出されてしまう。By performing the above-described processing, the target object candidate area as shown in FIG. 7 may be formed as a silhouette of the target object 11 as it is. If there is an object having a higher reflectance than the target object 11 in the target object 12, the target object candidate area is not necessarily formed as a silhouette of the target object 11. For example, as shown in FIG.
There is a window glass as an object having a high reflectance, and as shown in FIG. 11, when the target object 11 is a person standing in front of the window glass, when the lighting unit 201 is turned on, the background 12 becomes higher than the target object 11. Is brighter. As a result, when the difference / threshold processing is performed on the illumination image and the non-illumination image as described above, a target object candidate region as shown in FIG. 12 is formed, and the window glass of the background 12 is erroneously set as the target object 11. It will be extracted.
【0032】そこで、対象物体抽出部209において、
対象物体候補領域から対象物体11を抽出するようにな
っている。Therefore, in the target object extracting unit 209,
The target object 11 is extracted from the target object candidate area.
【0033】前記対象物体抽出部209において、対象
物体候補領域から対象物体11を抽出する方法は、抽出
される対象物体11の種類によって異なるが、基本的な
処理の流れは同じである。すなわち、対象物体抽出部2
09は、差分・閾値処理部208によって形成された対
象物体候補領域に対して、あらかじめ想定され、対象物
体モデルデータベース210に記録されている対象物体
11のモデルの情報に基づいて、更に、必要に応じて撮
像部202から対象物体11までの距離に基づいて対象
物体11を抽出する。例えば、図12に示されるような
対象物体候補領域が形成された場合には、人の形状のモ
デルをフィッティングして対象物体11を抽出するよう
にしている。また、対象物体11のモデルとして顔のモ
デル及び体のモデルをあらかじめ用意しておき、図12
に示されるような対象物体候補領域から顔のモデルをフ
ィッティングして顔を抽出し、抽出された顔の大きさ及
び位置から体のモデルをフィッティングして、体の大き
さ及び位置を推定して体を抽出することができる。そし
て、図12に示される対象物体候補領域及び図11の照
明画像を利用して体を抽出することもできる(特願平1
1−149281号明細書参照)。The method of extracting the target object 11 from the target object candidate area in the target object extraction unit 209 differs depending on the type of the target object 11 to be extracted, but the basic processing flow is the same. That is, the target object extraction unit 2
09 is further necessary for the target object candidate area formed by the difference / threshold processing unit 208 based on the model information of the target object 11 which is assumed in advance and recorded in the target object model database 210. Accordingly, the target object 11 is extracted based on the distance from the imaging unit 202 to the target object 11. For example, when a target object candidate region as shown in FIG. 12 is formed, the target object 11 is extracted by fitting a human-shaped model. In addition, a face model and a body model are prepared in advance as a model of the target object 11, and FIG.
A face model is extracted by fitting a face model from the target object candidate area as shown in, and a body model is fitted from the extracted face size and position to estimate the body size and position. The body can be extracted. The body can be extracted using the target object candidate area shown in FIG. 12 and the illumination image shown in FIG.
1-1149281).
【0034】このように、本実施の形態においては、撮
像部202から対象物体11までの距離に基づいて最適
な照明部201の制御を行い、更に照明の強度によって
差分・閾値処理における最適な閾値を決定し、最後に対
象物体11のモデルを使用して対象物体11を抽出する
ようになっているので、どのような環境においても安定
して、かつ、高速で対象物体11を抽出することができ
る。As described above, in the present embodiment, the optimal control of the illumination unit 201 is performed based on the distance from the imaging unit 202 to the target object 11, and the optimal threshold in the difference / threshold processing is further controlled by the illumination intensity. Is determined, and finally the target object 11 is extracted using the model of the target object 11, so that the target object 11 can be extracted stably and at high speed in any environment. it can.
【0035】次に、パラメータデータ設定フェーズにつ
いて説明する。Next, the parameter data setting phase will be described.
【0036】パラメータデータ設定フェーズは、対象物
体抽出フェーズにおいて利用する最適な照明の強度及び
最適な閾値を設定するためのものである。The parameter data setting phase is for setting an optimum illumination intensity and an optimum threshold used in the target object extraction phase.
【0037】図13は本発明の第1の実施の形態におけ
る対象物体が背景に近い場合の差分画像の輝度ヒストグ
ラムを示す図、図14は本発明の第1の実施の形態にお
ける照明の強度が低い場合の差分画像の輝度ヒストグラ
ムを示す図、図15は本発明の第1の実施の形態におけ
る照明の強度が高い場合の差分画像の輝度ヒストグラム
を示す図である。なお、図13〜15において、横軸に
輝度差を、縦軸に度数を採ってある。また、図13〜1
5において、部分Aは主に背景12(図1)の領域を表
し、部分Bは主に対象物体11の領域を表す。FIG. 13 is a diagram showing a luminance histogram of a difference image when the target object is close to the background according to the first embodiment of the present invention, and FIG. 14 is a diagram showing the illumination intensity in the first embodiment of the present invention. FIG. 15 is a diagram illustrating a luminance histogram of the difference image when the intensity is low, and FIG. 15 is a diagram illustrating a luminance histogram of the difference image when the illumination intensity is high according to the first embodiment of the present invention. 13 to 15, the horizontal axis represents the luminance difference, and the vertical axis represents the frequency. In addition, FIGS.
In 5, the part A mainly represents the area of the background 12 (FIG. 1), and the part B mainly represents the area of the target object 11.
【0038】まず、最適照明制御方法及び最適照明パラ
メータデータベース24の作成方法について説明する。First, an optimal lighting control method and a method of creating the optimal lighting parameter database 24 will be described.
【0039】前記対象物体抽出画像処理装置10におい
て、対象物体11が照明部201から遠く、背景12に
近い場合、一定の照明の強度で対象物体11及び背景1
2を照らしたときに、照明画像及び無照明画像の差分画
像の輝度ヒストグラムは、図13に示されるように部分
Aと部分Bとが重なる。この場合、閾値処理を行うと、
最適な閾値T1を設定しても対象物体11の一部が欠
け、しかも、背景12の一部が含まれた対象物体候補領
域が形成されてしまう。また、閾値T2、T3を設定す
ると、更に対象物体11が欠けたり、背景12が含まれ
たりした対象物体候補領域が形成されてしまう。したが
って、対象物体抽出部209の処理の負荷が大きくな
り、処理時間が長くなってしまう。In the target object extraction image processing apparatus 10, when the target object 11 is far from the illumination unit 201 and close to the background 12, the target object 11 and the background
When the image No. 2 is illuminated, in the luminance histogram of the difference image between the illumination image and the non-illumination image, the portion A and the portion B overlap as shown in FIG. In this case, when threshold processing is performed,
Even if the optimum threshold value T1 is set, a part of the target object 11 is missing and a target object candidate area including a part of the background 12 is formed. Further, when the threshold values T2 and T3 are set, a target object candidate area in which the target object 11 is further missing or the background 12 is included is formed. Therefore, the processing load of the target object extracting unit 209 increases, and the processing time increases.
【0040】そこで、前記照明部201の制御を最適に
行う最適照明制御方法について説明する。Therefore, an optimal illumination control method for optimally controlling the illumination unit 201 will be described.
【0041】一般に、表面が拡散反射する物体の場合、
照明部201を点灯してその物体を撮影すると、物体の
明るさは、照明の強度に比例して明るくなり、照明部2
01からの距離の2乗に反比例して暗くなる。したがっ
て、背景12の反射率が対象物体11の反射率よりもは
るかに高い(例えば、鏡等)場合を除いて、対象物体1
1及び背景12を照明の強度を変えて撮影すると、照明
画像と無照明画像との差分画像の輝度ヒストグラムは、
照明の強度が低い場合には図14に示されるようにな
り、照明の強度が高い場合には図15に示されるように
なる。In general, for an object whose surface is diffusely reflected,
When the illumination unit 201 is turned on and the object is photographed, the brightness of the object increases in proportion to the intensity of the illumination.
It becomes dark in inverse proportion to the square of the distance from 01. Therefore, except for the case where the reflectance of the background 12 is much higher than the reflectance of the target object 11 (for example, a mirror or the like), the target object 1
1 and the background 12 are photographed with the illumination intensity changed, the luminance histogram of the difference image between the illumination image and the non-illumination image is:
When the illumination intensity is low, the result is as shown in FIG. 14, and when the illumination intensity is high, the result is as shown in FIG.
【0042】すなわち、照明の強度を高くすると照明画
像が全体的に明るくなるが、前述されたような拡散反射
の特性から、照明部201から遠い背景12の部分が明
るくなる分より、照明部201に近い対象物体11の部
分が明るくなる分の方が大きくなる。したがって、照明
画像と無照明画像との差分画像の輝度ヒストグラムは、
図15に示されるように部分Aと部分Bとが分離するよ
うになるので、閾値処理によって対象物体11を容易に
抽出することができる。このように、照明の強度が高い
ほど対象物体11を抽出しやすくなる。That is, when the intensity of the illumination is increased, the illumination image becomes brighter as a whole. However, from the characteristic of the diffuse reflection as described above, the illumination unit 201 is more brighter than the portion of the background 12 far from the illumination unit 201. The portion where the target object 11 close to is brighter is larger. Therefore, the brightness histogram of the difference image between the illuminated image and the non-illuminated image is
Since the part A and the part B are separated as shown in FIG. 15, the target object 11 can be easily extracted by the threshold processing. Thus, the higher the intensity of the illumination, the easier it is to extract the target object 11.
【0043】ただし、照明の強度が過度に高くなると、
輝度が飽和してしまうことによって抽出される対象物体
11の画質が低下してしまうので、輝度が飽和しない程
度に、照明部201の照明の強度を制御することが好ま
しい。すなわち、対象物体11が撮像部202からどの
ような距離にあっても、輝度が飽和しない程度で、最も
明るく照らされるように、照明部201の制御が最適に
行われる。However, if the intensity of the illumination becomes excessively high,
Since the image quality of the extracted target object 11 is degraded due to saturation of the luminance, it is preferable to control the illumination intensity of the illumination unit 201 to such an extent that the luminance is not saturated. That is, no matter what distance the target object 11 is from the imaging unit 202, the control of the illumination unit 201 is optimally performed so that the brightness is not saturated and the brightest illumination is performed.
【0044】そのために、本実施の形態においては、対
象物体11の撮像部202からの距離に応じて適切な照
明の強度で対象物体11を照らすことができるように、
最適照明パラメータデータベース24に、各距離に対応
する最適な照明の強度を記録するようになっている。For this purpose, in the present embodiment, the target object 11 can be illuminated with an appropriate illumination intensity according to the distance of the target object 11 from the image pickup unit 202.
The optimal illumination parameter database 24 records the optimal illumination intensity corresponding to each distance.
【0045】次に、最適照明パラメータデータベース2
4の作成処理について説明する。Next, the optimum illumination parameter database 2
4 will be described.
【0046】図16は本発明の第1の実施の形態におけ
る最適照明パラメータデータベース作成処理の動作を示
すフローチャート、図17は本発明の第1の実施の形態
における距離及び最適な照明の強度の実測値の例を示す
図、図18は本発明の第1の実施の形態における最適照
明パラメータデータベースの例を示す図である。FIG. 16 is a flowchart showing the operation of the optimum illumination parameter database creation processing in the first embodiment of the present invention, and FIG. 17 is the actual measurement of the distance and the optimum illumination intensity in the first embodiment of the present invention. FIG. 18 is a diagram illustrating an example of a value, and FIG. 18 is a diagram illustrating an example of an optimum illumination parameter database according to the first embodiment of the present invention.
【0047】まず、撮像部202(図1)の前方の所定
の位置に対象物体11と同等の性質を有するテストチャ
ートを配設する。対象物体11及びテストチャートをそ
れぞれ撮影した場合、撮影された対象物体11及びテス
トチャートの各輝度はほぼ等しい。なお、本実施の形態
において、最適照明パラメータデータベース24の作成
処理においてテストチャートによって対象物体11が構
成される。First, a test chart having the same properties as the target object 11 is arranged at a predetermined position in front of the image pickup section 202 (FIG. 1). When the target object 11 and the test chart are photographed, the luminances of the photographed target object 11 and the test chart are substantially equal. In the present embodiment, the target object 11 is configured by the test chart in the process of creating the optimum illumination parameter database 24.
【0048】次に、前記測距制御部23は、距離記録処
理を行い、測距部203によって撮像部202からテス
トチャートまでの距離を測定し、測定された距離を距離
記録部205に記録する。続いて、照明制御部21は、
照明制御処理を行い、所定の照明の強度で照明部201
によってテストチャートを照らし、そのときの照明の強
度を照明パラメータ記録部206に照明の強度として記
録し、撮像制御部22は、画像撮影・記録処理を行い、
各照明の強度ごとに、撮像部202によってテストチャ
ートを撮影し、撮影されたテストチャートの画像を画像
記録部207に記録する。Next, the distance measurement control unit 23 performs a distance recording process, measures the distance from the imaging unit 202 to the test chart by the distance measurement unit 203, and records the measured distance in the distance recording unit 205. . Subsequently, the lighting control unit 21
A lighting control process is performed, and the lighting unit 201 is operated at a predetermined lighting intensity.
The test chart is illuminated, and the intensity of the illumination at that time is recorded as the intensity of the illumination in the illumination parameter recording unit 206, and the imaging control unit 22 performs an image capturing / recording process,
A test chart is photographed by the imaging unit 202 for each illumination intensity, and an image of the photographed test chart is recorded in the image recording unit 207.
【0049】そして、照明制御部21があらかじめ設定
された複数の照明の強度のうちのすべての照明の強度に
ついて照明制御処理を行い、撮像制御部22が各照明の
強度ごとに画像撮影・記録処理を行うと、最適パラメー
タ算出部212の図示されない最適照明パラメータ算出
処理手段は、最適照明パラメータ判定処理を行い、画像
記録部207に記録されたすべての画像についての画像
特徴量(平均輝度、最高輝度等)を算出し、その画像特
徴量が最も適切な値を採り、テストチャートが、輝度が
飽和しない程度で、かつ、最も明るく照らされる画像を
選択する。The illumination control unit 21 performs an illumination control process for all of the plurality of illumination intensities set in advance, and the imaging control unit 22 performs an image shooting / recording process for each illumination intensity. Is performed, an optimal illumination parameter calculation processing unit (not shown) of the optimal parameter calculation unit 212 performs an optimal illumination parameter determination process, and performs image feature amounts (average luminance, maximum luminance) for all the images recorded in the image recording unit 207. , Etc.), the image feature value takes the most appropriate value, and the test chart selects an image that is illuminated most brightly so that the luminance is not saturated.
【0050】また、前記最適照明パラメータ算出処理手
段は、最適照明パラメータ記録処理を行い、選択された
画像に対応する照明の強度を照明パラメータ記録部20
6から読み出すことによって最適な照明の強度を算出す
るとともに、前記画像が撮影されたときの距離を距離記
録部205から読み出し、前記最適な照明の強度及び距
離を最適照明パラメータデータベース24に記録する。The optimal illumination parameter calculation processing means performs an optimal illumination parameter recording process, and stores the intensity of illumination corresponding to the selected image in the illumination parameter recording section 20.
6, the optimal illumination intensity is calculated, the distance at which the image was captured is read from the distance recording unit 205, and the optimal illumination intensity and distance are recorded in the optimal illumination parameter database 24.
【0051】これらの処理を、テストチャートが配設さ
れる位置を変化させて繰り返し、図17に示されるよう
な、各位置における距離及び最適な照明の強度の実測値
を得ることができる。These processes are repeated by changing the position where the test chart is provided, and actual measured values of the distance and the optimum illumination intensity at each position as shown in FIG. 17 can be obtained.
【0052】続いて、前記最適パラメータ算出部212
は、補間処理を行い、前記距離及び最適な照明の強度の
実測値を補間し、最終的に、図18に示されるような、
前記距離に対応させて最適な照明の強度が記録された最
適照明パラメータデータベース24を作成する。Subsequently, the optimum parameter calculating section 212
Performs an interpolation process to interpolate the measured values of the distance and the optimum illumination intensity, and finally, as shown in FIG.
An optimal illumination parameter database 24 in which the optimal illumination intensity is recorded corresponding to the distance is created.
【0053】次に、フローチャートについて説明する。 ステップS1 テストチャートを配設する。 ステップS2 距離記録処理を行う。 ステップS3 照明制御処理を行う。 ステップS4 画像撮影・記録処理を行う。 ステップS5 すべての照明の強度について照明制御処
理及び画像撮影・記録処理が終了したかどうかを判断す
る。すべての照明の強度について照明制御処理及び画像
撮影・記録処理が終了した場合はステップS6に進み、
終了していない場合はステップS3に戻る。 ステップS6 最適照明パラメータ判定処理を行う。 ステップS7 最適照明パラメータ記録処理を行い、ス
テップS1に戻る。Next, the flowchart will be described. Step S1 A test chart is provided. Step S2 Distance recording processing is performed. Step S3: A lighting control process is performed. Step S4: An image photographing / recording process is performed. Step S5: It is determined whether the illumination control processing and the image capturing / recording processing have been completed for all the illumination intensities. If the illumination control process and the image capturing / recording process have been completed for all the illumination intensities, the process proceeds to step S6,
If not, the process returns to step S3. Step S6: Perform an optimal illumination parameter determination process. Step S7 The optimum illumination parameter recording process is performed, and the process returns to step S1.
【0054】次に、最適な閾値及び最適閾値データベー
ス25の作成方法について説明する。Next, a method of creating the optimum threshold value and the optimum threshold value database 25 will be described.
【0055】図19は本発明の第1の実施の形態におけ
る閾値処理の差分画像の輝度ヒストグラムを示す図、図
20は本発明の第1の実施の形態における閾値処理結果
を示す第1の図、図21は本発明の第1の実施の形態に
おける閾値処理結果を示す第2の図、図22は本発明の
第1の実施の形態における閾値処理結果を示す第3の図
である。なお、図19において、横軸に輝度差を、縦軸
に度数を採ってある。また、図19において、部分Aは
主に背景12(図1)の領域を表し、部分Bは主に対象
物体11の領域を表す。FIG. 19 is a diagram showing a luminance histogram of a difference image of the threshold processing according to the first embodiment of the present invention, and FIG. 20 is a first diagram showing a result of the threshold processing according to the first embodiment of the present invention. FIG. 21 is a second diagram showing the result of threshold processing in the first embodiment of the present invention, and FIG. 22 is a third diagram showing the result of threshold processing in the first embodiment of the present invention. In FIG. 19, the horizontal axis represents the luminance difference, and the vertical axis represents the frequency. In FIG. 19, the part A mainly represents the area of the background 12 (FIG. 1), and the part B mainly represents the area of the target object 11.
【0056】まず、差分・閾値処理を行うための最適な
閾値について説明する。例えば、図19に示される照明
画像と無照明画像との差分画像の輝度ヒストグラムが得
られる場合、対象物体抽出方法にもよるが、閾値T1
1、T22、T33が最適になる。そして、閾値T11
で閾値処理を行うと、図20に示される対象物体候補領
域が、閾値T22で閾値処理を行うと、図21に示され
る対象物体候補領域が、閾値T33で閾値処理を行う
と、図22に示される対象物体候補領域が形成される。
図21に示される対象物体候補領域は、図6に示される
輝度ヒストグラムが得られる場合の対象物体候補領域と
ほぼ等しい。First, an optimal threshold for performing the difference / threshold processing will be described. For example, when the luminance histogram of the difference image between the illuminated image and the non-illuminated image shown in FIG. 19 is obtained, the threshold value T1 may be used depending on the target object extraction method.
1, T22 and T33 are optimal. And the threshold value T11
If the target object candidate area shown in FIG. 20 performs the threshold processing at the threshold T22, the target object candidate area shown in FIG. 21 performs the threshold processing at the threshold T33. The indicated target object candidate area is formed.
The target object candidate area shown in FIG. 21 is substantially equal to the target object candidate area when the luminance histogram shown in FIG. 6 is obtained.
【0057】この場合、閾値T22で閾値処理を行う
と、図21に示されるように、背景12の部分はほとん
ど含まれず、対象物体11の部分がほぼ含まれる。これ
に対して、閾値T11で閾値処理を行うと、図20に示
されるように対象物体11の部分に欠けはないが、背景
12の部分が比較的多く含まれる。また、閾値T33で
閾値処理を行うと、図22に示されるように背景12の
部分はほとんど含まれないが、対象物体11の部分にわ
ずかな欠けが生じる。In this case, when the threshold processing is performed at the threshold value T22, as shown in FIG. 21, the portion of the background 12 is hardly included, and the portion of the target object 11 is almost included. On the other hand, when the threshold processing is performed with the threshold T11, the portion of the target object 11 does not have a chip as shown in FIG. Further, when the threshold processing is performed at the threshold T33, as shown in FIG. 22, the background 12 is hardly included, but the target object 11 is slightly chipped.
【0058】ここで、対象物体抽出部209の抽出処理
において、背景12の部分がわずかに含まれていても、
対象物体11の部分の欠けが少ない方がよい場合は、閾
値T11が最適な閾値になる。逆に、対象物体11がわ
ずかに欠けていても、背景12の部分が含まれない方が
よい場合は、閾値T33が最適な閾値になり、対象物体
11の部分の欠けが少なく、しかも、背景12の部分が
含まれない方がよい場合は、閾値T22が最適な閾値に
なる。Here, in the extraction processing of the target object extraction unit 209, even if the background 12 is slightly included,
In the case where it is better for the part of the target object 11 to have less chipping, the threshold value T11 is the optimum threshold value. Conversely, if it is better not to include the background 12 even if the target object 11 is slightly missing, the threshold value T33 is the optimal threshold value, and the target object 11 is less missing, and If it is better not to include the portion 12, the threshold value T22 is the optimum threshold value.
【0059】このように、最適な閾値には、閾値T11
のように対象物体11の部分の大部分を抽出することが
できるもの、閾値T33のように背景12の部分の大部
分を取り除くことができるもの、及び閾値T22のよう
に背景12の部分が少なく、対象物体11の部分の大部
分を抽出することができるものがある。As described above, the optimum threshold value is the threshold value T11.
Can extract most of the portion of the target object 11 as shown in FIG. 1, can remove most of the portion of the background 12 as in the threshold T33, and can reduce the portion of the background 12 as in the threshold T22. And some of the target object 11 can be largely extracted.
【0060】ところで、図19に示されるような差分画
像の輝度ヒストグラムは、前述されたように、対象物体
11の位置に対応させて照明の強度を変化させると、図
14及び15に示されるように変化する。したがって、
照明の強度を変化させたときの、背景12及び対象物体
11についての照明画像と無照明画像との差分画像に基
づいて最適な閾値を決定する必要がある。By the way, the luminance histogram of the difference image as shown in FIG. 19 is obtained by changing the intensity of the illumination in accordance with the position of the target object 11 as shown in FIGS. Changes to Therefore,
It is necessary to determine an optimal threshold based on a difference image between the illumination image and the non-illumination image of the background 12 and the target object 11 when the illumination intensity is changed.
【0061】次に、最適閾値データベース作成処理の動
作について説明する。Next, the operation of the optimum threshold database creation processing will be described.
【0062】図23は本発明の第1の実施の形態におけ
る第1の最適閾値データベース作成処理の動作を示すフ
ローチャート、図24は本発明の第1の実施の形態にお
ける第2の最適閾値データベース作成処理の動作を示す
フローチャート、図25は本発明の第1の実施の形態に
おける第3の最適閾値データベース作成処理の動作を示
すフローチャート、図26は本発明の第1の実施の形態
における最適な照明の強度及び最適な閾値の実測値の例
を示す図、図27は本発明の第1の実施の形態における
最適閾値データベースの例を示す図である。FIG. 23 is a flowchart showing the operation of the first optimum threshold value database creation process in the first embodiment of the present invention, and FIG. 24 is the second optimum threshold value database creation process in the first embodiment of the present invention. FIG. 25 is a flowchart showing the operation of the process, FIG. 25 is a flowchart showing the operation of the third optimum threshold value database creation process in the first embodiment of the present invention, and FIG. 26 is the optimal illumination in the first embodiment of the present invention. And FIG. 27 is a diagram illustrating an example of an optimum threshold database according to the first embodiment of the present invention.
【0063】この場合、図23は図19に示される閾値
T11を最適な閾値として最適閾値データベース25
(図1)を作成する場合の処理の手順を、図24は閾値
T33を最適な閾値として最適閾値データベース25を
作成する場合の処理の手順を、図25は閾値T22を最
適な閾値として最適閾値データベース25を作成する場
合の処理の手順を示す。In this case, FIG. 23 uses the threshold T11 shown in FIG.
FIG. 24 shows the processing procedure for creating the optimal threshold database 25 using the threshold T33 as the optimal threshold, and FIG. 25 shows the optimal procedure using the threshold T22 as the optimal threshold. The procedure of processing when creating the database 25 will be described.
【0064】まず、前記閾値T11を最適な閾値として
最適閾値データベース25を作成する場合、照明制御部
21は、第1の照明制御処理を行い、照明部201を消
灯し、撮像制御部22は、無照明背景画像撮影・記録処
理を行い、対象物体11等がない背景12を撮像部20
2によって撮影し、撮影された背景12の画像を無照明
背景画像として画像記録部207に記録する。First, when creating the optimal threshold database 25 using the threshold T11 as an optimal threshold, the illumination control unit 21 performs a first illumination control process, turns off the illumination unit 201, and the imaging control unit 22 A non-illuminated background image photographing / recording process is performed, and a background 12 having no target object 11 etc.
2, and the captured image of the background 12 is recorded in the image recording unit 207 as a non-illuminated background image.
【0065】次に、前記照明制御部21は、第2の照明
制御処理を行い、最適照明パラメータデータベース24
に記録された所定の最適な照明の強度を読み出し、該最
適な照明の強度で照明部201を点灯し、撮像部202
は、照明背景画像撮影・記録処理を行い、背景12を撮
影し、撮影された背景12の画像を照明背景画像として
画像記録部207に記録する。続いて、最適パラメータ
算出部212の図示されない最適閾値算出処理手段は、
最適閾値算出処理を行い、画像記録部207に記録され
た無照明背景画像と照明背景画像との差分処理を行っ
て、輝度ヒストグラムを作成する。該輝度ヒストグラム
は、一般に、図19における部分Aに示されるような分
布になるので、この輝度ヒストグラムの分布における特
徴、例えば、平均値等に基づいて閾値T11を決定す
る。Next, the illumination control section 21 performs a second illumination control process, and the optimal illumination parameter database 24
Is read out, and the illumination unit 201 is turned on with the optimal illumination intensity, and the imaging unit 202 is turned on.
Performs a lighting background image photographing / recording process, photographs the background 12, and records the photographed image of the background 12 in the image recording unit 207 as a lighting background image. Subsequently, an optimum threshold value calculation processing unit (not shown) of the optimum parameter calculation unit 212
An optimum threshold value calculation process is performed, and a difference process is performed between the non-illuminated background image and the illuminated background image recorded in the image recording unit 207 to create a luminance histogram. Since the luminance histogram generally has a distribution as shown in a portion A in FIG. 19, the threshold value T11 is determined based on a feature in the distribution of the luminance histogram, for example, an average value.
【0066】続いて、前記最適閾値算出処理手段は、最
適閾値記録処理を行い、前記所定の最適な照明の強度と
共に、閾値T11を最適な閾値として最適閾値データベ
ース25に記録する。Subsequently, the optimum threshold value calculation processing means performs an optimum threshold value recording process, and records the threshold value T11 as an optimum threshold value in the optimum threshold value database 25 together with the predetermined optimum illumination intensity.
【0067】このようにして、前記最適照明パラメータ
データベース24に記録されたすべての最適な照明の強
度について前記各処理を行い、各最適な照明の強度ごと
に最適な閾値を算出し、最適な照明の強度及び最適な閾
値を最適閾値データベース25に記録することによっ
て、図26に示されるような、各最適な照明の強度及び
最適な閾値の実測値を得ることができる。In this way, the above-mentioned processing is performed for all the optimal illumination intensities recorded in the optimal illumination parameter database 24, and an optimal threshold value is calculated for each optimal illumination intensity. 26 is recorded in the optimal threshold database 25, it is possible to obtain actual values of the optimal illumination intensity and the optimal threshold as shown in FIG.
【0068】続いて、前記最適パラメータ算出部212
は、補間処理を行い、各最適な照明の強度及び最適な閾
値の実測値を補間し、最終的に、図27に示されるよう
な、各最適な照明の強度に対応させて最適な閾値が記録
された最適閾値データベース25を作成する。Subsequently, the optimum parameter calculating section 212
Performs an interpolation process to interpolate the actual value of each optimal illumination intensity and the optimal threshold value, and finally, as shown in FIG. 27, the optimal threshold value is set in correspondence with each optimal illumination intensity. The recorded optimum threshold database 25 is created.
【0069】次に、フローチャートについて説明する。 ステップS11 第1の照明制御処理を行う。 ステップS12 無照明背景画像撮影・記録処理を行
う。 ステップS13 第2の照明制御処理を行う。 ステップS14 照明背景画像撮影・記録処理を行う。 ステップS15 最適閾値算出処理を行う。 ステップS16 最適閾値記録処理を行い、ステップS
11に戻る。Next, the flowchart will be described. Step S11 A first illumination control process is performed. Step S12: A non-illuminated background image photographing / recording process is performed. Step S13 A second illumination control process is performed. Step S14: Illumination background image photographing / recording processing is performed. Step S15: Perform an optimum threshold value calculation process. Step S16: Perform an optimal threshold recording process, and
Return to 11.
【0070】次に、閾値T33を最適な閾値として最適
閾値データベース25を作成する場合、まず、機器制御
部204は、最適照明パラメータデータベース24に記
録された各距離のうちの一つを読み出す。そして、オペ
レータは、撮像部202の前方の前記距離の位置にテス
トチャートを配設する。Next, when creating the optimal threshold database 25 using the threshold T33 as the optimal threshold, first, the device control unit 204 reads one of the distances recorded in the optimal illumination parameter database 24. Then, the operator arranges the test chart at the position of the distance in front of the imaging unit 202.
【0071】続いて、照明制御部21は、第1の照明制
御処理を行い、照明部201を消灯し、撮像制御部22
は、無照明画像撮影・記録処理を行い、テストチャート
を撮像部202によって撮影し、撮影されたテストチャ
ートの画像を無照明画像として画像記録部207に記録
する。Subsequently, the illumination control unit 21 performs a first illumination control process, turns off the illumination unit 201, and turns off the imaging control unit 22.
Performs a non-illuminated image capturing / recording process, captures a test chart by the image capturing unit 202, and records the captured image of the test chart in the image recording unit 207 as a non-illuminated image.
【0072】次に、前記照明制御部21は、第2の照明
制御処理を行い、最適照明パラメータデータベース24
に記録された前記距離に対応する最適な照明の強度を読
み出し、該最適な照明の強度で照明部201を点灯し、
撮像部202は、照明画像撮影・記録処理を行い、テス
トチャートを撮影し、撮影されたテストチャートの画像
を照明画像として画像記録部207に記録する。続い
て、前記最適閾値算出処理手段は、最適閾値算出処理を
行い、画像記録部207に記録された無照明画像と照明
画像との差分処理を行って、テストチャートの部分だけ
の輝度ヒストグラムを作成する。該輝度ヒストグラム
は、前述されたように、図19における部分Bに示され
るような分布になるので、この輝度ヒストグラムの分布
における特徴、例えば、平均値等に基づいて閾値T33
を決定する。Next, the illumination control unit 21 performs a second illumination control process, and executes an optimal illumination parameter database 24.
Read out the optimal intensity of illumination corresponding to the distance recorded in the, lighting the illumination unit 201 with the optimal intensity of illumination,
The imaging unit 202 performs an illumination image capturing / recording process, captures a test chart, and records the captured image of the test chart in the image recording unit 207 as an illumination image. Subsequently, the optimum threshold value calculation processing unit performs an optimum threshold value calculation process, performs a difference process between the non-illuminated image and the illuminated image recorded in the image recording unit 207, and creates a luminance histogram of only the test chart portion. I do. As described above, since the luminance histogram has a distribution as shown in a part B in FIG. 19, the threshold value T33 is determined based on a characteristic in the distribution of the luminance histogram, for example, an average value.
To determine.
【0073】続いて、前記最適閾値算出処理手段は、最
適閾値記録処理を行い、前記所定の最適な照明の強度と
共に、閾値T33を最適な閾値として最適閾値データベ
ース25に記録する。Subsequently, the optimum threshold value calculation processing means performs an optimum threshold value recording process, and records the threshold value T33 as the optimum threshold value in the optimum threshold value database 25 together with the predetermined optimum illumination intensity.
【0074】このようにして、前記最適照明パラメータ
データベース24に記録されたすべての距離にテストチ
ャートを置き、各距離及び各最適な照明の強度ごとに最
適な閾値を算出し、最適な照明の強度及び最適な閾値を
最適閾値データベース25に記録することによって、図
26に示されるものと同様な、各最適な照明の強度及び
最適な閾値の実測値を得ることができる。As described above, the test chart is placed at all the distances recorded in the optimal illumination parameter database 24, and the optimal threshold value is calculated for each distance and each optimal illumination intensity, and the optimal illumination intensity is calculated. By recording the optimum threshold value and the optimum threshold value in the optimum threshold value database 25, it is possible to obtain the measured values of the respective optimum illumination intensities and the optimum threshold values similar to those shown in FIG.
【0075】続いて、前記最適パラメータ算出部212
は、補間処理を行い、各最適な照明の強度及び最適な閾
値の実測値を補間し、最終的に、図27に示されるもの
と同様な、最適閾値データベース25を作成する。Subsequently, the optimum parameter calculating section 212
Performs an interpolation process, interpolates the measured values of the optimal illumination intensity and the optimal threshold, and finally creates an optimal threshold database 25 similar to that shown in FIG.
【0076】次に、フローチャートについて説明する。 ステップS21 テストチャートを配設する。 ステップS22 第1の照明制御処理を行う。 ステップS23 無照明画像撮影・記録処理を行う。 ステップS24 第2の照明制御処理を行う。 ステップS25 照明画像撮影・記録処理を行う。 ステップS26 最適閾値算出処理を行う。 ステップS27 最適閾値記録処理を行い、ステップS
21に戻る。Next, the flowchart will be described. Step S21 A test chart is provided. Step S22: A first illumination control process is performed. Step S23: A non-illuminated image shooting / recording process is performed. Step S24 A second illumination control process is performed. Step S25: An illumination image photographing / recording process is performed. Step S26: Perform an optimum threshold value calculation process. In step S27, an optimum threshold recording process is performed.
Return to 21.
【0077】そして、閾値T22を最適な閾値として最
適閾値データベース25を作成する場合、まず、照明制
御部21は、第1の照明制御処理を行い、照明部201
を消灯する。また、撮像制御部22は、無照明背景画像
撮影・記録処理を行い、対象物体11等がない背景12
を撮像部202によって撮影し、撮影された背景12の
画像を無照明背景画像として画像記録部207に記録す
る。Then, when creating the optimum threshold database 25 using the threshold T22 as the optimum threshold, first, the lighting control unit 21 performs a first lighting control process, and
Turn off the light. Further, the imaging control unit 22 performs a non-illuminated background image photographing / recording process, and executes a background 12 without the target object 11 or the like.
Is captured by the imaging unit 202, and the captured image of the background 12 is recorded in the image recording unit 207 as a non-illuminated background image.
【0078】次に、前記照明制御部21は、第2の照明
制御処理を行い、最適照明パラメータデータベース24
に記録された所定の最適な照明の強度を読み出し、該最
適な照明の強度で照明部201を点灯し、撮像部202
は、照明背景画像撮影・記録処理を行い、背景12を撮
影し、撮影された背景12の画像を照明背景画像として
画像記録部207に記録する。Next, the illumination control section 21 performs a second illumination control process, and executes an optimal illumination parameter database 24.
Is read out, and the illumination unit 201 is turned on with the optimal illumination intensity, and the imaging unit 202 is turned on.
Performs a lighting background image photographing / recording process, photographs the background 12, and records the photographed image of the background 12 in the image recording unit 207 as a lighting background image.
【0079】続いて、機器制御部204は、最適照明パ
ラメータデータベース24に記録された前記最適な照明
の強度に対応する距離を読み出す。そして、オペレータ
は、撮像部202の前方の前記距離の位置にテストチャ
ートを配設する。Subsequently, the device control unit 204 reads the distance corresponding to the optimal illumination intensity recorded in the optimal illumination parameter database 24. Then, the operator arranges the test chart at the position of the distance in front of the imaging unit 202.
【0080】次に、照明制御部21は、第3の照明制御
処理を行い、照明部201を消灯し、撮像制御部22
は、無照明画像撮影・記録処理を行い、テストチャート
を撮像部202によって撮影し、撮影されたテストチャ
ートの画像を無照明画像として画像記録部207に記録
する。Next, the illumination control unit 21 performs a third illumination control process, turns off the illumination unit 201, and sets the imaging control unit 22
Performs a non-illuminated image capturing / recording process, captures a test chart by the image capturing unit 202, and records the captured image of the test chart in the image recording unit 207 as a non-illuminated image.
【0081】続いて、前記照明制御部21は、第4の照
明制御処理を行い、第2の照明制御処理において読み出
された最適な照明の強度で照明部201を点灯し、撮像
部202は、照明画像撮影・記録処理を行い、テストチ
ャートを撮影し、撮影されたテストチャートの画像を照
明画像として画像記録部207に記録する。Subsequently, the illumination control unit 21 performs a fourth illumination control process, turns on the illumination unit 201 with the optimal illumination intensity read out in the second illumination control process, and Then, an illumination image photographing / recording process is performed, a test chart is photographed, and an image of the photographed test chart is recorded in the image recording unit 207 as an illumination image.
【0082】そして、前記最適閾値算出処理手段は、最
適閾値算出処理を行い、無照明背景画像撮影・記録処理
において記録された無照明背景画像、照明背景画像撮影
・記録処理において記録された照明背景画像、無照明画
像撮影・記録処理において記録された無照明画像、及び
照明画像撮影・記録処理において記録された照明画像に
基づいて、最適な閾値を算出する。例えば、図19にお
ける部分Aで示される無照明背景画像と照明背景画像と
の差分画像の輝度ヒストグラムの分布、及び図19にお
ける部分Bで示される無照明画像と照明画像との差分画
像の輝度ヒストグラムの分布の各特徴(例えば、二つの
輝度ヒストグラムの分布のマハラノビス距離)に基づい
て閾値T22を決定する。The optimum threshold value calculation processing means performs an optimum threshold value calculation process, and outputs the non-illuminated background image recorded in the non-illuminated background image photographing / recording process, the illumination background recorded in the illuminated background image photographing / recording process An optimum threshold value is calculated based on the image, the non-illuminated image recorded in the non-illuminated image shooting / recording process, and the illumination image recorded in the illuminated image shooting / recording process. For example, the distribution of the luminance histogram of the difference image between the non-illuminated background image and the illuminated background image shown by the part A in FIG. 19, and the luminance histogram of the difference image between the non-illuminated image and the illuminated image shown by the part B in FIG. (For example, Mahalanobis distance of two luminance histogram distributions), the threshold T22 is determined.
【0083】続いて、前記最適閾値算出処理手段は、最
適閾値記録処理を行い、前記所定の最適な照明の強度と
共に、閾値T22を最適な閾値として最適閾値データベ
ース25に記録する。Subsequently, the optimum threshold value calculation processing means performs an optimum threshold value recording process, and records the threshold value T22 as an optimum threshold value in the optimum threshold value database 25 together with the predetermined optimum illumination intensity.
【0084】このようにして、前記最適照明パラメータ
データベース24に記録されたすべての距離にテストチ
ャートを置き、各距離及び各最適な照明の強度ごとに最
適な閾値を算出し、最適な照明の強度及び最適な閾値を
最適閾値データベース25に記録することによって、図
26に示されるものと同様な、各最適な照明の強度及び
最適な閾値の実測値を得ることができる。In this manner, the test chart is placed at all the distances recorded in the optimum illumination parameter database 24, and the optimum threshold value is calculated for each distance and each optimum illumination intensity, and the optimum illumination intensity is calculated. By recording the optimum threshold value and the optimum threshold value in the optimum threshold value database 25, it is possible to obtain the measured values of the respective optimum illumination intensities and the optimum threshold values similar to those shown in FIG.
【0085】続いて、前記最適パラメータ算出部212
は、補間処理を行い、各最適な照明の強度及び最適な閾
値の実測値を補間し、最終的に、図27に示されるもの
と同様な、最適閾値データベース25を作成する。Subsequently, the optimum parameter calculating section 212
Performs an interpolation process, interpolates the measured values of the optimal illumination intensity and the optimal threshold, and finally creates an optimal threshold database 25 similar to that shown in FIG.
【0086】このように、前記最適閾値算出処理手段
は、無照明背景画像及び無照明画像のうちの少なくとも
一方、並びに照明背景画像及び照明画像のうちの少なく
とも一方を照らしたときの画像に基づいて最適な閾値を
算出する。As described above, the optimum threshold value calculation processing means performs processing based on at least one of the non-illuminated background image and the non-illuminated image and the image when at least one of the illuminated background image and the illuminated image is illuminated. Calculate the optimal threshold.
【0087】ところで、第1〜第3の最適閾値データベ
ース作成処理において算出された最適な閾値が異常値で
あり、対象物体11を抽出するには不適切な場合があ
る。例えば、前記最適な閾値が小さすぎる(256階調
における0に非常に近い)と、撮影環境が極めて明る
く、照明部201の点灯時と消灯時とで輝度の差が発生
していない。また、前記最適な閾値が大きすぎる(25
6階調における255に非常に近い)と、撮像部202
から背景12までの距離が極めて短い。By the way, the optimum threshold calculated in the first to third optimum threshold database creation processing is an abnormal value, and may be inappropriate for extracting the target object 11. For example, when the optimal threshold is too small (very close to 0 in 256 gradations), the shooting environment is extremely bright, and there is no difference in luminance between when the lighting unit 201 is turned on and when it is turned off. Also, the optimal threshold is too large (25
(Very close to 255 in 6 gradations)
The distance from the object to the background 12 is extremely short.
【0088】このような場合、対象物体候補領域を形成
することができないので、前記最適な閾値が異常値であ
るとし、警告出力部213は、最適な閾値が不適切であ
るとして警告を出力する。In such a case, since the target object candidate area cannot be formed, it is determined that the optimum threshold is an abnormal value, and the warning output unit 213 outputs a warning that the optimum threshold is inappropriate. .
【0089】なお、本実施の形態においては、最適照明
パラメータデータベース24に記録されたすべての最適
な照明の強度について最適な閾値を求めるようにしてい
るが、各最適な照明の強度のうちの所定の最適な照明の
強度について最適な閾値を求め、求められた最適な閾値
について補間処理を行うことによって最適閾値データベ
ース25を作成することもできる。In the present embodiment, the optimum threshold value is obtained for all the optimum illumination intensities recorded in the optimum illumination parameter database 24. It is also possible to create the optimum threshold database 25 by obtaining an optimum threshold value for the optimum illumination intensity of the above and performing an interpolation process on the obtained optimum threshold value.
【0090】このように、本実施の形態においては、撮
像部202から対象物体11までの距離に対応させて各
最適な照明の強度を求めることができるので、照明の強
度を適切なものにすることができる。As described above, in the present embodiment, each optimum illumination intensity can be obtained in accordance with the distance from the imaging section 202 to the target object 11, so that the illumination intensity is made appropriate. be able to.
【0091】そして、各最適な照明の強度に対応させて
最適な閾値が算出され、設定されるので、対象物体11
を抽出するまでに照明画像及び無照明画像の撮影、並び
に差分・閾値処理を繰り返す必要がなくなる。したがっ
て、処理時間を短くすることができるので、高速で対象
物体11を抽出することができる。Then, an optimal threshold value is calculated and set in correspondence with each optimal illumination intensity.
It is not necessary to repeat the photographing of the illuminated image and the non-illuminated image and the difference / threshold processing until the image is extracted. Therefore, the processing time can be shortened, and the target object 11 can be extracted at high speed.
【0092】また、前記各最適な照明の強度に対応させ
て最適な閾値が算出され、設定されるので、対象物体1
1を常に安定して正しく抽出することができる。Further, the optimum threshold value is calculated and set in correspondence with each of the optimum illumination intensities.
1 can always be stably and correctly extracted.
【0093】そして、対象物体11のモデルを使用して
最終的に対象物体11を抽出するようになっているの
で、どのような環境においても、例えば、背景12に対
象物体11より反射率の高い物体がある場合でも、安定
して、かつ、高速で対象物体11を抽出することができ
る。Since the target object 11 is finally extracted by using the model of the target object 11, in any environment, for example, the background 12 has a higher reflectance than the target object 11 in the background 12. Even when there is an object, the target object 11 can be extracted stably and at high speed.
【0094】さらに、最適な閾値が不適切なものである
場合、警告が出力されるので、対象物体11を正しく抽
出することができる。Further, when the optimum threshold value is inappropriate, a warning is output, so that the target object 11 can be correctly extracted.
【0095】次に、フローチャートについて説明する。 ステップS31 第1の照明制御処理を行う。 ステップS32 無照明背景画像撮影・記録処理を行
う。 ステップS33 第2の照明制御処理を行う。 ステップS34 照明背景画像撮影・記録処理を行う。 ステップS35 テストチャートを配設する。 ステップS36 第3の照明制御処理を行う。 ステップS37 無照明画像撮影・記録処理を行う。 ステップS38 第4の照明制御処理を行う。 ステップS39 照明画像撮影・記録処理を行う。 ステップS40 最適閾値算出処理を行う。 ステップS41 最適閾値記録処理を行い、ステップS
31に戻る。Next, the flowchart will be described. Step S31 A first illumination control process is performed. Step S32: A non-illuminated background image photographing / recording process is performed. Step S33: A second illumination control process is performed. Step S34: An illumination background image photographing / recording process is performed. Step S35 A test chart is provided. Step S36: A third illumination control process is performed. Step S37: A non-illuminated image photographing / recording process is performed. Step S38: A fourth illumination control process is performed. Step S39: An illumination image photographing / recording process is performed. Step S40: Perform an optimum threshold value calculation process. Step S41: Perform an optimum threshold recording process, and
Return to 31.
【0096】次に、本発明の第2の実施の形態について
説明する。なお、第1の実施の形態と同じ構造を有する
ものについては、同じ符号を付与することによってその
説明を省略する。Next, a second embodiment of the present invention will be described. In addition, about what has the same structure as 1st Embodiment, the description is abbreviate | omitted by attaching the same code | symbol.
【0097】図28は本発明の第2の実施の形態におけ
る対象物体抽出画像処理装置のブロック図である。FIG. 28 is a block diagram of a target object extraction image processing apparatus according to the second embodiment of the present invention.
【0098】この場合、例えば、自動車内の人を抽出す
る場合のように、対象物体11が撮像部202からほぼ
一定の距離にある。対象物体11の位置が一定であるの
で、対象物体抽出画像処理装置100は測距部、測距制
御部及び距離記録部を備えない。したがって、対象物体
抽出画像処理装置100のコストを低くすることができ
る。In this case, for example, as in the case of extracting a person in a car, the target object 11 is located at a substantially constant distance from the imaging unit 202. Since the position of the target object 11 is constant, the target object extraction image processing apparatus 100 does not include a distance measurement unit, a distance measurement control unit, and a distance recording unit. Therefore, the cost of the target object extraction image processing device 100 can be reduced.
【0099】また、対象物体11の位置が一定であるの
で、最適照明パラメータデータベース24には、距離の
変化に対応させたものではなく、一つの最適な照明の強
度だけが記録される。そして、それに伴って、一つの最
適な照明の強度に対応させて一つの最適な閾値が最適閾
値データベース25に記録される。Further, since the position of the target object 11 is constant, the optimum illumination parameter database 24 does not correspond to a change in distance, but records only one optimal illumination intensity. Then, along with this, one optimal threshold is recorded in the optimal threshold database 25 in correspondence with one optimal illumination intensity.
【0100】ところで、例えば、第1、第2の実施の形
態においては、対象物体抽出フェーズにおいて、太陽光
等によって撮影環境が大きく変化すると、照明画像が明
るすぎたり暗すぎたりするので、抽出された対象物体1
1も明るすぎたり暗すぎたりしてしまい、対象物体11
の画像の画質が低下してしまう。In the first and second embodiments, for example, in the target object extraction phase, if the photographing environment changes significantly due to sunlight or the like, the illumination image becomes too bright or too dark. Target object 1
1 is too bright or too dark, and the target object 11
The image quality of the image is deteriorated.
【0101】そこで、対象物体11の画像の画質をチェ
ックすることができるようにした第3の実施の形態につ
いて説明する。なお、第1の実施の形態と同じ構造を有
するものについては、同じ符号を付与することによって
その説明を省略する。Therefore, a third embodiment in which the image quality of the image of the target object 11 can be checked will be described. In addition, about what has the same structure as 1st Embodiment, the description is abbreviate | omitted by attaching the same code | symbol.
【0102】図29は本発明の第3の実施の形態におけ
る対象物体抽出画像処理装置のブロック図、図30は本
発明の第3の実施の形態における最適照明パラメータデ
ータベースの例を示す図、図31は本発明の第3の実施
の形態における最適閾値データベースの例を示す図であ
る。FIG. 29 is a block diagram of a target object extraction image processing apparatus according to the third embodiment of the present invention, and FIG. 30 is a diagram showing an example of an optimum illumination parameter database according to the third embodiment of the present invention. 31 is a diagram illustrating an example of an optimal threshold database according to the third embodiment of the present invention.
【0103】図において、200は対象物体抽出画像処
理装置、414は抽出物体画質チェック部であり、該抽
出物体画質チェック部414は、太陽光等による撮影環
境の変化に対しても対象物体11(図1)の良好な画像
を得ることができるように、抽出された対象物体11の
画像の画質をチェックする。In the figure, reference numeral 200 denotes a target object extracted image processing apparatus, and 414 denotes an extracted object image quality check unit. The extracted object image quality check unit 414 operates to detect the target object 11 ( The image quality of the extracted image of the target object 11 is checked so that a good image shown in FIG. 1) can be obtained.
【0104】本実施の形態において、抽出物体画質チェ
ック部414は、前記対象物体11の画像の画質を明る
さでチェックする。そのために、前記抽出物体画質チェ
ック部414は、前記対象物体11の画像の所定の領域
における平均輝度を算出し、該平均輝度があらかじめ設
定された範囲内に収まるかどうかによって画質が適切で
あるかどうかを判断する。そして、平均輝度が前記範囲
内に収まらず、照明画像が明るすぎたり暗すぎたりして
画質が適切でない場合、前記抽出物体画質チェック部4
14は撮像制御部42に指示を送り、該撮像制御部42
の制御を行う。該撮像制御部42は、撮像部パラメータ
(カメラゲイン等)を変更し、無照明画像及び照明画像
を再び撮影した後、対象物体抽出フェーズの処理を行っ
て対象物体11を抽出する。このとき、抽出物体画質チ
ェック部414は照明制御部21にも指示を送り、照明
制御部21の制御を行う。該照明制御部21は、照明の
強度を変更する。In the present embodiment, the extracted object image quality check unit 414 checks the image quality of the image of the target object 11 by brightness. To this end, the extracted object image quality check unit 414 calculates an average luminance in a predetermined area of the image of the target object 11, and determines whether the image quality is appropriate based on whether the average luminance falls within a preset range. Judge whether or not. If the average luminance does not fall within the range and the illumination image is too bright or too dark and the image quality is not appropriate, the extracted object image quality check unit 4
14 sends an instruction to the imaging control unit 42,
Control. The imaging control unit 42 changes the imaging unit parameters (camera gain and the like), captures the non-illuminated image and the illuminated image again, and then performs the processing of the target object extraction phase to extract the target object 11. At this time, the extracted object image quality check unit 414 also sends an instruction to the illumination control unit 21 to control the illumination control unit 21. The illumination control unit 21 changes the intensity of the illumination.
【0105】なお、撮像部パラメータが変更されると画
質が変化するので、最適な照明の強度及び最適な閾値も
変化することになる。したがって、最適照明パラメータ
データベース24は、図30に示されるように、距離、
撮像部パラメータ及び最適な照明の強度によって表さ
れ、最適閾値ベータベース25は、図31に示されるよ
うに、最適な照明の強度、撮像部パラメータ及び最適な
閾値によって表される。[0105] When the imaging section parameters are changed, the image quality changes, so that the optimum illumination intensity and the optimum threshold value also change. Therefore, the optimal lighting parameter database 24 stores the distance,
The optimal threshold beta base 25 is represented by the imager parameters and the optimal illumination intensity, and the optimal threshold beta base 25 is represented by the optimal illumination intensity, the imager parameters and the optimal threshold, as shown in FIG.
【0106】このように、本実施の形態においては、撮
像環境が大きく変化しても、撮像部パラメータが変更さ
れるので、対象物体11を正しく抽出することができ
る。As described above, in the present embodiment, even if the imaging environment changes greatly, the imaging unit parameters are changed, so that the target object 11 can be correctly extracted.
【0107】なお、本実施の形態において、前記第2の
実施の形態と同様に、測距部、測距制御部及び距離記録
部を備えないようにすることもできる。In this embodiment, similarly to the second embodiment, it is possible to omit the distance measuring section, the distance measuring control section and the distance recording section.
【0108】前記各実施の形態においては、照明部20
1で可視光が使用されるようになっているが、可視光以
外の赤外光等の特定の波長域の光を使用することもでき
る。その場合、撮像部202において照明部201で使
用された波長域の光だけで撮影を行うことができるよう
にすると、撮影環境における環境光による影響を受けに
くくなり、安定して対象物体11を抽出することができ
る。In each of the above embodiments, the illumination unit 20
Although visible light is used in No. 1, light in a specific wavelength range such as infrared light other than visible light can also be used. In this case, if the imaging unit 202 can perform imaging only with light in the wavelength range used by the illumination unit 201, the imaging unit 202 is less likely to be affected by environmental light in the imaging environment and can stably extract the target object 11. can do.
【0109】また、前記各実施の形態においては、無照
明画像を撮影した後に、照明画像を撮影するようにして
いるが、照明画像を撮影した後に、無照明画像を撮影す
ることもできる。いずれの場合も、無照明画像を撮影す
る際と照明画像を撮影する際とで対象物体11が姿勢、
位置等を変えると、無照明画像と照明画像との差分画像
を正確に求めることができなくなってしまうので、無照
明画像を撮影するタイミングと照明画像を撮影するタイ
ミングとの間隔は短い方がよい。In each of the above embodiments, the illumination image is photographed after the non-illumination image is photographed. However, the non-illumination image may be photographed after the illumination image is photographed. In any case, the posture of the target object 11 is determined when the non-illuminated image is captured and when the illuminated image is captured.
If the position or the like is changed, the difference image between the non-illuminated image and the illuminated image cannot be accurately obtained. Therefore, it is better that the interval between the timing of capturing the unilluminated image and the timing of capturing the illuminated image is short .
【0110】なお、抽出すべき対象物体11が二つ以上
ある場合には、輝度ヒストグラムの分布において、図1
9において部分Aで示されるような背景12の領域は一
つ形成されるのに対して、図19において部分Bで示さ
れるような対象物体11の領域は二つ以上形成される。
そこで、パラメータデータ設定フェーズにおいて最適な
閾値を設定する際に、第1の実施の形態において閾値T
11を設定したのと同様に背景12の領域において閾値
を設定するか、対象物体11の領域のうちの輝度差が最
も小さい領域において閾値を設定するのが好ましい。When there are two or more target objects 11 to be extracted, in the distribution of the luminance histogram, FIG.
9, one region of the background 12 as shown by the portion A is formed, whereas two or more regions of the target object 11 as shown by the portion B in FIG. 19 are formed.
Therefore, when setting the optimum threshold in the parameter data setting phase, the threshold T in the first embodiment is set.
It is preferable to set a threshold value in the region of the background 12 as in the case of setting the threshold value 11, or to set the threshold value in a region of the target object 11 where the luminance difference is the smallest.
【0111】なお、本発明は前記実施の形態に限定され
るものではなく、本発明の趣旨に基づいて種々変形させ
ることが可能であり、それらを本発明の範囲から排除す
るものではない。The present invention is not limited to the above embodiment, but can be variously modified based on the gist of the present invention, and they are not excluded from the scope of the present invention.
【0112】[0112]
【発明の効果】以上詳細に説明したように、本発明によ
れば、対象物体抽出画像処理装置においては、対象物体
及び背景を照らす照明部と、前記対象物体及び背景を撮
影する撮像部と、前記対象物体及び背景を照らしたとき
の最適な照明の強度を算出する最適照明パラメータ算出
処理手段と、前記最適な照明の強度より低い照明の強度
で対象物体及び背景のうちの少なくとも一方を照らした
ときの画像、又は照明部を消灯して対象物体及び背景の
うちの少なくとも一方を撮影した画像、並びに最適な照
明の強度で対象物体及び背景のうちの少なくとも一方を
照らしたときの画像に基づいて、最適な閾値を算出する
最適閾値算出処理手段と、前記最適な照明の強度より低
い照明の強度で対象物体及び背景を照らしたときの画
像、又は照明部を消灯して対象物体及び背景を撮影した
画像、前記最適な照明の強度で対象物体及び背景を照ら
したときの画像、並びに前記最適な閾値に基づいて差分
処理及び閾値処理を行う差分・閾値処理部と、前記差分
処理及び閾値処理の結果に基づいて対象物体を抽出する
対象物体抽出部とを有する。As described above in detail, according to the present invention, in a target object extraction image processing apparatus, an illumination unit for illuminating a target object and a background, an imaging unit for photographing the target object and a background, Optimum illumination parameter calculation processing means for calculating an optimal illumination intensity when illuminating the target object and the background, and illuminating at least one of the target object and the background with an illumination intensity lower than the optimal illumination intensity Based on the image at the time, or an image of at least one of the target object and the background captured by turning off the lighting unit, and an image when the target object and the background at least one of the target object and the background are illuminated with the optimal illumination intensity. An optimum threshold value calculating means for calculating an optimum threshold value, and an image or a lighting unit when the target object and the background are illuminated with an illumination intensity lower than the optimal illumination intensity. An image obtained by photographing the target object and the background, an image obtained by illuminating the target object and the background with the optimum illumination intensity, and a difference / threshold processing unit that performs a difference process and a threshold process based on the optimum threshold. A target object extracting unit for extracting a target object based on the result of the difference processing and the threshold processing.
【0113】この場合、前記最適な照明の強度より低い
照明の強度で対象物体及び背景のうちの少なくとも一方
を照らしたときの画像、又は照明部を消灯して対象物体
及び背景のうちの少なくとも一方を撮影した画像、並び
に最適な照明の強度で対象物体及び背景のうちの少なく
とも一方を照らしたときの画像に基づいて、最適な閾値
が算出される。In this case, an image when at least one of the target object and the background is illuminated with an illumination intensity lower than the optimum illumination intensity, or at least one of the target object and the background when the illumination unit is turned off. An optimal threshold is calculated based on an image obtained by photographing the target object and an image obtained by illuminating at least one of the target object and the background with the optimal illumination intensity.
【0114】したがって、最適な照明の強度に対応させ
て最適な閾値が算出されるので、対象物体を抽出するま
でに照明画像及び無照明画像の撮影、差分処理及び閾値
処理を繰り返す必要がなくなるので、処理時間を短くす
ることができる。その結果、高速で対象物体を抽出する
ことができる。Therefore, the optimum threshold value is calculated corresponding to the optimum illumination intensity, so that it is not necessary to repeat the photographing of the illumination image and the non-illumination image, the difference processing, and the threshold processing until the target object is extracted. The processing time can be shortened. As a result, a target object can be extracted at high speed.
【0115】また、各最適な照明の強度に対応させて最
適な閾値が算出されるので、対象物体を常に安定して正
しく抽出することができる。Further, since the optimum threshold value is calculated corresponding to each optimum illumination intensity, the target object can always be stably and correctly extracted.
【図1】本発明の第1の実施の形態における対象物体抽
出画像処理装置のブロック図である。FIG. 1 is a block diagram of a target object extraction image processing device according to a first embodiment of the present invention.
【図2】従来の対象物体抽出画像処理装置における背景
と対象物体との位置関係を示す図である。FIG. 2 is a diagram illustrating a positional relationship between a background and a target object in a conventional target object extraction image processing apparatus.
【図3】本発明の第1の実施の形態における無照明画像
の例を示す図である。FIG. 3 is a diagram illustrating an example of a non-illuminated image according to the first embodiment of the present invention.
【図4】本発明の第1の実施の形態における照明画像の
例を示す図である。FIG. 4 is a diagram illustrating an example of an illumination image according to the first embodiment of the present invention.
【図5】本発明の第1の実施の形態における差分画像の
例を示す図である。FIG. 5 is a diagram illustrating an example of a difference image according to the first embodiment of the present invention.
【図6】本発明の第1の実施の形態における差分画像の
輝度ヒストグラムを示す図である。FIG. 6 is a diagram illustrating a luminance histogram of a difference image according to the first embodiment of the present invention.
【図7】本発明の第1の実施の形態における対象物体候
補領域の第1の例を示す図である。FIG. 7 is a diagram illustrating a first example of a target object candidate area according to the first embodiment of the present invention.
【図8】本発明の第1の実施の形態における対象物体候
補領域の第2の例を示す図である。FIG. 8 is a diagram illustrating a second example of a target object candidate area according to the first embodiment of the present invention.
【図9】本発明の第1の実施の形態における対象物体候
補領域の第3の例を示す図である。FIG. 9 is a diagram illustrating a third example of a target object candidate area according to the first embodiment of the present invention.
【図10】本発明の第1の実施の形態における背景に反
射率の高い物体が存在する場合の背景画像を示す図であ
る。FIG. 10 is a diagram illustrating a background image when an object having a high reflectance exists in the background according to the first embodiment of the present invention.
【図11】本発明の第1の実施の形態における背景の前
に対象物体が存在する場合の照明画像を示す図である。FIG. 11 is a diagram showing an illumination image when a target object is present in front of a background according to the first embodiment of the present invention.
【図12】本発明の第1の実施の形態における対象物体
候補領域の第4の例を示す図である。FIG. 12 is a diagram illustrating a fourth example of a target object candidate area according to the first embodiment of the present invention.
【図13】本発明の第1の実施の形態における対象物体
が背景に近い場合の差分画像の輝度ヒストグラムを示す
図である。FIG. 13 is a diagram illustrating a luminance histogram of a difference image when the target object is close to the background according to the first embodiment of the present invention.
【図14】本発明の第1の実施の形態における照明の強
度が低い場合の差分画像の輝度ヒストグラムを示す図で
ある。FIG. 14 is a diagram illustrating a luminance histogram of a difference image when the intensity of illumination is low in the first embodiment of the present invention.
【図15】本発明の第1の実施の形態における照明の強
度が高い場合の差分画像の輝度ヒストグラムを示す図で
ある。FIG. 15 is a diagram illustrating a luminance histogram of a difference image when the intensity of illumination is high according to the first embodiment of the present invention.
【図16】本発明の第1の実施の形態における最適照明
パラメータデータベース作成処理の動作を示すフローチ
ャートである。FIG. 16 is a flowchart illustrating an operation of an optimal illumination parameter database creation process according to the first embodiment of the present invention.
【図17】本発明の第1の実施の形態における距離及び
最適な照明の強度の実測値の例を示す図である。FIG. 17 is a diagram illustrating an example of measured values of a distance and an optimum illumination intensity according to the first embodiment of the present invention.
【図18】本発明の第1の実施の形態における最適照明
パラメータデータベースの例を示す図である。FIG. 18 is a diagram illustrating an example of an optimal illumination parameter database according to the first embodiment of the present invention.
【図19】本発明の第1の実施の形態における閾値処理
の差分画像の輝度ヒストグラムを示す図である。FIG. 19 is a diagram illustrating a luminance histogram of a difference image of the threshold processing according to the first embodiment of the present invention.
【図20】本発明の第1の実施の形態における閾値処理
結果を示す第1の図である。FIG. 20 is a first diagram illustrating a result of the threshold processing according to the first embodiment of the present invention.
【図21】本発明の第1の実施の形態における閾値処理
結果を示す第2の図である。FIG. 21 is a second diagram illustrating a result of the threshold processing according to the first embodiment of the present invention.
【図22】本発明の第1の実施の形態における閾値処理
結果を示す第3の図である。FIG. 22 is a third diagram illustrating a result of the threshold processing according to the first embodiment of the present invention.
【図23】本発明の第1の実施の形態における第1の最
適閾値データベース作成処理の動作を示すフローチャー
トである。FIG. 23 is a flowchart illustrating an operation of a first optimum threshold value database creation process according to the first embodiment of the present invention.
【図24】本発明の第1の実施の形態における第2の最
適閾値データベース作成処理の動作を示すフローチャー
トである。FIG. 24 is a flowchart showing an operation of a second optimum threshold database creation process according to the first embodiment of the present invention.
【図25】本発明の第1の実施の形態における第3の最
適閾値データベース作成処理の動作を示すフローチャー
トである。FIG. 25 is a flowchart showing an operation of a third optimum threshold value database creation process according to the first embodiment of the present invention.
【図26】本発明の第1の実施の形態における最適な照
明の強度及び最適な閾値の実測値の例を示す図である。FIG. 26 is a diagram illustrating an example of actual measurement values of an optimum illumination intensity and an optimum threshold value according to the first embodiment of the present invention.
【図27】本発明の第1の実施の形態における最適閾値
データベースの例を示す図である。FIG. 27 is a diagram showing an example of an optimal threshold database according to the first embodiment of the present invention.
【図28】本発明の第2の実施の形態における対象物体
抽出画像処理装置のブロック図である。FIG. 28 is a block diagram of a target object extraction image processing device according to a second embodiment of the present invention.
【図29】本発明の第3の実施の形態における対象物体
抽出画像処理装置のブロック図である。FIG. 29 is a block diagram of a target object extraction image processing device according to a third embodiment of the present invention.
【図30】本発明の第3の実施の形態における最適照明
パラメータデータベースの例を示す図である。FIG. 30 is a diagram illustrating an example of an optimal illumination parameter database according to the third embodiment of the present invention.
【図31】本発明の第3の実施の形態における最適閾値
データベースの例を示す図である。FIG. 31 is a diagram illustrating an example of an optimal threshold database according to the third embodiment of the present invention.
10、100、200 対象物体抽出画像処理装置 11 対象物体 12 背景 24 最適照明パラメータデータベース 25 最適閾値データベース 201 照明部 202 撮像部 203 測距部 205 距離記録部 207 画像記録部 208 差分・閾値処理部 209 対象物体抽出部 212 最適パラメータ算出部 213 警告出力部 414 抽出物体画質チェック部 10, 100, 200 Target object extraction image processing apparatus 11 Target object 12 Background 24 Optimal illumination parameter database 25 Optimal threshold database 201 Illumination unit 202 Imaging unit 203 Distance measurement unit 205 Distance recording unit 207 Image recording unit 208 Difference / threshold processing unit 209 Target object extraction unit 212 Optimal parameter calculation unit 213 Warning output unit 414 Extracted object image quality check unit
Claims (12)
と、(b)前記対象物体及び背景を撮影する撮像部と、
(c)前記対象物体及び背景を照らしたときの最適な照
明の強度を算出する最適照明パラメータ算出処理手段
と、(d)前記最適な照明の強度より低い照明の強度で
対象物体及び背景のうちの少なくとも一方を照らしたと
きの画像、又は照明部を消灯して対象物体及び背景のう
ちの少なくとも一方を撮影した画像、並びに最適な照明
の強度で対象物体及び背景のうちの少なくとも一方を照
らしたときの画像に基づいて、最適な閾値を算出する最
適閾値算出処理手段と、(e)前記最適な照明の強度よ
り低い照明の強度で対象物体及び背景を照らしたときの
画像、又は照明部を消灯して対象物体及び背景を撮影し
た画像、前記最適な照明の強度で対象物体及び背景を照
らしたときの画像、並びに前記最適な閾値に基づいて差
分処理及び閾値処理を行う差分・閾値処理部と、(f)
前記差分処理及び閾値処理の結果に基づいて対象物体を
抽出する対象物体抽出部とを有することを特徴とする対
象物体抽出画像処理装置。1. An illumination unit for illuminating a target object and a background, and an imaging unit for photographing the target object and a background.
(C) an optimum illumination parameter calculation processing means for calculating an optimal illumination intensity when the target object and the background are illuminated; and (d) an optimal illumination parameter calculation unit for the target object and the background at an illumination intensity lower than the optimal illumination intensity. An image when illuminating at least one of the images, or an image in which at least one of the target object and the background is captured by turning off the illumination unit, and illuminating at least one of the target object and the background with the optimal illumination intensity (E) an image or a lighting unit when the target object and the background are illuminated with an illumination intensity lower than the optimal illumination intensity based on the image at the time. An image obtained by shooting the target object and the background when the light is turned off, an image obtained when the target object and the background are illuminated with the optimum illumination intensity, and a difference process and a threshold process based on the optimum threshold value And the difference-threshold processing unit that performs, (f)
A target object extraction unit for extracting a target object based on the results of the difference processing and the threshold processing.
と、(b)前記対象物体及び背景を撮影する撮像部と、
(c)前記対象物体及び背景を照らしたときの最適な照
明の強度が記録された最適照明パラメータ記録手段と、
(d)前記最適な照明の強度より低い照明の強度で対象
物体及び背景のうちの少なくとも一方を照らしたときの
画像、又は照明部を消灯して対象物体及び背景のうちの
少なくとも一方を撮影した画像、並びに最適な照明の強
度で対象物体及び背景のうちの少なくとも一方を照らし
たときの画像に基づいて算出された最適な閾値が記録さ
れた最適閾値記録手段と、(e)前記最適な照明の強度
より低い照明の強度で対象物体及び背景を照らしたとき
の画像、又は照明部を消灯して対象物体及び背景を撮影
した画像、前記最適な照明の強度で対象物体及び背景を
照らしたときの画像、並びに前記最適な閾値に基づいて
差分処理及び閾値処理を行う差分・閾値処理部と、
(f)前記差分処理及び閾値処理の結果に基づいて対象
物体を抽出する対象物体抽出部とを有することを特徴と
する対象物体抽出画像処理装置。2. An illumination unit for illuminating the target object and the background, and an imaging unit for photographing the target object and the background.
(C) an optimal illumination parameter recording unit in which an optimal illumination intensity when illuminating the target object and the background is recorded;
(D) an image when at least one of the target object and the background is illuminated with an illumination intensity lower than the optimal illumination intensity, or at least one of the target object and the background is photographed with the illumination unit turned off. Optimal threshold recording means for recording an optimal threshold calculated based on the image and an image obtained by illuminating at least one of the target object and the background with the optimal illumination intensity; and (e) the optimal illumination When the target object and the background are illuminated with an intensity of illumination lower than the intensity of the image, or when the illumination unit is turned off, the image of the target object and the background is captured, and when the target object and the background are illuminated with the optimal illumination intensity. Image, and a difference / threshold processing unit that performs difference processing and threshold processing based on the optimal threshold,
And (f) a target object extraction unit for extracting a target object based on the results of the difference processing and the threshold processing.
る最適照明パラメータ記録手段と、(b)前記最適な閾
値が記録される最適閾値記録手段とを有する請求項1に
記載の対象物体抽出画像処理装置。3. The object according to claim 1, comprising: (a) an optimum illumination parameter recording unit for recording the optimal illumination intensity; and (b) an optimal threshold recording unit for recording the optimal threshold. Object extraction image processing device.
の距離を測定する測距部を有するとともに、(b)前記
最適照明パラメータ算出処理手段は、対象物体及び背景
を照らしたときの最適な照明の強度を各距離ごとに算出
する請求項1又は3に記載の対象物体抽出画像処理装
置。4. An apparatus according to claim 1, further comprising: (a) a distance measuring section for measuring a distance from said image pickup section to said target object; and (b) said optimum illumination parameter calculation processing means includes: The target object extraction image processing apparatus according to claim 1 or 3, wherein a strong illumination intensity is calculated for each distance.
の距離が記録される距離記録部を有するとともに、
(b)前記最適照明パラメータ記録手段に、対象物体及
び背景を照らしたときの最適な照明の強度が距離ごとに
記録される請求項2又は3に記載の対象物体抽出画像処
理装置。(5) A distance recording unit for recording a distance from the imaging unit to the target object,
4. The target object extraction image processing apparatus according to claim 2, wherein (b) the optimum illumination parameter recording unit records the optimum illumination intensity when the target object and the background are illuminated for each distance. 5.
録される画像記録部を有する請求項1〜3のいずれか1
項に記載の対象物体抽出画像処理装置。6. The image processing apparatus according to claim 1, further comprising an image recording unit that records an image photographed by said imaging unit.
Item extraction image processing apparatus according to Item.
び閾値処理の結果、並びに対象物体のモデルに基づいて
対象物体を抽出する請求項1〜3のいずれか1項に記載
の対象物体抽出画像処理装置。7. The target object extraction apparatus according to claim 1, wherein the target object extraction unit extracts the target object based on a result of the difference processing and the threshold processing and a model of the target object. Image processing device.
値が算出された場合に警告を出力する警告出力部を有す
る請求項1又は3に記載の対象物体抽出画像処理装置。8. The target object extraction image processing apparatus according to claim 1, further comprising a warning output unit that outputs a warning when an abnormal value is calculated by the optimum threshold value calculation processing unit.
前記撮像部から前記対象物体までの距離に対応させて最
適な照明の強度が記録される請求項2又は3に記載の対
象物体抽出画像処理装置。9. The optimum illumination parameter recording means includes:
4. The target object extraction image processing device according to claim 2, wherein an optimum illumination intensity is recorded in correspondence with a distance from the imaging unit to the target object. 5.
明の強度に対応させて最適な閾値が記録される請求項2
又は3に記載の対象物体抽出画像処理装置。10. The optimum threshold value recording means records an optimum threshold value corresponding to an optimum illumination intensity.
Or the target object extraction image processing apparatus according to 3.
るかどうかをチェックし、画質が適切でない場合、撮像
部及び照明部の制御を行う抽出物体画質チェック部を有
する請求項1〜3のいずれか1項に記載の対象物体抽出
画像処理装置。11. The image processing apparatus according to claim 1, further comprising an extracted object image quality check unit that checks whether the image quality of the extracted target object is appropriate, and controls the imaging unit and the illumination unit when the image quality is not appropriate. The target object extraction image processing device according to claim 1.
外光等の特定の波長域の光であり、(b)撮像部は前記
照明部において使用された波長域の光だけで撮像を行う
請求項1〜3のいずれか1項に記載の対象物体抽出画像
処理装置。12. (a) The illumination used in the illumination unit is light in a specific wavelength range such as infrared light, and (b) the imaging unit captures only the light in the wavelength range used in the illumination unit. The target object extraction image processing apparatus according to any one of claims 1 to 3, wherein the processing is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000323565A JP4483067B2 (en) | 2000-10-24 | 2000-10-24 | Target object extraction image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000323565A JP4483067B2 (en) | 2000-10-24 | 2000-10-24 | Target object extraction image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002133400A true JP2002133400A (en) | 2002-05-10 |
JP4483067B2 JP4483067B2 (en) | 2010-06-16 |
Family
ID=18801214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000323565A Expired - Fee Related JP4483067B2 (en) | 2000-10-24 | 2000-10-24 | Target object extraction image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4483067B2 (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006259829A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Image processing system, image processor and processing method, recording medium, and program |
JP2007000267A (en) * | 2005-06-22 | 2007-01-11 | Konica Minolta Medical & Graphic Inc | Area extracting apparatus, area extracting method and program |
JP2008027242A (en) * | 2006-07-21 | 2008-02-07 | Toyota Central Res & Dev Lab Inc | Device part discrimination device and gender judgment device |
US7359547B2 (en) | 2002-09-20 | 2008-04-15 | Nippon Telegraph And Telephone Corporation | Pseudo three dimensional image generating apparatus |
JP2015510169A (en) * | 2012-01-17 | 2015-04-02 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | Feature improvement by contrast improvement and optical imaging for object detection |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US9436998B2 (en) | 2012-01-17 | 2016-09-06 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11099653B2 (en) | 2013-04-26 | 2021-08-24 | Ultrahaptics IP Two Limited | Machine responsiveness to dynamic user movements and gestures |
JP2021131864A (en) * | 2020-02-20 | 2021-09-09 | コグネックス・コーポレイション | Methods and devices for using range data to predict object features |
US11353962B2 (en) | 2013-01-15 | 2022-06-07 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
JP2022162903A (en) * | 2021-04-13 | 2022-10-25 | パナソニックIpマネジメント株式会社 | Production facility monitoring system and production facility monitoring method |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US12154238B2 (en) | 2014-05-20 | 2024-11-26 | Ultrahaptics IP Two Limited | Wearable augmented reality devices with object detection and tracking |
US12260023B2 (en) | 2012-01-17 | 2025-03-25 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US12299207B2 (en) | 2015-01-16 | 2025-05-13 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US12314478B2 (en) | 2014-05-14 | 2025-05-27 | Ultrahaptics IP Two Limited | Systems and methods of tracking moving hands and recognizing gestural interactions |
-
2000
- 2000-10-24 JP JP2000323565A patent/JP4483067B2/en not_active Expired - Fee Related
Cited By (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7359547B2 (en) | 2002-09-20 | 2008-04-15 | Nippon Telegraph And Telephone Corporation | Pseudo three dimensional image generating apparatus |
JP2006259829A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Image processing system, image processor and processing method, recording medium, and program |
JP2007000267A (en) * | 2005-06-22 | 2007-01-11 | Konica Minolta Medical & Graphic Inc | Area extracting apparatus, area extracting method and program |
JP2008027242A (en) * | 2006-07-21 | 2008-02-07 | Toyota Central Res & Dev Lab Inc | Device part discrimination device and gender judgment device |
US9697643B2 (en) | 2012-01-17 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9741136B2 (en) | 2012-01-17 | 2017-08-22 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9436998B2 (en) | 2012-01-17 | 2016-09-06 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
JP2016186793A (en) * | 2012-01-17 | 2016-10-27 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | Feature improvement by contrast improvement and optical imaging for object detection |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US12260023B2 (en) | 2012-01-17 | 2025-03-25 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9626591B2 (en) | 2012-01-17 | 2017-04-18 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US11782516B2 (en) | 2012-01-17 | 2023-10-10 | Ultrahaptics IP Two Limited | Differentiating a detected object from a background using a gaussian brightness falloff pattern |
US9652668B2 (en) | 2012-01-17 | 2017-05-16 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9672441B2 (en) | 2012-01-17 | 2017-06-06 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11308711B2 (en) | 2012-01-17 | 2022-04-19 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US9767345B2 (en) | 2012-01-17 | 2017-09-19 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US9778752B2 (en) | 2012-01-17 | 2017-10-03 | Leap Motion, Inc. | Systems and methods for machine control |
US9934580B2 (en) | 2012-01-17 | 2018-04-03 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
JP2015510169A (en) * | 2012-01-17 | 2015-04-02 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | Feature improvement by contrast improvement and optical imaging for object detection |
US10366308B2 (en) | 2012-01-17 | 2019-07-30 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US10410411B2 (en) | 2012-01-17 | 2019-09-10 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US10565784B2 (en) | 2012-01-17 | 2020-02-18 | Ultrahaptics IP Two Limited | Systems and methods for authenticating a user according to a hand of the user moving in a three-dimensional (3D) space |
US12086327B2 (en) | 2012-01-17 | 2024-09-10 | Ultrahaptics IP Two Limited | Differentiating a detected object from a background using a gaussian brightness falloff pattern |
US10699155B2 (en) | 2012-01-17 | 2020-06-30 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US10097754B2 (en) | 2013-01-08 | 2018-10-09 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US9626015B2 (en) | 2013-01-08 | 2017-04-18 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US11874970B2 (en) | 2013-01-15 | 2024-01-16 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US12405673B2 (en) | 2013-01-15 | 2025-09-02 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US12204695B2 (en) | 2013-01-15 | 2025-01-21 | Ultrahaptics IP Two Limited | Dynamic, free-space user interactions for machine control |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US11353962B2 (en) | 2013-01-15 | 2022-06-07 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US12306301B2 (en) | 2013-03-15 | 2025-05-20 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US11693115B2 (en) | 2013-03-15 | 2023-07-04 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US11099653B2 (en) | 2013-04-26 | 2021-08-24 | Ultrahaptics IP Two Limited | Machine responsiveness to dynamic user movements and gestures |
US12333081B2 (en) | 2013-04-26 | 2025-06-17 | Ultrahaptics IP Two Limited | Interacting with a machine using gestures in first and second user-specific virtual planes |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US12236528B2 (en) | 2013-08-29 | 2025-02-25 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11461966B1 (en) | 2013-08-29 | 2022-10-04 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11776208B2 (en) | 2013-08-29 | 2023-10-03 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11282273B2 (en) | 2013-08-29 | 2022-03-22 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US12086935B2 (en) | 2013-08-29 | 2024-09-10 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US12242312B2 (en) | 2013-10-03 | 2025-03-04 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US12265761B2 (en) | 2013-10-31 | 2025-04-01 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US12314478B2 (en) | 2014-05-14 | 2025-05-27 | Ultrahaptics IP Two Limited | Systems and methods of tracking moving hands and recognizing gestural interactions |
US12154238B2 (en) | 2014-05-20 | 2024-11-26 | Ultrahaptics IP Two Limited | Wearable augmented reality devices with object detection and tracking |
US12095969B2 (en) | 2014-08-08 | 2024-09-17 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US12299207B2 (en) | 2015-01-16 | 2025-05-13 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US12038267B2 (en) | 2020-02-20 | 2024-07-16 | Cognex Corporation | Methods and apparatus for using range data to predict object features |
JP7200275B2 (en) | 2020-02-20 | 2023-01-06 | コグネックス・コーポレイション | Method and apparatus for using range data to predict object features |
US11624606B2 (en) | 2020-02-20 | 2023-04-11 | Cognex Corporation | Methods and apparatus for using range data to predict object features |
JP2021131864A (en) * | 2020-02-20 | 2021-09-09 | コグネックス・コーポレイション | Methods and devices for using range data to predict object features |
JP2022162903A (en) * | 2021-04-13 | 2022-10-25 | パナソニックIpマネジメント株式会社 | Production facility monitoring system and production facility monitoring method |
JP7702635B2 (en) | 2021-04-13 | 2025-07-04 | パナソニックIpマネジメント株式会社 | Production facility monitoring system and production facility monitoring method |
Also Published As
Publication number | Publication date |
---|---|
JP4483067B2 (en) | 2010-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4483067B2 (en) | Target object extraction image processing device | |
KR101124778B1 (en) | Camera flash module and method for controlling same | |
JP3298072B2 (en) | Video camera system | |
US8830227B2 (en) | Depth-based gain control | |
JP3884321B2 (en) | 3D information acquisition apparatus, projection pattern in 3D information acquisition, and 3D information acquisition method | |
KR101640875B1 (en) | Object detection device | |
US20070176927A1 (en) | Image Processing method and image processor | |
US20190356833A1 (en) | Control Method, Control Device, Mobile Terminal, and Computer-Readable Storage Medium | |
US20090278922A1 (en) | Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control | |
JP6861345B2 (en) | Character figure recognition device, character figure recognition method, and character figure recognition program | |
KR20000071087A (en) | Outdoor range finder | |
US10303265B2 (en) | Optical mouse and parameter calibration method thereof | |
US10354413B2 (en) | Detection system and picture filtering method thereof | |
US20120113294A1 (en) | Camera device, color calibration method, and program | |
JPH1096605A (en) | Position measuring method and device with image processing | |
JP5239561B2 (en) | Substrate appearance inspection method and substrate appearance inspection apparatus | |
US7365778B2 (en) | Electronic camera and white balance correction circuit | |
US20030146983A1 (en) | Electronic camera capable of having results of previous image pickup processing reflected in current image pickup processing | |
US7599576B2 (en) | Image subtraction of illumination artifacts | |
JP6525503B2 (en) | Image processing apparatus and imaging apparatus | |
US10803625B2 (en) | Detection system and picturing filtering method thereof | |
JP2012149946A (en) | Inspection device, inspection method and program | |
JP2001352440A (en) | Image processing unit | |
JP3554069B2 (en) | Imaging device | |
US20180130230A1 (en) | Recognition apparatus, determination method, and article manufacturing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100302 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100315 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |